如果您喜欢这些文章,欢迎点击此处订阅本Blog
系统 2019-08-29 22:29:02 2061
在Java开发特别是数据库开发中,经常会用到Class.forName()这个方法。通过查询JavaDocumentation我们会发现使用Class.forName()静态方法的目的是为了动态加载类。在加载完成后,一般还要调用Class下的newInstance()静态方法来实例化对象以便操作。因此,单单使用Class.forName()是动态加载类是没有用的,其最终目的是为了实例化对象。这里有必要提一下就是Class下的newInstance()和ne
系统 2019-08-29 22:02:43 2061
ClassLoader是Java虚拟机(JVM)的类装载子系统,它负责将Java字节码装载到JVM中,并使其成为JVM一部分。JVM的类动态装载技术能够在运行时刻动态地加载或者替换系统的某些功能模块,而不影响系统其他功能模块的正常运行。本文将分析JVM中的类装载系统,探讨JVM中类装载的原理、实现以及应用。2装载过程简介类装载就是寻找一个类或是一个接口的字节码文件并通过解析该字节码来构造代表这个类或是这个接口的class对象的过程。在Java中,类装载器把
系统 2019-08-12 09:30:01 2061
当类间继承关系很简单时,super()的使用很简单。classA(object):def__init__(self):print('a')classB(A):def__init__(self):super(B,self).__init__()print('b')b=B()输出结果:ab当一个类继承多个类时,问题就复杂起来了,请看下例:classA(object):def__init__(self):print('a')classB(object):def_
系统 2019-09-27 17:55:42 2060
我们有时候会需要在网上查找并下载图片,当数量比较少的时候,点击右键保存,很轻松就可以实现图片的下载,但是有些图片进行了特殊设置,点击右键没有显示保存选项,或者需要下载很多图片,这样的情况,写一段Python爬虫代码就可以轻松解决!一、页面抓取#coding=utf-8importurllibdefgetHtml(url):page=urllib.urlopen(url)html=page.read()returnhtmlhtml=getHtml("http
系统 2019-09-27 17:54:24 2060
classRoom:def__init__(self,name,length,width):self.__name=nameself.__length=lengthself.__width=widthdefget_name(self):returnself.__namedefset_name(self,newName):iftype(newName)isstrandnewName.isdigit()==False:self.__name=newNameel
系统 2019-09-27 17:53:27 2060
python一直对中文支持的不好,最近老遇到编码问题,而且几乎没有通用的方案来解决这个问题,但是对常见的方法都试过之后,发现还是可以解决的,下面总结了常用的支持中文的编码问题(这些方法中可能其中一个就能解决问题,也可能是多个组合)。(1)、首先,要保证文件的开头要加上编码设置来说明文件的编码复制代码代码如下:#encoding=utf-8(2)、然后,在连接数据的连接参数里加上字符集说明查询出的结果的编码,这个不加的后果可能是查询出的汉字字符都是问号复制代
系统 2019-09-27 17:53:20 2060
作者:HelloGitHub-ProdesireHelloGitHub的《讲解开源项目》系列,项目地址:https://github.com/HelloGitHub-Team/Article前言在前面三篇介绍argparse的文章中,我们全面了解了argparse的能力,相信不少小伙伴们都已经摩拳擦掌,想要打造一个属于自己的命令行工具。本文将以我们日常工作中最常见的git命令为例,讲解如何使用argparse库来实现一个真正可用的命令行程序。本系列文章默认
系统 2019-09-27 17:52:35 2060
一、安装MySQL-python复制代码代码如下:#yuminstall-yMySQL-python二、打开数据库连接复制代码代码如下:#!/usr/bin/pythonimportMySQLdbconn=MySQLdb.connect(user='root',passwd='admin',host='127.0.0.1')conn.select_db('test')cur=conn.cursor()三、操作数据库复制代码代码如下:definsertdb(
系统 2019-09-27 17:52:20 2060
本文实例讲述了Python基于BeautifulSoup和requests实现的爬虫功能。分享给大家供大家参考,具体如下:爬取的目标网页:http://www.qianlima.com/zb/area_305/这是一个招投标网站,我们使用python脚本爬取红框中的信息,包括链接网址、链接名称、时间等三项内容。使用到的Python库:BeautifulSoup、requests代码如下:#-*-coding:utf-8-*-importrequestsfr
系统 2019-09-27 17:52:10 2060