一、正则表达式的特殊字符介绍正则表达式^匹配行首$匹配行尾.任意单个字符[]匹配包含在中括号中的任意字符[^]匹配包含在中括号中的字符之外的字符[-]匹配指定范围的任意单个字符?匹配之前项的1次或者0次+匹配之前项的1次或者多次*匹配之前项的0次或者多次{n}匹配之前项的n次{m,n}匹配之前项最大n次,最小m次{n,}配置之前项至少n次二、re模块的方法介绍1、匹配类方法a、findall方法#findall方法,该方法在字符串中查找模式匹配,将所有的匹
系统 2019-09-27 17:56:15 2127
最近想备份网站,但是php下载文件的大小是有大小限制的,而我也懒得装ftp再下载了,就想着暂时弄个二级域名站,然后用python(python3)的requests库直接下载网站根目录下的所有文件以及文件夹。(0-0就是这么任性)1.安装requests库pipinstallrequests2.下载文件夹下所有文件及文件夹这里需要处理的地方主要是文件夹,这里我们判断出该链接是文件夹时,自动创建文件夹,并递归继续进行操作,否则判断该链接是文件,直接使用req
系统 2019-09-27 17:55:48 2127
师父布置的任务,让我写一个服务练练手,搞清楚socket的原理和过程后跑了一个小demo,很有成就感,代码内容也比较清晰易懂,很有教育启发意义。代码#coding:utf-8importsocketfrommultiprocessingimportProcessHTML_ROOT_DIR=""defhandle_client(client_socket):"""处理客户端请求"""#获取客户端请求数据request_data=client_socket.r
系统 2019-09-27 17:53:32 2127
守护进程主进程创建子进程目的是:主进程有一个任务需要并发执行,那开启子进程帮我并发执行任务主进程创建子进程,然后将该进程设置成守护自己的进程关于守护进程需要强调两点:其一:守护进程会在主进程代码执行结束后就终止其二:守护进程内无法再开启子进程,否则抛出异常:AssertionError:daemonicprocessesarenotallowedtohavechildren如果我们有两个任务需要并发执行,那么开一个主进程和一个子进程分别去执行就ok了,如果
系统 2019-09-27 17:52:46 2127
概述在Python3中,数学运算中的除法被分为两种,分别是“真除法”,即无论任何类型相除的结果都会保留小数点,和我们实际的数学运算结果一致,而“截断除法”,则是无论任何类型相除的结果都会省略结果的小数部分,剩下最小的能整除的整数部分。以下是两种除法的基本形式:#真除法X/Y#截断除法X//Y真除法X=8Y=2Z=3print(X/Y)print(X/Z)示例结果:4.02.6666666666666665真除法的结果表明不论操作数的类型其相除结果都返回一个
系统 2019-09-27 17:51:42 2127
初识pythonpython爬虫爬虫步骤(个人学习后的理解):获取URL地址解析URL源码提取源码中的需要信息使用re、beautifulsoup、urllib.request等常用库写入txt、excel等等。Python格式化字符:format_string%string_to_convert其中:format_string为格式标记字符串,形式为“%cdoe”;string_to_convert为要格式化的字符串,如果是两个以上,则需要用小括号括起来
系统 2019-09-27 17:49:59 2127
#reversed()#l=[1,2,3,4,5]#l.reverse()#print(l)#l=[1,2,3,4,5]#l2=reversed(l)#print(l2)#保留原列表,返回一个反向的迭代器#l=(1,2,23,213,5612,342,43)#sli=slice(1,5,2)#print(l[sli])#print(l[1:5:2])#print(format('test','<20'))#print(format('test','>40'
系统 2019-09-27 17:49:17 2127
1、安装sqlalchemypipinstallsqlalchemy2、导入必要的包及模块importsqlalchemyfromsqlalchemy.ext.declarativeimportdeclarative_basefromsqlalchemy.ormimportsessionmaker3、创建数据库连接实例#创建数据库连接实例(#"数据库类型+数据库模块://用户名:密码@主机/库名")db=sqlalchemy.create_engine("
系统 2019-09-27 17:47:28 2127
Scrapy官方介绍是Anopensourceandcollaborativeframeworkforextractingthedatayouneedfromwebsites.Inafast,simple,yetextensibleway.意思就是一个开源和协作框架,用于以快速,简单,可扩展的方式从网站中提取所需的数据。环境准备本文项目使用环境及工具如下python3scrapymongodbpython3scrapy的安装就不再叙述mongodb是用来存
系统 2019-09-27 17:46:17 2127
实例如下:#!/usr/bin/python#-*-coding:utf-8-*-importrandomclassCDispatch:def__init__(self,sum,count):self.sum=sumself.count=count#print'initheresum=',sum,',count=',countdef__del__(self):pass#print'rundeltheclass'defgetListInfo(self):li
系统 2019-09-27 17:45:27 2127