搜索到与相关的文章
Python

Python循环实现n的全排列功能

描述:输入一个大于0的整数n,输出1到n的全排列:例如:n=3,输出[[3,2,1],[2,3,1],[2,1,3],[3,1,2],[1,3,2],[1,2,3]]n=4,输出[[4,3,2,1],[3,4,2,1],[3,2,4,1],[3,2,1,4],[4,2,3,1],[2,4,3,1],[2,3,4,1],[2,3,1,4],[4,2,1,3],[2,4,1,3],[2,1,4,3],[2,1,3,4],[4,3,1,2],[3,4,1,2],

系统 2019-09-27 17:55:25 2273

Python

python异步IO编程(二)

python异步IO编程(二)目录开门见山AsyncIO设计模式事件循环asyncio中的其他顶层函数开门见山下面我们用两个简单的例子来让你对异步IO有所了解importasyncioasyncdefcount():print("One")awaitasyncio.sleep(1)print("Two")asyncdefmain():awaitasyncio.gather(count(),count(),count())if__name__=="__mai

系统 2019-09-27 17:53:13 2273

Python

Python 命令行之旅 —— 深入 argparse (一)

作者:HelloGitHub-ProdesireHelloGitHub的《讲解开源项目》系列,项目地址:https://github.com/HelloGitHub-Team/Article前言在第一篇“初探argparse”的文章中,我们初步掌握了使用argparse的四部曲,对它有了一个基本的体感。但是它具体支持哪些类型的参数?这些参数该如何配置?本文将带你深入了解argparse的参数们。本系列文章默认使用Python3作为解释器进行讲解。若你仍在使

系统 2019-09-27 17:53:04 2273

Python

python之爬取邮箱电话

这里使用requests库爬取网页要比urllib库方便用finditer查询importrequestsimportreurl='https://www.flyai.com/'#带爬取的网页html=requests.get(url).text#text为转化为str数据pat='(\w+@\w+.com)|(\d{11})'#正则模式res=re.finditer(pat,html)#finditer返回的是一个迭代器foriinres:#i是一个Ma

系统 2019-09-27 17:52:10 2273

Python

如何用Notepad++编写python程序(Python3)

MENU安装Python3(Windows操作系统环境)下载Python安装包安装Notepad++配置Notepad++的Python环境命令原理部分内容摘自百度经验安装Python3(Windows操作系统环境)下载Python安装包下载Python3.如图点击打开下载页面选择适合自己电脑版本的安装包一般就下载executableinstaller,x86表示是32位机子的,x86-64表示64位机子的。下载并打开安装包记得勾选AddPython3.6

系统 2019-09-27 17:50:55 2273

Python

Python使用正则表达式分割字符串的实现方法

如下:re.split(pattern,string,[maxsplit],[flags])pattern:表示模式字符串,由要匹配的正则表达式转换而来。string:表示要匹配的字符串。maxsplit:可选参数,表示最大的拆分次数。flags:可选参数表示标志位,用于控制匹配方式,如是否区分子母大小写示例代码:importrepattern=r'[?|&]'#定义分隔符url='http://www.baidu.com/login.jsp?userna

系统 2019-09-27 17:50:54 2273

Python

python简单爬虫

importrefromurllib.requestimporturlopendefgetPage(url):response=urlopen(url)returnresponse.read().decode('utf-8')defparsePage(s):ret=re.findall('.*?.*?(?P\d+).*?(?P''.*?(?P.*?).*?(?P.*?)评价',s,re.S)returnretdefmain(num):url='https:

系统 2019-09-27 17:47:12 2273

Python

python爬取百度贴吧前1000页内容(requests库面向对象思想实现)

此程序以李毅吧为例子,以面向对象的设计思想实现爬取保存网页数据,暂时并未用到并发处理,以后有机会的话会加以改善首先去百度贴吧分析贴吧地址栏中url后的参数,找到分页对应的参数pn,贴吧名字对应的参数kw首先创建类,写好__init__方法,run方法,__init__方法里先可以直接写passrun方法里大概整理一下整体的思路构造url列表,因为要爬取1000页,每页需对应一个url遍历发送请求,获取响应保存将可封装的步骤封装到单独的方法,所以这里又增加了

系统 2019-09-27 17:46:58 2273

Python

基于python实现微信模板消息

我的风格,废话不多说了,直接给大家贴代码了,并在一些难点上给大家附了注释,具体代码如下所示:#!/usr/bin/envpython#-*-coding:utf-8-*-importurllib2,jsonimportdatetime,timefromconfigimport*importsysreload(sys)sys.setdefaultencoding("utf-8")classWechatPush():def__init__(self,appid

系统 2019-09-27 17:46:35 2273

Python

python之当你发现QTimer不能用时的解决方法

如下所示:#-*-coding:utf-8-*-importnumpyasnpfromPyQt5.QtCoreimportQTimer,QObjectfromPyQt5.QtWidgetsimportQWidget,QApplicationimportsysimporttimeclassmy_timer(QWidget):def__init__(self):super(my_timer,self).__init__()self.my_t=QTimer(se

系统 2019-09-27 17:46:31 2273