最近开始研究Python的并行开发技术,包括多线程,多进程,协程等。逐步整理了网上的一些资料,今天整理了一下greenlet相关的资料。并发处理的技术背景并行化处理目前很受重视,因为在很多时候,并行计算能大大的提高系统吞吐量,尤其在现在多核多处理器的时代,所以像lisp这种古老的语言又被人们重新拿了起来,函数式编程也越来越流行。介绍一个python的并行处理的一个库:greenlet。python有一个非常有名的库叫做stackless,用来做并发处理,主
系统 2019-09-27 17:56:35 1858
文件的属性所谓属性,就是能够通过一个文件对象得到的东西。复制代码代码如下:>>>f=open("131.txt","a")>>>f.name'131.txt'>>>f.mode#显示当前文件打开的模式'a'>>>f.closed#文件是否关闭,如果关闭,返回True;如果打开,返回FalseFalse>>>f.close()#关闭文件的内置函数>>>f.closedTrue文件的有关状态很多时候,我们需要获取一个文件的有关状态(有时候成为属性,但是这里的文
系统 2019-09-27 17:56:05 1858
Anaconda是一个旗舰版的python安装包,因为普通的python没有库,如果需要安装一些重要的库,要经常一个一个下载,会非常麻烦.所以这个一个集成的,可以手动批量升级的软件.而且库的安装也很全下载速度快.从官网下载完以后,next安装好.配置环境变量,把安装的文件夹的绝对路径拷贝到环境变量的path里面.不配置python都启动不了,当然,如果之前安装过其他版本的python可以考虑把之前多余的环境变量路径删掉.打开anacondaprompt,输
系统 2019-09-27 17:55:04 1858
这两天在用python的bottle框架开发后台管理系统,接口约定使用RESTful风格请求,前端使用jqueryajax与接口进行交互,使用POST与GET请求时都正常,而RequestMethod使用PUT或DELETE请求时,直接爆“HTTPError405:MethodNotAllowed”错误。而ajax提交的RequestMethod值DELETE也变成了OPTIONS了。度娘了好多答案,要么说是浏览器不支持,要么说自己重新封装jquery,还
系统 2019-09-27 17:54:55 1858
之前想爬取一些淘宝的数据,后来发现需要登录,找了很多的资料,有个使用request的sessions加上cookie来登录的,cookie的获取在登录后使用开发者工具可以找到。不过这个登录后获得的网页的代码是静态的,获取动态网页还得另寻他法,一般需要的数据可以在网页的源码中得到,但是你知道的,有些动态加载的就不是那么简单了,而且我发现这样获得的源码中,有些想要获取的数据的格式是经过改动的,比如我要某个商品的具体链接,发现并不能直接使用。总体而言,这是一次失
系统 2019-09-27 17:54:47 1858
前面十章爬虫笔记陆陆续续记录了一些简单的Python爬虫知识,用来解决简单的贴吧下载,绩点运算自然不在话下。不过要想批量下载大量的内容,比如知乎的所有的问答,那便显得游刃不有余了点。于是乎,爬虫框架Scrapy就这样出场了!Scrapy=Scrach+Python,Scrach这个单词是抓取的意思,Scrapy的官网地址:点我点我。那么下面来简单的演示一下Scrapy的安装流程。具体流程参照://www.jb51.net/article/48607.htm
系统 2019-09-27 17:54:46 1858
作者:HelloGitHub-ProdesireHelloGitHub的《讲解开源项目》系列,项目地址:https://github.com/HelloGitHub-Team/Article一、nosenose是一个第三方单元测试框架,它完全兼容unittest,并且号称是一个更好用的测试框架。那么nose除了具备unittest的所有功能外,还具有哪些优势呢?1.1用例编写用例的编写方式除了编写继承于unittest.TestCase的测试类外,还可以编
系统 2019-09-27 17:54:38 1858
本文实例讲述了Python实现子类调用父类的方法。分享给大家供大家参考。具体实现方法如下:python和其他面向对象语言类似,每个类可以拥有一个或者多个父类,它们从父类那里继承了属性和方法。如果一个方法在子类的实例中被调用,或者一个属性在子类的实例中被访问,但是该方法或属性在子类中并不存在,那么就会自动的去其父类中进行查找。继承父类后,就能调用父类方法和访问父类属性,而要完成整个集成过程,子类是需要调用的构造函数的。子类不显式调用父类的构造方法,而父类构造
系统 2019-09-27 17:54:36 1858
我们有时候会需要在网上查找并下载图片,当数量比较少的时候,点击右键保存,很轻松就可以实现图片的下载,但是有些图片进行了特殊设置,点击右键没有显示保存选项,或者需要下载很多图片,这样的情况,写一段Python爬虫代码就可以轻松解决!一、页面抓取#coding=utf-8importurllibdefgetHtml(url):page=urllib.urlopen(url)html=page.read()returnhtmlhtml=getHtml("http
系统 2019-09-27 17:54:24 1858
利用python库random,string生成大小写字母和数字的随机验证码importrandomimportstringdefgenerate_code(bit_num):''':parambit_num:生成验证码位数:return:返回生成的验证码'''all_str=string.printable.split('!')[0]code=''.join([random.choice(all_str)foriinrange(bit_num)])ret
系统 2019-09-27 17:54:02 1858