'''br/>题一:判断列表中含有字符串且组成新的列表打印输出知识点:列表、列表的增删改查、for循环、if判断'''#@Author:Dotest软件测试#@QQ:1274057839names=['Dotest','test','donghao',100,True]#定义空列表;容器;思考:为什么不放在for循环里面定义?str_name=[]#for循环fornameinnames:#if判断;函数:isinstance是判断是否为某类型ifisin
系统 2019-09-27 17:53:41 1986
原文链接:https://blog.csdn.net/qq_38656841/article/details/82921951python开发的代码可能在其他windows上并不能使用用,除非别人的环境中也有python。下面是如何将python开发的东西转为exe格式1.安装pyinstallerpipinstallpyinstaller2.跳到需要转为exe文件的python文件目录下面,运行命令pyinstaller--onefilepython文件
系统 2019-09-27 17:53:37 1986
这是一个用python写解压大量zip脚本的说明,本人新手一个,希望能对各位有所启发。首先要注意的,在运行自己的脚本之前一定先备份或者复制出一些样本进行测试,不然出错会很麻烦;之后我用到的是解压zip文件的扩展包zipfile,可以直接pip安装或者在IDE里安装,需要特别注意的是这个包的文件名解码方式需要我们去修改,先去查看源文件,直接搜索“cp437”(一个编码方式),找到后全部替换为“gbk”,即可解决中文显示问题。代码:importosimport
系统 2019-09-27 17:53:05 1986
阅读更多本文分享自6丁一的猫的博客,主要是python调用hanlp进行命名实体识别的方法介绍。以下为分享的全文。1、python与jdk版本位数一致2、pipinstalljpype1(python3.5)3、类库hanlp.jar包、模型data包、配置文件hanlp.properties放在一个新建目录4、修改hanlp.properties中root根目录,找到data代码调用如下:1|#coding:utf-82|'''3|Createdon20
系统 2019-09-27 17:52:23 1986
思路一、想要实现登录豆瓣关键点分析真实post地址----寻找它的formdata,如下图,按浏览器的F12可以找到。实战操作实现:模拟登录豆瓣,验证码处理,登录到个人主页就算是success数据:没有抓取数据,此实战主要是模拟登录和处理验证码的学习。要是有需求要抓取数据,编写相关的抓取规则即可抓取内容。登录成功展示如图:spiders文件夹中DouBan.py主要代码如下:#-*-coding:utf-8-*-importscrapy,urllib,re
系统 2019-09-27 17:52:01 1986
作者:Vamei出处:http://www.cnblogs.com/vamei欢迎转载,也请保留这段声明。谢谢!Python使用类(class)和对象(object),进行面向对象(object-orientedprogramming,简称OOP)的编程。面向对象的最主要目的是提高程序的重复使用性。我们这么早切入面向对象编程的原因是,Python的整个概念是基于对象的。了解OOP是进一步学习Python的关键。下面是对面向对象的一种理解,基于分类。相近对象
系统 2019-09-27 17:51:09 1986
http.cookiejar前面讲到的cookie的使用,我们首先使用的是浏览器登陆之后,将中间的cookie取出来,之后将其应用到代码中,实现代码请求的功能,但是显然这样并不是非常的完美,如果代码能够自动的获取到cookie并完成后续的工作会更加的完美对于这个http.cookiejar,该模块主要的类有CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。对于这四类的作用非别如下:1、CookieJ
系统 2019-09-27 17:50:59 1986
**装饰器**1.装饰器的概念装饰器的本质就是一个函数,它的作用是为其他函数添加一个新的功能,但是不改变原函数的源代码和调用方式。装饰器的两大原则:不修改被修饰函数的源代码不修改被修饰函数的调用方式2.装饰器的知识储备(或者我们可以理解成,一个装饰器是由什么组成)装饰器=高阶函数+函数嵌套+闭包3.装饰器的实现首先我们定义一个累加求和的函数importtimedefcal():res=0foriinrange(100):res+=itime.sleep(1
系统 2019-09-27 17:50:53 1986
今天主要是来说一下怎么可视化来监控你的爬虫的状态。相信大家在跑爬虫的过程中,也会好奇自己养的爬虫一分钟可以爬多少页面,多大的数据量,当然查询的方式多种多样。今天我来讲一种可视化的方法。关于爬虫数据在mongodb里的版本我写了一个可以热更新配置的版本,即添加了新的爬虫配置以后,不用重启程序,即可获取刚刚添加的爬虫的状态数据。1.成品图这个是监控服务器网速的最后成果,显示的是下载与上传的网速,单位为M。爬虫的原理都是一样的,只不过将数据存到InfluxDB的
系统 2019-09-27 17:50:52 1986
使用paramiko库:https://github.com/paramiko/paramiko简单封装SSH类importparamikoclassSSH:def__init__(self,host,port,user,ssh_key_path,timeout=1800):self.host=hostself.port=portself.user=userself.ssh_key_path=ssh_key_pathself.timeout=timeout
系统 2019-09-27 17:50:38 1986