Python - 军军小站|张军博客
Python

python数据存储

csv以逗号分隔,但是我发现我写的文件里出现多列跟逗号没关系,就算去除了逗号也还是一样。#!/usr/bin/envpython#-*-coding:utf8-*-#@TIME:2019/5/1813:39#@Author:17976#@File:piplines.py#@Description:importreimportpymongofrompymongo.errorsimportDuplicateKeyErrorimportsettingsclass

系统 2019-09-27 17:55:51 2116

Python

Python异常调用栈

一般来说,当异常发生时,其异常栈应该从主调用者的入口一直到异常发生点,例如Java里经常出现的长达一两页的stacktrace,这其中可能存在中间层代码收到异常时,进行一些动作(关闭数据库连接或者文件等),然后再次抛出异常的情况。Python3中,在except块内进行处理,然后重新抛出异常即可,例如下面的测试代码:#-*-coding:utf-8-*-importsysdefa():b()defb():c()#callthecdefc():raiseEx

系统 2019-09-27 17:55:14 2116

Python

python使用Scrapy框架抓取起点中文网免费小说案例

使用工具,ubuntu,python,pycharm一、使用pycharm创建项目:过程略二、安装scrapy框架pipinstallScrapy三、创建scrapy项目:1.创建爬虫项目scrapystartprojectqidian2.创建爬虫,先进入爬虫项目目录cdqidian/scrapygenspiderbookbook.qidian.com创建完成后项目目录如下目录下的的book.py就是我们的爬虫文件四、打开book.py编写爬虫的代码1.进

系统 2019-09-27 17:54:20 2116

Python

Python列表append和+的区别浅析

在python中使用列表的时候大家经常会需要向一个列表中添加一个元素,像下面这两种使用方法需要注意:复制代码代码如下:t=[1,2,3]t1=t.append([4])t2=t+[4]以上两种使用方式是有区别的,我们来看看实际运行的效果:复制代码代码如下:>>>t=[1,2,3]>>>t1=t.append([4])>>>t[1,2,3,[4]]>>>t1>>>>>>t2=t+[4]>>>t2[1,2,3,[4],4]>>>t[1,2,3,[4]]可以看到

系统 2019-09-27 17:52:37 2116

Python

Python使用pyserial进行串口通信的实例

安装pyserialpipinstallpyserial查看可用的端口#coding:utf-8importserial.tools.list_portsplist=list(serial.tools.list_ports.comports())iflen(plist)<=0:print("没有发现端口!")else:plist_0=list(plist[0])serialName=plist_0[0]serialFd=serial.Serial(seri

系统 2019-09-27 17:50:55 2116

Python

python解释器spython使用及原理解析

简介出于个人爱好和某种需求,我再16年对python的解释器产生了浓厚兴趣,并且下定决心重新实现一个版本。我个人再游戏服务器开发中,对c++嵌入lua和python都有着丰富应用经验,自认为对二者的优劣有着深刻的理解。python针对lua的最大优势是python是完备的程序语言,类、模块包括丰富的库和方便好用的字符串操作,可以说python用来实现功能会优雅很多,而lua最大的优势就是小巧高效,另外lua的lua_state是可以有多个实例的,这样就可以

系统 2019-09-27 17:49:03 2116

Python

python3 enum模块

原文链接:https://www.cnblogs.com/bdhk/p/7506691.html枚举是绑定到唯一的常量值的一组符号名称(成员)。在枚举中,成员可以通过身份进行比较,枚举本身可以迭代。1.Enum模块该模块定义了四个枚举类,可用于定义唯一的名称和值集:Enum,IntEnum,Flag和IntFlag。它还定义了一个装饰器,unique()和一个helper,auto。ContentDescriptionRemarksclassenum.En

系统 2019-09-27 17:48:52 2116

Python

python简单爬虫

importrefromurllib.requestimporturlopendefgetPage(url):response=urlopen(url)returnresponse.read().decode('utf-8')defparsePage(s):ret=re.findall('.*?.*?(?P\d+).*?(?P''.*?(?P.*?).*?(?P.*?)评价',s,re.S)returnretdefmain(num):url='https:

系统 2019-09-27 17:47:12 2116

Python

用python爬取热门菜谱清单

importrequests引用requests库frombs4importBeautifulSoup引用BeautifulSoup库res_foods=requests.get(‘http://www.xiachufang.com/explore/’)获取数据bs_foods=BeautifulSoup(res_foods.text,‘html.parser’)解析数据tag_name=bs_foods.find_all(‘p’,class_=‘name

系统 2019-09-27 17:56:35 2115

Python

python之Thread对象

Thread对象的属性importthreadingfromtimeimportsleep,ctimedefpri(py,n):name=p1.name#线程名id=p1.ident#线程标识符foriinrange(n):print('name=%snow=%sid=%s'%(name,ctime(),id))sleep(1)p1=threading.Thread(target=pri,args=('python',3),name='chian')#p1

系统 2019-09-27 17:56:20 2115

Python

python实现从本地摄像头和网络摄像头截取图片功能

python-----从本地摄像头和网络摄像头截取图片,具体代码如下所示:importcv2#获取本地摄像头#folder_path截取图片的存储目录defget_img_from_camera_local(folder_path):cap=cv2.VideoCapture(0)i=1whileTrue:ret,frame=cap.read()cv2.imshow("capture",frame)printstr(i)cv2.imwrite(folder_

系统 2019-09-27 17:54:34 2115

Python

简单的抓取淘宝图片的Python爬虫

写了一个抓taobao图片的爬虫,全是用if,for,while写的,比较简陋,入门作品。从网页http://mm.taobao.com/json/request_top_list.htm?type=0&page=中提取taobao模特的照片。复制代码代码如下:#-*-coding:cp936-*-importurllib2importurllibmmurl="http://mm.taobao.com/json/request_top_list.htm?t

系统 2019-09-27 17:53:25 2115

Python

Python之路【第二十一篇】:JS基础

JavaScript的基础学习(一)一、JavaScript概述1.1JavaScript的历史●1992年Nombas开发出C-minus-minus(C--)的嵌入式脚本语言(最初绑定在CEnvi软件中).后将其改名ScriptEase.(客户端执行的语言)●Netscape(网景)接收Nombas的理念,(BrendanEich)在其NetscapeNavigator2.0产品中开发出一套livescript的脚本语言.Sun和Netscape共同完

系统 2019-09-27 17:53:08 2115

Python

Python爬取Boss直聘,获取全国Python薪酬榜

深感抱歉本来这篇文章应该是在昨天发的,可是电脑出了问题蓝屏了。晚上回来重装了系统,结果还是搞到了现在。今天想和大家聊聊Python与爬虫python之所以能迅速风靡全国,和大街小巷各种的培训机构脱不开关系。一会pythonAI未来以来,一会儿4个月培养人工智能与机器学习顶尖人才,更有甚者什么一周成就爬虫分析师…我这一把年纪了,胆子小只敢在自己的公众号里说说。至于出去了,你们该实力互吹、生猛造势的,我看看就好不说话。网上经常看到爬虫的文章,什么爬了几十万数据

系统 2019-09-27 17:52:54 2115

Python

python之爬取邮箱电话

这里使用requests库爬取网页要比urllib库方便用finditer查询importrequestsimportreurl='https://www.flyai.com/'#带爬取的网页html=requests.get(url).text#text为转化为str数据pat='(\w+@\w+.com)|(\d{11})'#正则模式res=re.finditer(pat,html)#finditer返回的是一个迭代器foriinres:#i是一个Ma

系统 2019-09-27 17:52:10 2115