搜索到与相关的文章
各行各业

Code Simplicity–The Science of Software Dev

Chapter1IntroductionThatistheartandtalentinvolvedinprogramming—reducingcomplexitytosimplicity.A“badprogrammer”isjustsomebodywhofailstoreducethecomplexity.So,a“goodprogrammer”shoulddoeverythinginhispowertomakewhathewritesassimpleas

系统 2019-08-12 09:26:40 2030

Python

详谈Python2.6和Python3.0中对除法操作的异同

Python中除法有两种运算符:'/'和'//';有三种类型的除法:传统除法、Floor除法和真除法。X/Y类型:在Python2.6或者之前,这个操作对于整数运算会省去小数部分,而对于浮点数运算会保持小数部分;在Python3.0中变成真除法(无论任何类型都会保持小数部分,即使整除也会表示为浮点数形式)。示例代码:Python2.7版本中结果:>>>3/21>>>3/2.01.5>>>4/22>>>4/2.02.0Python3.4版本中结果:>>>3/

系统 2019-09-27 17:55:54 2029

Python

利用python打印99乘法表

classPrintTable(object):'''打印乘法口诀表'''def__init__(self):print(u'开始打印9*9的乘法口诀表')self.print99()defprint99(self):foriinrange(1,10):forjinrange(1,1+i):print('%d%d=%2s'%(i,j,i*j),end='')print('\n')if__name__=='__main__':pt=PrintTable()

系统 2019-09-27 17:55:18 2029

Python

《Python3爬虫、数据清洗和可视化实战》之阅读不懂处、主要代码总结(9章)

《Python3爬虫、数据清洗和可视化实战》零一韩要宾黄园园著第九章:pandas数据清理9.1数据读写、选择、整理和描述Pandas是用来数据清洗的Python库,由于它的依赖库很多,所以建议还是下载anaconda,里面内置了相关库。9.1.1读取CSV数据df=pd.read_csv(“csv_path”,delimiter=”,”,encoding=””)参数说明:“csv_path”,CSV文件路径;delimiter=”,”:分隔方式;enco

系统 2019-09-27 17:54:37 2029

Python

【Python3网络爬虫开发实战】7.4-使用Selenium爬取淘宝商品

【摘要】在前一章中,我们已经成功尝试分析Ajax来抓取相关数据,但是并不是所有页面都可以通过分析Ajax来完成抓取。比如,淘宝,它的整个页面数据确实也是通过Ajax获取的,但是这些Ajax接口参数比较复杂,可能会包含加密密钥等,所以如果想自己构造Ajax参数,还是比较困难的。对于这种页面,最方便快捷的抓取方法就是通过Selenium。本节中,我们就用Selenium来模拟浏览器操作,抓取淘宝的商品信息,并将结果保存到MongoDB。1.本节目标本节中,我们

系统 2019-09-27 17:54:29 2029

Python

Python读写Excel文件方法介绍

一、读取excel这里介绍一个不错的包xlrs,可以工作在任何平台。这也就意味着你可以在Linux下读取Excel文件。首先,打开workbook;复制代码代码如下:importxlrdwb=xlrd.open_workbook('myworkbook.xls')检查表单名字:复制代码代码如下:wb.sheet_names()得到第一张表单,两种方式:索引和名字复制代码代码如下:sh=wb.sheet_by_index(0)sh=wb.sheet_by_n

系统 2019-09-27 17:54:06 2029

Python

基于python时间处理方法(详解)

在处理数据和进行机器学习的时候,遇到了大量需要处理的时间序列。比如说:数据库读取的str和time的转化,还有time的差值计算。总结一下python的时间处理方面的内容。一、字符串和时间序列的转化time.strptime():字符串=>时间序列time.strftime():时间序列=>字符串importtimestart="2017-01-01"end="2017-8-12"startTime=time.strptime(start,"%Y-%m-%

系统 2019-09-27 17:54:04 2029

Python

被女朋友三番两次拉黑后,我用 Python 写了个“舔狗”必备神器

点击上方“何俊林”,马上关注真爱,请置顶或星标在一个阳光明媚的周日,我打开窗户呼吸了一口新鲜空气。阳光灿烂,岁月静好,又是一个约女朋友出去爬山吃饭看电影的好日子。想到女朋友的大眼睛,我脸上不禁洋溢起了幸福的微笑。打开微信,给女朋友发出去一个美好的邀约。等等,这为什么有一个感叹号???我的消息被拒收了??笑容凝固在了我的脸上。什么?她又一次拉黑了我?我开始反省:我昨天吃饭买单的时候找钱包找的太久了被她误认为是迟疑?昨天清空她购物车的时候没有举一反三融会贯通?

系统 2019-09-27 17:54:03 2029

Python

python利用urllib实现爬取京东网站商品图片的爬虫实例

本例程使用urlib实现的,基于python2.7版本,采用beautifulsoup进行网页分析,没有第三方库的应该安装上之后才能运行,我用的IDE是pycharm,闲话少说,直接上代码!#-*-coding:utf-8-*importreimportosimporturllibimporturllib2frombs4importBeautifulSoupdefcraw(url,page):html1=urllib2.urlopen(url).read(

系统 2019-09-27 17:53:53 2029

Python

python 并发编程 非阻塞IO模型原理解析

非阻塞IO(non-blockingIO)Linux下,可以通过设置socket使其变为non-blocking。当对一个non-blockingsocket执行读操作时,流程是这个样子:从图中可以看出,当用户进程发出read操作时,如果kernel中的数据还没有准备好,那么它并不会block用户进程,而是立刻返回一个error。从用户进程角度讲,它发起一个read操作后,并不需要等待,而是马上就得到了一个结果。用户进程判断结果是一个error时,它就知道

系统 2019-09-27 17:53:07 2029