数据类型:float―浮点数可以精确到小数点后面15位int―整型可以无限大bool―非零为true,零为falselist―列表Float/Int:运算符:/―浮点运算除//―当结果为正数时,取整;11//5=2;11//4=2当结果为负数时,向下取整;-11//5=-3;-11//4=-3当分子分母都是float,结果为float型**―计算幂;11**2=121%―取余其他数学运算:1.分数:importfractions;fractions.Fra
系统 2019-09-27 17:47:01 1862
默认dict,代表dict.keys(),而不是dict.items()排序字典,sorted(a.items(),key=lambdakv:kv[-1]),但是返回的是list,[('b',0),('a',1),('c',2)],然后再用dict[]一次,就能得到字典。注意,字典的Key可以不是字符。{0:'0'}dict.update({2:30})。添加字典的元素,两个字典的内容相加,就是用dict_a.updata(dict_b)。删除字典中的某个
系统 2019-09-27 17:46:33 1862
文章目录一.爬虫简介二.简单爬虫架构三.URL管理器3.1url管理器应具有的最小功能:3.2实现方式四.网页下载器4.1urllib简单的获取一个网页。4.2使用Request4.3添加特殊情景的处理五.网页解析器5.1安装beautifulsoup45.2beautifulsoup语法5.3示例代码:六.完整实例6.1分析目标为什么是轻量级爬虫?因为复杂的爬虫需要考虑的场景和问题非常的多,比如有些网页需要登录后才能访问、而有些网页使用javascrip
系统 2019-09-27 17:46:04 1862
cdf(commondataformat)文件的python接口参考教程需要的库:Spacepy底层包:NASA’sCDFCDF下载安装wgethttps://spdf.gsfc.nasa.gov/pub/software/cdf/dist/cdf37_1/linux/cdf37_1-dist-all.tar.gztar-zxvfcdf37_1-dist-all.tar.gzcdcdf37_1-distmakeOS=linuxENV=gnuCURSES=y
系统 2019-09-27 17:45:41 1862
目录一、执行Python程序的两种方式1.1交互式1.2命令行式二、执行Python程序的两种IDE2.1Pycharm2.2Jupyter一、执行Python程序的两种方式1.1交互式在终端内输入python3,然后输入python代码1.2命令行式在终端内输入python3文本文件路径二、执行Python程序的两种IDE2.1Pycharmhttps://www.cnblogs.com/nickchen121/p/10722733.html2.2Jup
系统 2019-09-27 17:45:26 1862
前言相信对于python开发人员来说,机器上有不同的python版本是很正常的,因为开发的项目有的用2.6或2.7,有的就要用3.0+版本,如何把这些不同的版本管理好,保持每个环境的干净和独立,方便不同版本之间的切换,这时候就要用到我们的虚拟环境了,所以今天我们就来看看python虚拟环境搭建工具pyenv的使用。1、安装gitclonehttps://github.com/yyuu/pyenv.git~/.pyenvecho‘exportPYENV_RO
系统 2019-09-27 17:38:00 1862
break负责跳出整个循环>>>foriinrange(10):...ifi%2!=0:...break...else:...print(i)...0注意:但是break只能跳出一层循环,如果程序中有两个循环,第二个循环嵌套在第一个循环中,如果第二个循环被break,那么第一个循环会继续执行。Python不支持一次跳出多个循环。continue是跳出本次循环,继续下一次循环。>>>foriinrange(10):...ifi%2!=0:...continu
系统 2019-09-27 17:37:45 1862
简单的一个python日志处理类复制代码代码如下:#/usr/bin/python#coding=utf-8importtime,typesclasslogsys:def__init__(self,project,logfilename='sys_log.txt'):self.project=projectself.logfilename=logfilenamedefget_log_time(self):returntime.strftime("%Y-%m
系统 2019-09-27 17:37:44 1862
Python3.7增添了众多新的类,可用于数据处理、针对脚本编译和垃圾收集的优化以及更快的异步I/O。Python这种语言旨在使复杂任务变得简单,最新版本Python3.7已正式进入测试版发布阶段。Python3.7的最终版定于2018年6月发布,但此后不会为Python3.7版本添加任何新功能。Python3.7最重要的添加和改进之处包括如下:用类处理数据时减少样板代码的数据类。一处可能无法向后兼容的变更涉及处理生成器中的异常。面向解释器的“开发模式”。
系统 2019-09-27 17:57:05 1861
#版本python==3.7.3selenium==4.0.0a1#seleniumpypi地址https://pypi.org/project/selenium/在目录前提示一下,有时候我们在获取了一组元素,然后进行循环时,会报错'陈旧的元素.....',为了避免这个错误,建议在需要处理一组元素时,我们先算出元素的数量,然后通过range(element_counter),来通过索引值再次搜索需要处理的元素.目录:一、初始化二、元素查找三、select标
系统 2019-09-27 17:56:10 1861
python获取指定时间差的时间实例详解在分析数据的时间经常需要截取一定范围时间的数据,比如三天之内,两小时前等等时间要求的数据,因此将该部分经常需要用到的功能模块化,方便以后以后用到的时候复用。在此,也分享给大家。importtimeimportsysreload(sys)defget_day_of_day(UTC=False,days=0,hours=0,miutes=0,seconds=0):'''''''ifdays>=0,dateislarger
系统 2019-09-27 17:56:08 1861
爬虫的概念:爬虫就是获取网页并提取和保存信息的自动化程序爬虫的分类:主要有四类:通用网络爬虫,聚焦网络爬虫,增量式网络爬虫,深层网络爬虫爬虫的流程:常见的几种爬虫问题:主要有五类:静态网页的爬取,Ajax数据的爬取,动态渲染页面爬取,验证码的识别,代理的使用常见的爬虫框架:pyspider框架,Scrapy框架分布式爬虫:在多台机器上运行爬虫程序爬虫的一些常用"库":解析库:lxml;BeautifulSoup;pyquery;tesserocr请求库:r
系统 2019-09-27 17:56:05 1861
导入模块frombs4importBeautifulSoupsoup=BeautifulSoup(html_doc,"html.parser")下面看下常见的用法print(soup.a)#拿到soup中的第一个a标签print(soup.a.name)#获取a标签的名称print(soup.a.string)#获取a标签的文本内容print(soup.a.text)#获取a标签的文本内容print(soup.a["href"])#获取a标签的href属性
系统 2019-09-27 17:55:49 1861
简单来说python的内存管理机制有三种1)引用计数2)垃圾回收3)内存池接下来我们来详细讲解这三种管理机制1,引用计数:引用计数是一种非常高效的内存管理手段,当一个pyhton对象被引用时其引用计数增加1,当其不再被引用时引用计数减1,当引用计数等于0的时候,对象就被删除了。2,垃圾回收(这是一个很重要知识点):①引用计数引用计数也是一种垃圾回收机制,而且是一种最直观,最简单的垃圾回收技术。在Python中每一个对象的核心就是一个结构体PyObject,
系统 2019-09-27 17:54:17 1861
如下所示:data={"北京":{"昌平":{"沙河":["oldboy","test"],"天通苑":["链接地产","我爱我家"]},"朝阳":{"望京":["奔驰","陌陌"],"国贸":["CICC","HP"],"东直门":["advent","飞信"]},"海淀":{}},"山东":{"德州":{},"青岛":{},"济南":{}},"广东":{"东莞":{},"常熟":{},"佛山":{}}}exit_flag=Falsewhilenotex
系统 2019-09-27 17:54:15 1861