filter函数:filter()函数可以对序列做过滤处理,就是说可以使用一个自定的函数过滤一个序列,把序列的每一项传到自定义的过滤函数里处理,并返回结果做过滤。最终一次性返回过滤后的结果。filter()函数有两个参数:第一个,自定函数名,必须的第二个,需要过滤的列,也是必须的DEMO需求,过滤大于5小于10的数:复制代码代码如下:#coding=utf8#定义大于5小于10的函数defguolvhanshu(num):ifnum>5andnum<10:
系统 2019-09-27 17:46:02 1929
相对来说python对字符串的处理是比较高效的,方法也有很多。其中maketrans和translate两个方法被应用的很多,本文就针对这两个方法的用法做一总结整理。首先让我们先回顾下这两个方法:①s.translate(table,str)对字符串s移除str包含的字符,剩下的字符串按照table里的字符映射关系替换。table可以理解为转换表,比较'a'->'A','b'->'B'.②tabel=string.maketrans('s1','s2')s
系统 2019-09-27 17:45:59 1929
Python引入了一个机制:引用计数。引用计数python内部使用引用计数,来保持追踪内存中的对象,Python内部记录了对象有多少个引用,即引用计数,当对象被创建时就创建了一个引用计数,当对象不再需要时,这个对象的引用计数为0时,它被垃圾回收。总结一下对象会在一下情况下引用计数加1:1.对象被创建:x=42.另外的别人被创建:y=x3.被作为参数传递给函数:foo(x)4.作为容器对象的一个元素:a=[1,x,'33']引用计数减少情况1.一个本地引用离
系统 2019-09-27 17:45:58 1929
在Python3中,将中文进行urlencode编码使用函数urllib.parse.quote(string,safe='/',encoding=None,errors=None)而将编码后的字符串转为中文,则使用urllib.parse.unquote(string,encoding='utf-8',errors='replace')示例代码如下:test="微信公众账号比特量化"print(test)new=urllib.parse.quote(te
系统 2019-09-27 17:45:54 1929
IPython+ptpython,完美体验首先是安装pipinstallipythonptpython然后使用ptipython有什么好处1.IPython是非常强大的Python增强工具2.ptpython提供了类似IDE的自动补全功能3.当你在命令行输入pyipython时,便结合了这两者的功能,无比强大!virtualenv+virtualenvwrapper,轻松创建隔离环境首先安装pipinstallvirtualenvwrapper(会自动把v
系统 2019-09-27 17:38:45 1929
本文以实例形式展示了Python算法中栈(stack)的实现,对于学习数据结构域算法有一定的参考借鉴价值。具体内容如下:1.栈stack通常的操作:Stack()建立一个空的栈对象push()把一个元素添加到栈的最顶层pop()删除栈最顶层的元素,并返回这个元素peek()返回最顶层的元素,并不删除它isEmpty()判断栈是否为空size()返回栈中元素的个数2.简单案例以及操作结果:StackOperationStackContentsReturnVa
系统 2019-09-27 17:38:32 1929
安装Tornado省事点可以直接用grequests库,下面用的是tornado的异步client。异步用到了tornado,根据官方文档的例子修改得到一个简单的异步爬虫类。可以参考下最新的文档学习下。pipinstalltornado异步爬虫#!/usr/bin/envpython#-*-coding:utf-8-*-importtimefromdatetimeimporttimedeltafromtornadoimporthttpclient,gen,
系统 2019-09-27 17:38:10 1929
解决思路首先想到的就是利用python的正则表达式来匹配非法字符,然后找出非法记录。然而理想总是丰满的,现实却是残酷的。在实现的过程中,才发现自己对于字符编码、以及python内部字符串表示的相关知识的缺乏。在这期间,踩过了不少坑,到最后虽然还有些模糊的地方,但总算有一个总体清晰的了解。在此记录下心得,避免以后在同一个地方跌倒。以下的测试环境是ArcGIS10.3自带的python2.7.8环境,不保证其他python环境也适用。python正则表达式py
系统 2019-09-27 17:37:48 1929
python纵向合并任意多个图片,files是要拼接的文件list#-*-coding:utf-8-*-defmergeReport(files):fromPILimportImageimportnumpyasnpbaseimg=Image.open(files[0])sz=baseimg.sizebasemat=np.atleast_2d(baseimg)forfileinfiles[1:]:im=Image.open(file)#resizetosam
系统 2019-09-27 17:37:43 1929
在学数据可视化,缺少点数据进行实操,就想着从饿了么上面爬点外卖店信息。主要是获取数据,所以代码比较简陋,直接上代码:importrequestsimportjsonimportcsvdefcrawler_ele(page=0):defget_page(page):url='https://h5.ele.me/restapi/shopping/v3/restaurants?latitude=xxxx&longitude=xxxx&offset={page}&
系统 2019-09-27 17:32:50 1929