判读是否存在文件夹importtensorflowastfimportosfolder='./floder'ifnottf.gfile.Exists(folder):#若文件夹不存在,则自动创建文件夹tf.gfile.MakeDirs(folder)若存在删除文件夹下所有文件iftf.gfile.Exists(folder):#返回一个listforfilein(tf.gfile.ListDirectory(folder)):#添加绝对路径,并删除文件tf
系统 2019-09-27 17:54:49 1882
之前想爬取一些淘宝的数据,后来发现需要登录,找了很多的资料,有个使用request的sessions加上cookie来登录的,cookie的获取在登录后使用开发者工具可以找到。不过这个登录后获得的网页的代码是静态的,获取动态网页还得另寻他法,一般需要的数据可以在网页的源码中得到,但是你知道的,有些动态加载的就不是那么简单了,而且我发现这样获得的源码中,有些想要获取的数据的格式是经过改动的,比如我要某个商品的具体链接,发现并不能直接使用。总体而言,这是一次失
系统 2019-09-27 17:54:47 1882
本文实例讲述了Python字符串、列表、元组的截取与切片操作。分享给大家供大家参考,具体如下:demo.py(字符串、列表、元组的截取):#切片(截取)[开始索引:结束索引:步长]步长默认为1结束索引默认截取到末尾#字符串的截取print("012345"[1:3])#12#列表的截取print([0,1,2,3,4,5][1:3])#[1,2]#元组的截取print((0,1,2,3,4,5)[1:3])#(1,2)#字典的元素是无序的,没有索引,所以不
系统 2019-09-27 17:54:29 1882
我们有时候会需要在网上查找并下载图片,当数量比较少的时候,点击右键保存,很轻松就可以实现图片的下载,但是有些图片进行了特殊设置,点击右键没有显示保存选项,或者需要下载很多图片,这样的情况,写一段Python爬虫代码就可以轻松解决!一、页面抓取#coding=utf-8importurllibdefgetHtml(url):page=urllib.urlopen(url)html=page.read()returnhtmlhtml=getHtml("http
系统 2019-09-27 17:54:24 1882
1.工具包安装pipinstallvirtualenv|sudoapt-getinstallpython-virtualenv2.创建虚拟环境#virtualenv/system_python_bin_path/your_virenv_local_pathvirtualenv-p/usr/bin/python2.7/usr_local_path#创建链接sudoln-sf/usr_local_path/bin/activatetf_activatesudo
系统 2019-09-27 17:54:23 1882
一般使用import和from...import...导入模块。以下述spam.py内的文件代码为例。'''遇到问题没人解答?小编创建了一个Python学习交流QQ群:857662006寻找有志同道合的小伙伴,互帮互助,群里还有不错的视频学习教程和PDF电子书!'''#spam.pyprint('fromthespam.py')money=1000defread1():print('spam模块:',money)defread2():print('spam
系统 2019-09-27 17:54:08 1882
如下所示:#coding:utf-8importbinasciia='worker'#先把worker转换成二进制数据然后在用十六进制表示b=binascii.b2a_hex(a)printb#与b2a_hex相反printbinascii.a2b_hex(b)#这个功能和b2a_hex()一样c=binascii.hexlify(a)printc#这个功能和a2b_hex()一样printbinascii.unhexlify(c)######运行结果##
系统 2019-09-27 17:52:56 1882
函数的嵌套在Python编程语言中,在函数体内创建另外一个函数(对象,因为Python一切皆对象,函数其实也是对象)是完全合法的,这种函数叫做内部/嵌套函数。例子:#coding:utf-8defouter():definner():print("isInnerMethod")print("IsouterMethod")inner()#调用outer函数outer()#调用outer()的内部函数,报错#inner()运行结果:IsouterMethodi
系统 2019-09-27 17:52:56 1882
今天接到一个新的任务,要对一个140多M的csv文件进行数据处理,总共有170多万行,尝试了导入本地的MySQL数据库进行查询,结果用Navicat导入直接卡死....估计是XAMPP套装里面全默认配置的MySQL性能不给力,又尝试用R搞一下吧结果发现光加载csv文件就要3分钟左右的时间,相当不给力啊,翻了翻万能的知乎发现了Python下的一个神器包:Pandas(熊猫们?),加载这个140多M的csv文件两秒钟就搞定,后面的分类汇总等操作也都是秒开,太牛
系统 2019-09-27 17:52:33 1882
我们首先来看下python的全部代码,大家可以直接复制后测试:#-*-encoding:utf-8-*-importloggingimportwmiimportosimporttimefromConfigParserimportConfigParserimportsmtplibfromemail.mime.textimportMIMETextimportsocketfromdatetimeimportdatetimeimportreimportsysimp
系统 2019-09-27 17:52:12 1882