教你用Python批量查询关键词微信指数。前期准备安装好Python开发环境及Fiddler抓包工具。前期准备安装好Python开发环境及Fiddler抓包工具。首先打开Fiddler软件,点击Tools,在下拉菜单选择Options,然后选中HTTPS,进行HTTPS设置,如下图所示:再进行connections设置,如下图所示:手机配置主要是使电脑和手机处于同一个局域网,打开手机WLAN设置,开启手动代理,然后设置代理服务器主机名和代理服务器端口。代理
系统 2019-09-27 17:54:41 2084
简介介绍一下在Python安装包的时候怎么能更改源,让下载速度提升。这里介绍的是通过conda进行安装的更改源方法。环境介绍系统环境:Windows10Python版本:Python3.5必备环境:Anaconda已经安装进入Anaconda3中的AnacondaPrompt程序在Windows程序中搜索“AnacondaPrompt”,右键以管理员运行。查看现有源在窗口中输入下面命令,用来查看现有的源condaconfig--showchannels增加
系统 2019-09-27 17:54:38 2084
代码:(使用os.listdir)复制代码代码如下:importosdefListFilesToTxt(dir,file,wildcard,recursion):exts=wildcard.split("")files=os.listdir(dir)fornameinfiles:fullname=os.path.join(dir,name)if(os.path.isdir(fullname)&recursion):ListFilesToTxt(fullna
系统 2019-09-27 17:53:59 2084
首先,我用的工程文件是https://github.com/dBeker/Faster-RCNN-TensorFlow-Python3.5里的windows下的代码。这个代码在windows我已经调通过。过程中也是遇到windows下安装pycocotools的难题,需要去下载一个windows下的安装文件去安装,我参考了CSDN博主行胜于言的博客:windows安装pycocotools方法(windows10编译Pycocotools出错解决方案最新)
系统 2019-09-27 17:53:25 2084
一心想学习算法,很少去真正静下心来去研究,前几天趁着周末去了解了最短路径的资料,用python写了一个最短路径算法。算法是基于带权无向图去寻找两个点之间的最短路径,数据存储用邻接矩阵记录。首先画出一幅无向图如下,标出各个节点之间的权值。其中对应索引:A――>0B――>1C――>2D――>3E――>4F――>5G――>6邻接矩阵表示无向图:算法思想是通过Dijkstra算法结合自身想法实现的。大致思路是:从起始点开始,搜索周围的路径,记录每个点到起始点的权值
系统 2019-09-27 17:51:19 2084
接上文再继续我们的爬虫,这次我们来述说Urllib库1,什么是Urllib库Urllib库是python内置的HTTP请求库urllib.request请求模块urllib.error异常处理模块urllib.parseurl解析模块urllib.robotparserobots.txt解析模块不需要额外安装,python自带的库。注意:python2importurllib2response=urllib2.urlopen('http://baidu.c
系统 2019-09-27 17:50:06 2084
在WebHostingTalk论坛上有些国外奸商会把虚拟机当作独立服务器卖,去年7月份的时候就有一位中国同胞上当受骗,并在WHT上发帖声讨,证据确凿,甚至连服务商自己也承认,回帖达355篇。这家独立服务器/VPS提供商HostATree.com居然大胆的把OpenVZVPS这种一看就知道是虚拟机的虚拟机当作独立服务器卖,晕,至少也要弄个VMWare/KVM/XenHVM吧(更难发现是虚拟机),用OpenVZ这种容器也太欺负人了:)昨天恰好收到网友一封邮件问
系统 2019-09-27 17:48:43 2084
核心代码:#!/usr/bin/envpython#-*-coding:utf-8-*-frombisectimportbisect_LIST1,_LIST2=[],[]_INIT=Falseip2int=lambdaip_str:reduce(lambdaa,b:(a<<8)+b,[int(i)foriinip_str.split('.')])def_init():global_LIST,_INITifnot_INIT:forlinopen('ipdat
系统 2019-09-27 17:48:36 2084
首先,要明白encode()和decode()的区别encode()的作用是将Unicode编码的字符串转换为其他编码格式。例如:st1.encode("utf-8")这句话的作用是将Unicode编码的st1编码为utf-8编码的字符串decode()的作用是把其他编码格式的字符串转换成Unicode编码的字符串。例如:st2.decode("utf-8")这句话的作用是将utf-8编码的字符串st2解码为Unicode编码的字符串第二,除Unicode
系统 2019-09-27 17:48:16 2084
希尔排序思想:算法先将要排序的一组数按某个增量d分成若干组,每组中记录的下标相差d.对每组中全部元素进行排序,然后再用一个较小的增量对它进行,在每组中再进行排序。当增量减到1时,整个要排序的数被分成一组,排序完成。一般的初次取序列的一半为增量,以后每次减半,直到增量为1。defshell_sort(list):n=len(list)gap=n//2new_list=[]whilegap>1:foriinrange(gap):iflist[i]>list[i
系统 2019-09-27 17:48:16 2084
思路:1.读取所有文章标题;2.用“结巴分词”的工具包进行文章标题的词语分割;3.用“sklearn”的工具包计算Tf-idf(词频-逆文档率);4.得到满足关键词权重阈值的词结巴分词详见:结巴分词Githubsklearn详见:文本特征提取――4.2.3.4Tf-idf项加权importosimportjiebaimportsysfromsklearn.feature_extraction.textimportTfidfVectorizersys.pat
系统 2019-09-27 17:48:06 2084
python-docx库可用于创建和编辑MicrosoftWord(.docx)文件。官方文档:链接地址备注:doc是微软的专有的文件格式,docx是MicrosoftOffice2007之后版本使用,其基于OfficeOpenXML标准的压缩文件格式,比doc文件所占用空间更小。docx格式的文件本质上是一个ZIP文件,所以其实也可以把.docx文件直接改成.zip,解压后,里面的word/document.xml包含了Word文档的大部分内容,图片文件
系统 2019-09-27 17:47:43 2084
一:使用Python中的urllib类中的urlretrieve()函数,直接从网上下载资源到本地,具体代码:importos,statimporturllib.requestimg_url="https://timgsa.baidu.com/timg?image&quality=80&size=b9999_10000&sec=1516371301&di=d99af0828bb301fea27c2149a7070"\"d44&imgtype=jpg&er=
系统 2019-09-27 17:55:44 2083
经常会遇到下载的文件或电子书,名字中间都包含了一些网址信息,实际使用中由于名字太长不方便,下面的脚本使用正则表达式来对目录下的所有文件重命名:例如:修改前:[脚本之家]MacOSXforUnixGeeks[www.jb51.net].mobi修改后:MacOSXforUnixGeeks.mobipython代码如下:复制代码代码如下:importosimportredefrename_dir(dir,regex,f):ifnotos.path.isdir(
系统 2019-09-27 17:54:13 2083
上次完成的url爬取项目并不能满足需求,在此完成了一个更为强大的爬取代码,有需要的可以直接运行,根据自己爬取的网站更改部分正则和形参即可。前排提示:运行需要耐心,因为几千个url爬完的话,还是建议花生瓜子可乐电影准备好。下面是代码,代码有注释,很容易理解。注意:爬虫代码每过一段时间就需要更新,因为爬的东西在变,所以可能过一段时间就要更新爬虫。#-*-coding:utf-8-*-"""CreatedonWedSep2914:01:282018@author
系统 2019-09-27 17:52:48 2083