平时见到的url参数都是key-value,一般vlaue都是字符串类型的如果有幸和我一样遇到字典,列表等参数,那么就幸运了python2代码importjsonfromurllibimporturlencode#1.直接将url编码params={"name":"Tom","hobby":["ball","swimming"],"books":[{"name":"语文","pages":20}]}print(urlencode(params))"""ho
系统 2019-09-27 17:51:13 1816
在用BeautifulSoup进行抓取页面的时候,会各种各样的编码错误。可以通过在beautifulsoup中指定字符编码,解决问题。复制代码代码如下:importurllib2fromBeautifulSoupimportBeautifulSouppage=urllib2.urlopen('http://www.163.com');soup=BeautifulSoup(page,from_encoding="gb2312")printsoup.origi
系统 2019-09-27 17:51:09 1816
前言:为了获取一定高级操作,如:微信模板消息(xiao,xin)推送,把消息推送给用户,或者是获取用户授权信息都需要用到accesstoken,有效期为两个小时?过了两个小时怎么办?重新获取,来,代码撸起走,啥女朋友没有?获取小程序对应的accesstokendefget_wx_token():url="https://api.weixin.qq.com/cgi-bin/token?"try:respone=requests.get(url,params=
系统 2019-09-27 17:50:53 1816
下面是十个Python中很有用的贴士和技巧。其中一些是初学这门语言常常会犯的错误。注意:假设我们都用的是Python31.列表推导式你有一个list:bag=[1,2,3,4,5]现在你想让所有元素翻倍,让它看起来是这个样子:[2,4,6,8,10]大多初学者,根据之前语言的经验会大概这样来做bag=[1,2,3,4,5]foriinrange(len(bag)):bag[i]=bag[i]*2但是有更好的方法:bag=[elem*2foreleminba
系统 2019-09-27 17:50:33 1816
阅读更多Python调用hanlp的方法此前有分享过,本篇文章分享自“逍遥自在017”的博客,个别处有修改,阅读时请注意!1.首先安装jpype首先各种坑,jdk和python版本位数必须一致,我用的是JPype1-py3版本号0.5.5.2、1.6jdk和Python3.5,win764位下亲测没问题。否则死翘翘,有可能虚拟机都无法启动:出错调试,原因已说;测试成功会有输出。下面启动虚拟机跑hanlp2.下载各种安装包使用自定义的HanLP——HanLP
系统 2019-09-27 17:50:23 1816
打开文件open函数返回一个文件对象,基本语法:●file_object=open(file_name,access_mode='r'[,buffering=-1])file_name是包含要打开的文件名字的字符串,它可以是相对路径或者绝对路径.●可选变量access_mode也是一个字符串,代表文件打开的模式.通常,文件使用模式‘r',‘w',或是‘a'模式来打开,分别代表读取,写入和追加.●另外一个可选参数buffering用于指示访问文件所采用的缓冲
系统 2019-09-27 17:50:07 1816
阅读更多pipinstallpyecharts;会安装pyecharts-1.1.0画K线图kline1.py#coding:utf-8importos,sysfrompyechartsimportoptionsasoptsfrompyecharts.chartsimportKlineiflen(sys.argv)==2:code=sys.argv[1]else:print('usage:kline1.pycode')sys.exit(1)iflen(co
系统 2019-09-27 17:50:05 1816
1.os.popen运行shell列表命令复制代码代码如下:deftraverseDirByShell(path):forfinos.popen('ls'+path):printf.strip()2.利用glob模块glob.glob(path)返回带目录的文件名.通配符和shell相似.path不能包含shell变量.复制代码代码如下:deftraverseDirByGlob(path):path=os.path.expanduser(path)forf
系统 2019-09-27 17:49:59 1816
这是我在CSDN的第一篇博客,假期刚自学Python,尝试爬取了一下豆瓣top250.希望可以有大佬指点感谢importrequestsfrombs4importBeautifulSoupdefgethtml(url):try:kv={'user-agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/59.0.3071.115Safari/
系统 2019-09-27 17:49:53 1816
阅读更多初学Python爬虫时都会从最简单的方法开始,以下为几种常见的基础做法。"""简单的循环处理"""importrequestsurl_list=["https://www.baidu.com","https://www.cnblogs.com/"]forurlinurl_list:result=requests.get(url)print(result.text)"""线程池处理"""importrequestsfromconcurrent.fut
系统 2019-09-27 17:49:32 1816