昆明地图defkmdt(x):importmatplotlib.pyplotaspltimportjsonwithopen('km.json','rb')asf:data=json.load(f)forfeainrange(len(data['features'])):df=data['features'][fea]['geometry']['coordinates']forf1inrange(len(df)):df1=df[f1]forf2inrange
系统 2019-09-27 17:46:53 1908
Anaconda是一个和Canopy类似的科学计算环境,但用起来更加方便。自带的包管理器conda也很强大。首先是下载安装。Anaconda提供了Python2.7和Python3.4两个版本,同时如果需要其他版本,还可以通过conda来创建。安装完成后可以看到,Anaconda提供了Spyder,IPython和一个命令行。下面来看一下conda。输入condalist来看一下所有安装时自带的Python扩展。粗略看了一下,其中包括了常用的Numpy,S
系统 2019-09-27 17:46:06 1908
一、静态方法(staticmethod)和类方法(classmethod)类方法:有个默认参数cls,并且可以直接用类名去调用,可以与类属×××互(也就是可以使用类属性)静态方法:让类里的方法直接被类调用,就像正常调用函数一样类方法和静态方法的相同点:都可以直接被类调用,不需要实例化类方法和静态方法的不同点:类方法必须有一个cls参数表示这个类,可以使用类属性静态方法不需要参数绑定方法:分为普通方法和类方法普通方法:默认有一个self对象传进来,并且只能被
系统 2019-09-27 17:46:06 1908
前面的python3入门系列基本上也对python入了门,从这章起就开始介绍下python的爬虫教程,拿出来给大家分享;爬虫说的简单,就是去抓取网路的数据进行分析处理;这章主要入门,了解几个爬虫的小测试,以及对爬虫用到的工具介绍,比如集合,队列,正则表达式;用python抓取指定页面:代码如下:importurllib.requesturl="http://www.baidu.com"data=urllib.request.urlopen(url).rea
系统 2019-09-27 17:45:49 1908
PythonQueue模块Python中,队列是线程间最常用的交换数据的形式。Queue模块是提供队列操作的模块,虽然简单易用,但是不小心的话,还是会出现一些意外。创建一个“队列”对象importQueueq=Queue.Queue(maxsize=10)Queue.Queue类即是一个队列的同步实现。队列长度可为无限或者有限。可通过Queue的构造函数的可选参数maxsize来设定队列长度。如果maxsize小于1就表示队列长度无限。将一个值放入队列中q
系统 2019-09-27 17:45:30 1908
#服务端fromsocketimport*s=socket(AF_INET,SOCK_STREAM)#IVP4寻址tcp协议s.bind(('',6666))#补丁端口s.listen(1)#开始监听一个队列sock,addr=s.accept()#返回两次第一次返回连接地址二端口号print('成功',addr)sock.send(str('dd').encode("utf-8"))text=sock.recv(1024)#缓存长度print(text)
系统 2019-09-27 17:45:24 1908
1.将类似如下程序中的切片变得更可读###位置##0123456789012345678901234567890123456789012345678901234567890'record='....................100.......513.25..........'cost=int(record[20:32])*float(record[40:48])利用slice()函数创建slice对象,该对象可用于任何切片可应用的地方如:>>>it
系统 2019-09-27 17:45:23 1908
mysql是一个优秀的开源数据库,它现在的应用非常的广泛,因此很有必要简单的介绍一下用python操作mysql数据库的方法。python操作数据库需要安装一个第三方的模块,在http://mysql-python.sourceforge.net/有下载和文档。由于python的数据库模块有专门的数据库模块的规范,所以,其实不管使用哪种数据库的方法都大同小异的,这里就给出一段示范的代码:#-*-encoding:gb2312-*-importos,sys,
系统 2019-09-27 17:38:41 1908
本文实例讲述了基于python编写的微博应用,分享给大家供大家参考。具体如下:在编写自己的微博应用之前,先要到weibo开放平台申请应用的公钥和私钥。下载python版的SDK,打开example目录,仿照oauthSetTokenUpdate.py进行编码,复制代码代码如下:#-*-coding:utf-8-*-fromweibopy.authimportOAuthHandlerfromweibopy.apiimportAPIconsumer_key='
系统 2019-09-27 17:38:12 1908
一直想做个能帮我过滤出优质文章和博客的平台给它取了个名叫Moven。。把实现它的过程分成了三个阶段:1.Downloader:对于指定的url的下载并把获得的内容传递给Analyser--这是最简单的开始2.Analyser:对于接受到的内容,用RegularExpression或是XPath或是BeautifulSoup/lxml进行过滤和简化--这部分也不是太难3.SmartCrawler:去抓取优质文章的链接--这部分是最难的:Crawler的话可以
系统 2019-09-27 17:38:09 1908