- 军军小站|张军博客
搜索到与相关的文章
Python

Python,pandas中DataFrame的选取总结

pandas中选取方式有很多种,最常用的是一下几种:直接选取(单维度选取)、iloc();loc();ix()函数选取(区域选区),at();iat()函数选取(单元格选取)。通过以上几种方式可以实现:选取某些行、某些列、某区域(同时选择某些行和某些列)、某个单元格,还可以进行条件选区。具体实现方法如下。首先创建一个DataFrame.importpandasaspdimportnumpyasnpdata={'name':['Joe','Mike','Ja

系统 2019-09-27 17:49:56 1922

Python

Python web框架:flask模板语法

1、模板的使用Flask使用的是Jinja2模板,所以其语法和Django无太大差别Flask中模板里面,执行函数时,需要带()才执行1.为了防止xss攻击,加了验证,所以页面上显示字符串的形式,解决办法,有两种方法方法一:在后端使用Markup,等价于Django里的mark_safev=Markup("")方法二:在前端使用safe{{v1|safe}}2.静态文件的两种导入方式目录结构:在这里插入图片描述方式一:在这里插入图片描述方式二:在这里插入图

系统 2019-09-27 17:49:29 1922

Python

【AI书籍】《Python深度学习》下载

本书由Keras之父、现任Google人工智能研究员的弗朗索瓦•肖莱(FrançoisChollet)执笔,详尽介绍了用Python和Keras进行深度学习的探索实践,涉及计算机视觉、自然语言处理、生成式模型等应用。书中包含30多个代码示例,步骤讲解详细透彻。由于本书立足于人工智能的可达性和大众化,读者无须具备机器学习相关背景知识即可展开阅读。在学习完本书后,读者将具备搭建自己的深度学习环境、建立图像识别模型、生成图像和文字等能力。本书特色“本书在当前的‘

系统 2019-09-27 17:48:30 1922

Python

【Python练习圣典】heapq高级应用

1.从集合中取出最大或最小N个元素importheapqnums=[1,8,2,23,7,-4,18,23,42,37,2]print(heapq.nlargest(3,nums))#输出[42,37,23]print(heapq.nsmallest(3,nums))#输出[-4,1,2]也支持其他参数支持更为复杂的数据结构portfolio=[{'name':'IBM','shares':100,'price':91.1},{'name':'AAPL',

系统 2019-09-27 17:46:31 1922

Python

: Python

本文将从以下几点来介绍protobuf:1.安装2.定义protobuf消息格式3.编译protobuf4.读写protobuf1.安装下载protobuf。下载地址添加环境变量。将proto.exe所在的路径名放在path下。如图:2.定义protobuf消息格式我们将要使用的示例是一个非常简单的“地址簿”应用程序,可以在文件中读取和写入人员的联系人详细信息。地址簿中的每个人都有姓名,ID,电子邮件地址和联系电话号码。要创建地址簿应用程序,需要从.pro

系统 2019-09-27 17:46:17 1922

Python

python h5py库的使用

文章目录H5数据集的使用使用h5py的group分割GB级数据H5数据集的使用#创建withh5py.File("data_train.h5",'w')ashf:hf.create_dataset('train_input',data=shuffled_input)hf.create_dataset('train_label',data=shuffled_label)#打开withh5py.File("data_train.h5",'r')ashf:tra

系统 2019-09-27 17:46:09 1922

Python

python读写csv文件的方法

1.爬取豆瓣top250书籍importrequestsimportjsonimportcsvfrombs4importBeautifulSoupbooks=[]defbook_name(url):res=requests.get(url)html=res.textsoup=BeautifulSoup(html,'html.parser')items=soup.find(class_="grid-16-8clearfix").find(class_="in

系统 2019-09-27 17:45:26 1922

Python

Python访问纯真IP数据库脚本分享

1.将类似如下程序中的切片变得更可读###位置##0123456789012345678901234567890123456789012345678901234567890'record='....................100.......513.25..........'cost=int(record[20:32])*float(record[40:48])利用slice()函数创建slice对象,该对象可用于任何切片可应用的地方如:>>>it

系统 2019-09-27 17:45:24 1922

Python

零基础写python爬虫之爬虫的定义及URL构成

一、网络爬虫的定义网络爬虫,即WebSpider,是一个很形象的名字。把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。网络蜘蛛是通过网页的链接地址来寻找网页的。从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。这样看来,网络爬虫

系统 2019-09-27 17:38:09 1922