引言某人需求:以某excel中姓名信息为名建立一系列文件夹,分别将四个文件夹中与人名对应的文件汇总到该人名对应的文件夹中,共近200人,手工处理费时费力。需求分解:从excel中提取代号index和姓名信息name以index_name格式批量建立文件夹namefolder分别遍历四个文件夹及其子文件夹,将其中“文件名filename中包含姓名name”的文档移动到该人对应的新建的文件夹namefolder中excel内容:处理前:处理后:功能实现比较容易
系统 2019-09-27 17:54:26 2190
参考文章:【Tensorflow2.0】Tensorflow2.0的安装教程tensorflow2.0安装以及教程最全Tensorflow2.0入门教程持续更新TensorFlow2.0教程-安装TensorFlow2.0以下是本电脑安装tensorflow2.0的过程。安装anaconda3.6或者其他版本创建一个环境,用来安装tensorflow2.0以及相关的pythonpackages.condacreate-ntensorflow2.0pytho
系统 2019-09-27 17:53:32 2190
在本教程中,我们将使用OpenCV构建一个简单的手写数字分类器。我们将共享用C++和Python编写.图像分类管道本章节暂不讨论图像分类管道,大家可以自行搜索相关知识,下次我们补充。我们将使用方向梯度直方图作为特征描述符和支持向量机(SVM)作为分类的机器学习算法。使用OpenCV的光学字符识别(OCR)示例(C++/Python)我想与代码共享一个示例,以使用HOG+SVM演示图像分类。与此同时,我希望尽可能保持简单,这样除了HOG和SVM之外我们不需要
系统 2019-09-27 17:52:46 2190
自定义可迭代的类列表可以获取列表的长度,然后使用变量i对列表索引进行循环,也可以获取集合的所有元素,且容易理解。没错,使用列表的代码是容易理解,也很好操作,但这是要付出代价的。列表之所以可以用索引来快速定位其中的任何一个元素,是因为列表是一下子将所有的数据都装载在内存中,而且是一块连续的内存空间。当数据量比较小时,实现比较容易;当数据量非常大时,会非常消耗内存资源。而迭代就不同,迭代是读取多少元素,就将多少元素装载到内存中,不读取就不装载。这有点像处理XM
系统 2019-09-27 17:52:25 2190
复制一个文件夹的文件到指定目录下importosimportshutilimporttimestart_time=time.time()#需要被复制的文件夹old_path=r'D:\zjf_workspace\001-地标、利器、服饰\004文本\json1'new_path=r'D:\zjf_workspace\001-地标、利器、服饰\004文本\json'all_list=os.listdir(old_path)foriinall_list:pri
系统 2019-09-27 17:50:51 2190
Python3快速入门(十四)——Pandas数据读取一、DataFrameIO1、CSV文件pandas.read_csv(filepath_or_buffer,na_values='NAN',parse_dates=['LastUpdate'])从CSV文件中读取数据并创建一个DataFrame对象,na_vlaues用于设置缺失值形式,parse_dates用于将指定的列解析成时间日期格式。dataframe.to_csv("xxx.csv",mod
系统 2019-09-27 17:50:45 2190
Python入门之内置模块--序列化模块(json模块、pickle模块)1、序列化Python中这种序列化模块有三种:json模块:不同语言都遵循的一种数据转化格式,即不同语言都使用的特殊字符串。(比如Python的一个列表[1,2,3]利用json转化成特殊的字符串,然后在编码成bytes发送给php的开发者,php的开发者就可以解码成特殊的字符串,然后在反解成原数组(列表):[1,2,3])json序列化只支持部分Python数据结构:dict
系统 2019-09-27 17:46:39 2190
TCP和并发服务器与UDP不同的是,他是一个面向连接的,可靠的数据传输协议TCP通信比较复杂先写一个TCP服务器,一般步骤如下:1、首先是要创建一个socket套接字:socket()2、服务器一般是需要一个固定的IP地址和固定端口号,服务器就要绑定这个IP地址和端口号:bind()3、客户端连接服务器是是有一定的数量(允许最大连接数)的,而这个数量是服务器设定的:listen()4、上面3步是做被连接的准备,这一步是来接受客户端的数据,在接受数据之前,服
系统 2019-09-27 17:56:05 2189
1、使用type()type()函数:判断对象类型基本类型的判断:>>>type(123)>>>>>type('str')>>>>>type(None)>用type()判断一个变量指向函数或者类:>>>type(abs)#函数>>>type(a)#类比较变量的type类型Python的types模块里为定义好常量的type类型,在使用之前需要先导入>>>importtypes>>>type('abc')==types.StringTypeTrue>>>ty
系统 2019-09-27 17:55:18 2189
野子电竞数据官网改版https://www.xxe.io/全新登场安装从官网或者Python部落都可以下载Python2.x和Python3.x的版本,注意一下系统就好将Python2.x和Python3.x安装到不同的文件夹里面。例如,Windows下D:ProgramFilesPython2和D:ProgramFilesPython3将Python2和Python3的安装路径和下一级的Scripts文件夹的路径添加到环境变量里面。解法野路子解法将其中一
系统 2019-09-27 17:50:15 2189
使用环境:Win10x64Python:3.6.4SqlServer:2008R2因为近期需要将excel导入到SQLServer,但是使用的是其他语言,闲来无事就尝试着用python进行导入,速度还是挺快的,1w多条数据,也只用了1s多,代码也比较简单,就不多解释了。用到的库有xlrd(用来处理excel),pymssql(用来连接使用sqlserver)importxlrdimportpymssqlimportdatetime#连接本地sqlserve
系统 2019-09-27 17:48:59 2189
爬虫前奏爬虫的实际例子搜索引擎(百度、谷歌、360搜索等)伯乐在线惠惠购物助手数据分析与研究(数据冰山知乎专栏)抢票软件等什么是网络爬虫通俗理解:爬虫是一个模拟人类请求网站行为的程序,可以自动请求网页,并将数据爬取下来,然后使用一定的规则提取有价值的数据通用爬虫和聚焦爬虫**通用爬虫:**通用爬虫是搜索引擎抓取系统(百度、谷歌、搜狗等)的重要组成部分,主要是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份**聚焦爬虫:**是面向特定需求的一种网络爬
系统 2019-09-27 17:48:25 2189
TF(TermFrequency)词频,在文章中出现次数最多的词,然而文章中出现次数较多的词并不一定就是关键词,比如常见的对文章本身并没有多大意义的停用词。所以我们需要一个重要性调整系数来衡量一个词是不是常见词。该权重为IDF(InverseDocumentFrequency)逆文档频率,它的大小与一个词的常见程度成反比。在我们得到词频(TF)和逆文档频率(IDF)以后,将两个值相乘,即可得到一个词的TF-IDF值,某个词对文章的重要性越高,其TF-IDF
系统 2019-09-27 17:48:00 2189
这篇文章主要介绍了python文字和unicode/ascll相互转换函数及简单加密解密实现代码,下面我们来了解一下。importreimportrandom#ord()它以一个字符(长度为1的字符串)作为参数,返回对应的ASCII数值,或者Unicode数值#chr()是见数字变成汉字#函数功能:将输入的字符串加密#加密方式,将字变成Unicode数值,然后加上一个随机数,然后再变成汉字,再在汉字后面加上这个数字,组成加密后的密文#返回值:加密后的密文#
系统 2019-09-27 17:46:13 2189
阅读更多最近尝试使用request来发送上传文件的post请求,网上找了很多直接post文件的例子,借鉴发现这个方法行不通,于是尝试了另外一种方式:通过第三方包requests_toolbelt讲文件转为数据流来发送请求,尝试成功。第一类,单个文件,包含在消息体#-*-coding:utf-8-*-importrequests#引入requests_toolbelt包,直接使用数据流来发送上传文件的post请求fromrequests_toolbelt.m
系统 2019-09-27 17:45:24 2189