1.简介:facenet是基于TensorFlow的人脸识别开源库,有兴趣的同学可以扒扒源代码:https://github.com/davidsandberg/facenet2.安装和配置facenet我们先将facenet源代码下载下来:gitclonehttps://github.com/davidsandberg/facenet.git在使用facenet前,务必安装下列这些库包:或者直接移动到facenet目录下,一键安装pipinstall-r
系统 2019-09-27 17:54:52 2437
'''1.实现用户传入一个普通字符串,返回字符串的md5加密结果的函数'''#importhashlib##defM(str):#m=hashlib.md5()#m.update(str.encode('utf8'))#returnm.hexdigest()##s=M('stoll')#print(s)#函数对象的四大功能#1.引用(和变量一样)#x="hellonick"#y=x#deffunc():#print('fromfunc')#f=func#p
系统 2019-09-27 17:49:12 2437
Python中进程间共享数据,处理基本的queue,pipe和value+array外,还提供了更高层次的封装。使用multiprocessing.Manager可以简单地使用这些高级接口。Manager()返回的manager对象控制了一个server进程,此进程包含的python对象可以被其他的进程通过proxies来访问。从而达到多进程间数据通信且安全。Manager支持的类型有list,dict,Namespace,Lock,RLock,Semap
系统 2019-09-27 17:38:03 2437
一、概述线性流水线与非线性流水线是CPU中指令处理流水线的一种分类标准。线性流水线很好理解,就是一条路走到黑的流水线;非线性流水线则不同,它可能存在前馈与反馈,每个部件可能使用一次或多次,它就没法像线性流水线那么一个一个部件按部就班的走。因此出现了一个问题,如果我第一个任务第二次使用部件A,第二个任务恰好第一次也使用部件A,这会怎么样?出现矛盾了,流水线卡住了。这不好,因此需要流水线调度算法来安排好每一个任务,在让它们不冲突的同时,最大可能提高流水线的效率
系统 2019-09-27 17:54:43 2436
最近几天了解了一下人脸识别,应用场景可以是图片标注,商品图和广告图中有没有模特,有几个模特,模特的性别,年龄,颜值,表情等数据的挖掘。基础的识别用dlib来实现,dlib是一个机器学习的包,主要用C++写的,但是也有Python版本。其中最流行的一个功能是FacialLandmarkDetection,配备已经训练好的轮廓预测模型,叫shape_predictor_68_face_landmarks.dat,从名字就可以看出,它可以检测出面部的68个关键点
系统 2019-09-27 17:52:05 2436
对于map()它的原型是:map(function,sequence),就是对序列sequence中每个元素都执行函数function操作。比如之前的a,b,c=map(int,raw_input().split()),意思就是说把输入的a,b,c转化为整数。再比如:a=['1','2','3','4']printmap(list,a)printmap(int,a)第一个map是把列表a中每个元素转化为列表,第二个map是把a中每个元素转化为整数。而对于z
系统 2019-09-27 17:37:54 2436
从url中找到域名,首先想到的是用正则,然后寻找相应的类库。用正则解析有很多不完备的地方,url中有域名,域名后缀一直在不断增加等。通过google查到几种方法,一种是用Python中自带的模块和正则相结合来解析域名,另一种是使第三方用写好的解析模块直接解析出域名。要解析的url复制代码代码如下:urls=["http://meiwen.me/src/index.html","http://1000chi.com/game/index.html","htt
系统 2019-09-27 17:56:17 2435
Python量化的关键是金融数据可视化,无论是传统的K线图,还是现在的策略分析,都需要大量的可视化图表。具体到编程代码,就是使用Python绘图模块库绘图,比如传统的Python绘图模块库有Matplotlib,Seaborn等。对于股票和财经的金融数据源,可以使用Tushare库来获取和分析股票财经数据,我们获得财经数据源后,就可以使用Pandas对金融数据的各种指标进行定制化的分析了,最后让数据可视化,可以使用Matplotlib来绘制出美观大方的金融
系统 2019-09-27 17:54:24 2435
前面介绍的scrapy爬虫只能爬取单个网页。如果我们想爬取多个网页。比如网上的小说该如何如何操作呢。比如下面的这样的结构。是小说的第一篇。可以点击返回目录还是下一页对应的网页代码:我们再看进入后面章节的网页,可以看到增加了上一页对应的网页代码:通过对比上面的网页代码可以看到.上一页,目录,下一页的网页代码都在下的元素的href里面。不同的是第一章只有2个元素,从二章开始就有3个元素。因此我们可以通过下元素的个数来判决是否含有上一页和下一页的页面。代码如下最
系统 2019-09-27 17:53:35 2435
一.描述colorlog.ColoredFormatter是一个Pythonlogging模块的格式化,用于在终端输出日志的颜色二.安装pipinstallcolorlog三.用法importcolorloghandler=colorlog.StreamHandler()handler.setFormatter(colorlog.ColoredFormatter('%(log_color)s%(levelname)s:%(name)s:%(message)
系统 2019-09-27 17:47:37 2435
由于百度通用翻译官方只有pythone2版本的demo,所以,你懂的首先需要申请百度开发者账号,创建app拿到appid以及secretkeyhttp://api.fanyi.baidu.com/api/trans/product/apidoc代码:#-*-coding:utf-8-*-importhttp.clientimporthashlibimporturllib.requestimportrandomimportjsonappid=''#你的app
系统 2019-09-27 17:57:31 2434
首先像所有人都会的一样,本能地敲出importmathval=math.piprint(val)这样就得到了pi的近似值3.141592653589793,要得到后面的小数,不是直接可以简单粗暴的乘以10的指数importmathval=math.pi*100000000000000000print(val)但是当val的小数部分都变成整数141592653589793的时候,并不会如我们所想的那样露出后几位整数,而是直接变成科学计数法3.14159265
系统 2019-09-27 17:56:12 2434
本文实例分析了Python中os.path用法。分享给大家供大家参考。具体如下:复制代码代码如下:#coding=utf-8importosprintos.path.abspath("d:\\new\\test.txt")printos.path.basename("d:\\new\\test.txt")printos.path.dirname("d:\\new\\test.txt")printos.path.exists("d:\\new")printo
系统 2019-09-27 17:53:03 2434
错误提示图片首先,我的操作系统是win7旗舰版,安装Python3.7.1之后启动时,提示如图错误,网上比较多的是两种处理方法:(1)安装Windows补丁程序(2)安装VCredit.exe第一种方案我这边下载了KB3118401、KB2999226,但是双击安装的时候安装不了;第二种方案大家都推荐的是安装v++2015,也安装成功了,但是安装后仍然报错。然后看着网上的推荐时间都比较早,我这边考虑是不是安装2017版本的会解决问题,因为2017除了兼容2
系统 2019-09-27 17:52:21 2434
笔者之前写过一篇简单介绍python函数装饰器用法的文章,本文便不再赘述。简而言之,pythong函数装饰器是一种通过特定语法,给函数额外增加一层逻辑,以实现相应目的的一种语法结构。本文将介绍装饰器的原理、被装饰函数是如何以参数的形式传入到装饰器函数内部的,以及实现给装饰器函数设定参数的参数传递原理。defdecorator(func):defwrapper(*args,**kargs):print('IlovePython!')func()returnw
系统 2019-09-27 17:50:04 2434