1.简介:facenet是基于TensorFlow的人脸识别开源库,有兴趣的同学可以扒扒源代码:https://github.com/davidsandberg/facenet2.安装和配置facenet我们先将facenet源代码下载下来:gitclonehttps://github.com/davidsandberg/facenet.git在使用facenet前,务必安装下列这些库包:或者直接移动到facenet目录下,一键安装pipinstall-r
系统 2019-09-27 17:54:52 2525
1.去官网下载PyGame注意:要下载对应版本的包官网地址:http://www.pygame.org/download.shtml其中,如果python为以下版本:python3.4:http://www.lfd.uci.edu/~gohlke/pythonlibs/#pygamepython3.5,3.6:https://pypi.python.org/pypi/Pygame(cp36就是python3.6的意思)2..exe文件直接安装.whl文件启
系统 2019-09-27 17:51:11 2525
1,什么是Requests库Requests是用python语言编写,基于urllib,采用Apache2Licensed开源协议的HTTP库。它比urllib更加方便,可以节约我们大量的工作,完全满足HTTP测试需求,用一句话来说,Requests是python实现的简单易用的HTTP库。安装Request,直接输入pip3installrequests2,使用方法(底部有码云地址)相对上一期的urllib库要简单了很多了(个人觉得简单了不少的)各种请求
系统 2019-09-27 17:49:48 2525
Python中进程间共享数据,处理基本的queue,pipe和value+array外,还提供了更高层次的封装。使用multiprocessing.Manager可以简单地使用这些高级接口。Manager()返回的manager对象控制了一个server进程,此进程包含的python对象可以被其他的进程通过proxies来访问。从而达到多进程间数据通信且安全。Manager支持的类型有list,dict,Namespace,Lock,RLock,Semap
系统 2019-09-27 17:38:03 2525
json.dumps()用于将dict类型的数据转成str,因为如果直接将dict类型的数据写入json文件中会发生报错,因此在将数据写入时需要用到该函数。若在数据写入json文件时,未先进行转换,报错如下:转换后再写入,则不报错:
系统 2019-09-27 17:57:18 2524
函数:len()1:作用:返回字符串、列表、字典、元组等长度2:语法:len(str)3:参数:str:要计算的字符串、列表、字典、元组等4:返回值:字符串、列表、字典、元组等元素的长度5:实例5.1、计算字符串的长度:>>>s="hellogoodboydoiido">>>len(s)215.2、计算列表的元素个数:>>>l=['h','e','l','l','o']>>>len(l)55.3、计算字典的总长度(即键值对总数):>>>d={'num':1
系统 2019-09-27 17:50:50 2524
在python调用c#dll库时要先安装库clr,即安装pythonnet,参考文章:https://www.cnblogs.com/kevin-Y/p/10235125.html(为在python中使用dotnet程序安装clr)但是输入命令后遇到错误“'pip'不是内部或外部命令,也不是可运行的程序”,解决办法:https://blog.csdn.net/miss85246/article/details/81069276,将python路径下的Scr
系统 2019-09-27 17:47:00 2524
本文实例讲述了用python读写excel的方法。分享给大家供大家参考。具体如下:最近需要从多个excel表里面用各种方式整理一些数据,虽然说原来用过java做这类事情,但是由于最近在学python,所以当然就决定用python尝试一下了。发现python果然简洁很多。这里简单记录一下。(由于是用到什么学什么,所以不算太深入,高手勿喷,欢迎指导)一、读excel表读excel要用到xlrd模块,官网安装(http://pypi.python.org/pyp
系统 2019-09-27 17:54:24 2523
#opencv批量泊松融合importcv2importnumpyasnpimportossrc_path="cut_1/"save_path="mixup_1/"dst=cv2.imread("beijing1.jpg")a=dst.shapeH=a[0]W=a[1]print("H",H)print("W",W)imagelist=os.listdir(src_path)print("222222",len(imagelist))centers=((6
系统 2019-09-27 17:49:27 2523
直接上代码实现效果wordcloud还提供了命令行版wordcloud-cli,一行命令即可。下面进行歌词的情感分析情感分析结果s1=SnowNLP(s.sentences[0])s1.sentiments0.8849970682062196#正向情感#分析好不容易又能再多爱一天s1=SnowNLP(s.sentences[-2])s1.sentiments0.21646625648493734#这个情绪就比较负面了
系统 2019-09-27 17:48:32 2523
一、算法1、算法的主要思想就是将一个中缀表达式(Infixexpression)转换成便于处理的后缀表达式(Postfixexpression),然后借助于栈这个简单的数据结构,计算出表达式的结果。2、关于如何讲普通的表达式转换成后缀表达式,以及如何处理后缀表达式并计算出结果的具体算法描述不在此叙述了,书上有详细的说明。二、简易计算器使用说明使用该计算器类的简单示例如下:#usagec=Calculator()print('result:{:f}'.for
系统 2019-09-27 17:37:41 2523
最近一直在看文本挖掘这块儿,看了许多机器学习相关的资料,在这里做个笔记分享给大家,有供自己日后学习浏览。码字不易,喜欢请点赞!!!这篇推文主要介绍Python实现SVM的案例,后期会更新加强版。这里主要讲的是使用Python的Sklearn包实现SVM样本分类,而不包括SVM的理论推导,我在看SVM的理论的时候看了很多网上的博客,有很多都写的不错,这里推荐,July写的支持向量机通俗导论(理解SVM的三层境界),而且作者将其制作成了pdf版本,可以下载下来
系统 2019-09-27 17:56:32 2522
前面介绍的scrapy爬虫只能爬取单个网页。如果我们想爬取多个网页。比如网上的小说该如何如何操作呢。比如下面的这样的结构。是小说的第一篇。可以点击返回目录还是下一页对应的网页代码:我们再看进入后面章节的网页,可以看到增加了上一页对应的网页代码:通过对比上面的网页代码可以看到.上一页,目录,下一页的网页代码都在下的元素的href里面。不同的是第一章只有2个元素,从二章开始就有3个元素。因此我们可以通过下元素的个数来判决是否含有上一页和下一页的页面。代码如下最
系统 2019-09-27 17:53:35 2522
最近几天了解了一下人脸识别,应用场景可以是图片标注,商品图和广告图中有没有模特,有几个模特,模特的性别,年龄,颜值,表情等数据的挖掘。基础的识别用dlib来实现,dlib是一个机器学习的包,主要用C++写的,但是也有Python版本。其中最流行的一个功能是FacialLandmarkDetection,配备已经训练好的轮廓预测模型,叫shape_predictor_68_face_landmarks.dat,从名字就可以看出,它可以检测出面部的68个关键点
系统 2019-09-27 17:52:05 2522
笔者之前写过一篇简单介绍python函数装饰器用法的文章,本文便不再赘述。简而言之,pythong函数装饰器是一种通过特定语法,给函数额外增加一层逻辑,以实现相应目的的一种语法结构。本文将介绍装饰器的原理、被装饰函数是如何以参数的形式传入到装饰器函数内部的,以及实现给装饰器函数设定参数的参数传递原理。defdecorator(func):defwrapper(*args,**kargs):print('IlovePython!')func()returnw
系统 2019-09-27 17:50:04 2522