Mac中python多版本切换管理step1.$sudovi~/.bashrcstep2.命令行中输入aliaspython2=’/…/Versions/2.x/bin/python2.x’aliaspython3=’/…/Versions/3.x/bin/python3.x’Step3.刷新$source~/.bashrcStep4、验证在终端输入python2即代表是Python2.x版本,输入python3即代表是Python3.x版本。Mac设置默
系统 2019-09-27 17:55:04 1956
1.安装matplotlibpipinstallmatplotlib2.绘制简单图形importmatplotlib.pyplotasplt#图形输入值input_values=[1,2,3,4,5]#图形输出值squares=[1,4,9,16,25]#plot根据列表绘制出有意义的图形,linewidth是图形线宽,可省略plt.plot(input_values,squares,linewidth=5)#设置图标标题plt.title("Square
系统 2019-09-27 17:55:03 1956
判读是否存在文件夹importtensorflowastfimportosfolder='./floder'ifnottf.gfile.Exists(folder):#若文件夹不存在,则自动创建文件夹tf.gfile.MakeDirs(folder)若存在删除文件夹下所有文件iftf.gfile.Exists(folder):#返回一个listforfilein(tf.gfile.ListDirectory(folder)):#添加绝对路径,并删除文件tf
系统 2019-09-27 17:54:49 1956
今天在写监控脚本的时候遇到一个问题,就是我执行每一个监控模块(脚本)的时候,例如CPU、内存、磁盘脚本,都会返回一个字典格式的数据,但是我需要将这三个字典,组合成一个大字典,然后通过requests模块发送给api接口,so,我就在网上找了一些方法,然后总结,写成这编博文。1、首先定义三个字典(不需要考虑字典的具体内容)>>>cpu_dict={'cpu_count':8,'cpu_ratio':3.5}>>>memory_dict={'memory_co
系统 2019-09-27 17:54:08 1956
代码如下fromfake_useragentimportUserAgentfromlxmlimportetreeimportrequests,osimporttime,re,datetimeimportbase64,json,pymysqlfromfontTools.ttLibimportTTFontua=UserAgent()classCustomException(Exception):def__init__(self,status,msg):self
系统 2019-09-27 17:53:51 1956
Python对于将函数作为参数传递给另一个函数调用是非常方便的,只要你在函数中将调用的参数按照函数处理进行调用,这种操作就能顺利完成。如:defS(n):sum=0foriinrange(n):sum+=ireturnsumdefP(f):a=eval(input('输入一个数'))print('数的累加为:'f(a))运行P(S),即能够从键盘获得输入并打印出结果。这里将函数S作为参数传递给P是非常方便的。而在P中,之所以将参数f认为是函数,则是因为对它
系统 2019-09-27 17:53:34 1956
这里主要讲了bs4解析方法和json方法,以8684网页为例子,爬取了全国公交线路importrequestsimporttimefrombs4importBeautifulSoupimportjsonfromxpinyinimportPinyinheaders={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/76.0.
系统 2019-09-27 17:53:12 1956
本文实例讲述了Python的批量远程管理和部署工具Fabric用法。分享给大家供大家参考。具体如下:Fabric是Python中一个非常强大的批量远程管理和部署工具,常用于在多个远程PC上批量执行SSH任务.常见的使用方法大概总结如下:1.首先,要将批量执行的任务写入到一个fabfile.py中,复制代码代码如下:#-*-coding:utf-8-*-fromfabric.apiimportrun,local,roles,env,cdenv.hosts=[
系统 2019-09-27 17:52:48 1956
运行多进程每个子进程的内存空间是互相隔离的进程之间数据不能共享的互斥锁但是进程之间都是运行在一个操作系统上,进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是可以的,而共享带来的是竞争,竞争带来的结果就是错乱#并发运行,效率高,但竞争同一打印终端,带来了打印错乱frommultiprocessingimportProcessimporttimedeftask(name):print("%s1"%name)time.slee
系统 2019-09-27 17:52:42 1956
说到流处理,Spark为我们提供了窗口函数,允许在滑动数据窗口上应用转换,常用场景如每五分钟商场人流密度、每分钟流量等等,接下来我们通过画图来了解SparkStreaming的窗口函数如何工作的,处理过程图如下所示:上图中绿色的小框框是一批一批的数据流,虚线框和实线框分别是前一个窗口和后一个窗口,从图中可以看出后一个窗口在前一个窗口基础上移动了两个批次的数据流,而我们真正通过算子操作的数据其实就是窗口内所有的数据流。在代码实现前了解下窗口操作常用的函数有:
系统 2019-09-27 17:52:34 1956