0引言上周被一则新闻震惊到了,《2454万元大奖无人认领!福彩史上第二大弃奖在广东中山产生》,在2019年5月2日开奖的双色球中,广东中山一位彩民博中2454万元,兑奖时间截至2019年7月1日。令人遗憾的是,中奖者最终未现身领奖,2454万元大奖成为弃奖。经中山市福彩中心查证,这是中国福彩史上金额第二大的弃奖。根据《彩票管理条例实施细则》的有关规定,这次的2454万元弃奖奖金将被纳入彩票公益金。一直在为福彩做贡献的我,啥时候能摊上这样的好事啊。于是我用P
系统 2019-09-27 17:56:54 2158
pandas读取、写入csv数据非常方便,但是有时希望通过excel画个简单的图表看一下数据质量、变化趋势并保存,这时候csv格式的数据就略显不便,因此尝试直接将数据写入excel文件。pandas可以写入一个或者工作簿,两种方法介绍如下:1、如果是将整个DafaFrame写入excel,则调用to_excel()方法即可实现,示例代码如下:#output为要保存的Dataframeoutput.to_excel('保存路径+文件名.xlsx')2、有多个
系统 2019-09-27 17:56:47 2158
你想过你为什么会走上学习Python这条路么?很多码农在决定学习Python的时候,大多数都没有想清楚怎么去学习这门语言,怎么学好它?这么些年,六星教育见过形形色色的学习Python的人的理由,其中不乏随大众、选个大家都学的语言等理由,这类人群有个鲜明的特点,就是一时热度高,坚持不了几天的学习便会找各种借口不上课。这是因为没有给自己定位清楚的原因。因为盲目随大众,在学习这门语言前,没有做一个基本的学习了解,所以当开始学习时,不适感会比其他有定位的同学强烈很
系统 2019-09-27 17:56:39 2158
全文共5270字,预计学习时长11分钟或更长图片来源:pexels.com/@divinetechygirl从文明之初到2003年,只创造了5艾字节的信息,但是现在每两天就有如此之多的信息产生。埃里克·施密特(EricSchmidt)如果你是R使用者,可能你已经使用过data.table程序包。Data.table是R中数据帧程序包的延伸。涉及大型数据(包括RAM中1的10GB)快速集合时,该数据包也是R使用者的首选程序包。R的data.table程序包使
系统 2019-09-27 17:55:20 2158
talkischeap,showmethecode.importloggingimportlogging.handlerslogger=logging.getLogger("logger")handler1=logging.StreamHandler()#handler2=logging.FileHandler(filename="test.log",encoding="utf-8")#每隔1000Byte划分一个日志文件,备份文件为3个#handler2
系统 2019-09-27 17:54:58 2158
fabric是一个python包是一个基于ssh的部署工具包通常用来对网站微服务等等的批量部署例如我有5台线上服务器可以通过一台对着5台分发,实现自动部署的目的。简单介绍下fabric的常用命令常用命令lcd(dir):进入本机某目录local(cmd):本机上执行命令cd(dir):进入服务器某目录run(cmd):服务器上执行命令FabricFabric是一个python的远程执行shell的库,同时它也是一个命令行工具。它提供了丰富的同SSH交互的接
系统 2019-09-27 17:54:45 2158
python最大深度最小深度LeetCode104,111解法:1、BFS:寻找最大深度的时候,很容易想到就是,可以直接进行层次遍历,当无法在进行遍历下去的时候就是最深的深度;当寻找最小深度的时候,对每一个节点检查它是否是叶子节点,也就是检查它是否有左子树和右子树。2、DFS:每次进行遍历的时候,要判断是否是叶子节点,更新max深度的值和min深度的值。BFS版本#Definitionforabinarytreenode.#classTreeNode(ob
系统 2019-09-27 17:54:14 2158
如下所示:out=subprocess.getstatusoutput('adbshellpmlistpackages')top=tk.Toplevel()top.title('包名列表')top.geometry('%dx%d'%(400,1200))#设置窗口大小t=Text(top,width=400,height=900)t.insert('1.0',"{}".format(out[1]))#插入文本,用引号引起来“1.0”这个是插入文本的坐标,且
系统 2019-09-27 17:53:44 2158
1、进入~cd~2、修改pip.conf(没有此文件则创建)mkdir.pipvimpip.conf修改pip.conf为(清华源)[global]index-url=https://pypi.tuna.tsinghua.edu.cn/simple
系统 2019-09-27 17:53:19 2158
通常在使用Spark算子函数,比如使用map()或者reduce函数我们向函数传入条件时,函数内部可以使用驱动程序中定义的变量,但是这样会使集群中所有任务都会得到变量新的副本,这些副本的更新不会传播回驱动程序,导致读写共享变量效率低下或者内存溢出,为了解决这个问题Spark提供了两种共享变量类型:广播变量和累加器广播变量:用来高效分发较大对象,只能在Driver定义,不能在Executor端定义,同时RDD不存储数据所以不能广播出去累加器:用来对信息进行聚
系统 2019-09-27 17:52:33 2158