搜索到与相关的文章
Python

2019-09-18 Docker 安装Python 3.7.4

要安装运行Python的容器,那先到https://hub.docker.com/去查找一下,看看有哪些可用的镜像。恩,最高的版本已经是3.8.0b4了,不过考虑下还是安装3.7.4稳定版把。用来安装的虚拟机是Ubuntu18.04服务器版,安装虚拟机就跳过不写了,太简单。为了方便,使用root用户操作。在Ubuntu上安装Docker使用官方脚本,在终端输入curl-fsSLget.docker.com-oget-docker.sh瞬间下载安装脚本:-r

系统 2019-09-27 17:51:05 2085

Python

基于python的selenium两种文件上传操作实现详解

方法一、input标签上传如果是input标签,可以直接输入路径,那么可以直接调用send_keys输入路径,这里不做过多赘述,前文有相关操作方法。方法二、非input标签上传这种上传方式需要借助第三方工具,主要有以下三种情况:1.AutoIt去调用它生成的au3或者exe格式的文件2.SendKeys第三方库(目前只支持到2.7版本)网址:https://pypi.python.org/pypi/SendKeys/3.Python的pywin32库,通过

系统 2019-09-27 17:50:49 2085

Python

详解python中Numpy的属性与创建矩阵

ndarray.ndim:维度ndarray.shape:形状ndarray.size:元素个数ndarray.dtype:元素数据类型ndarray.itemsize:字节大小创建数组:a=np.array([2,23,4])#list1dprint(a)#[2234]指定数据类型:a=np.array([2,23,4],dtype=np.int)print(a.dtype)#int64dtype可以指定的类型有int32,float,float32,后

系统 2019-09-27 17:50:47 2085

Python

python笔试陷阱1

test_list=[{'data':1,'no':301},{'data':2,'no':401},{'data':4,'no':201},{'data':6,'no':101},{'data':5,'no':303}]new_list=list(test_list)#print(new_list)formatchintest_list:ifmatch['no']>300:match['no']='BF'else:match['no']='BR'#pri

系统 2019-09-27 17:49:17 2085

Python

第11.22节 Python 中re模块的字符串分割器:split函数

一、引言在《第11.2节Python正则表达式支持函数概览》介绍了re模块的主要函数,在《第11.3节Python正则表达式搜索支持函数search、match、fullmatch、findall、finditer》重点介绍了几个搜索函数,后续章节将介绍re模块的其他函数,本节先介绍re.split函数的功能。二、语法释义调用语法:re.split(pattern,string,maxsplit=0,flags=0)参数及返回结果释义:1)这个函数的功能与

系统 2019-09-27 17:49:14 2085

Python

Python简易计算器

Python实现整数的加减乘除的计算器,不包含括号,除法取整:importredefrun():string=input()strls=re.findall('\d+|\+|\-|\*|\/',string)i=0while(i

系统 2019-09-27 17:48:11 2085

Python

Python编程入门的一些基本知识

Python与Perl,C和Java语言等有许多相似之处。不过,也有语言之间有一些明确的区别。本章的目的是让你迅速学习Python的语法。第一个Python程序:交互模式编程:调用解释器不经过脚本文件作为参数,显示以下提示:$pythonPython2.6.4(#1,Nov112014,13:34:43)[GCC4.1.220120704(RedHat5.6.2-48)]onlinux2Type"help","copyright","credits"or"

系统 2019-09-27 17:47:53 2085

Python

Python采集腾讯新闻实例

目标是把腾讯新闻主页上所有新闻爬取下来,获得每一篇新闻的名称、时间、来源以及正文。接下来分解目标,一步一步地做。步骤1:将主页上所有链接爬取出来,写到文件里。python在获取html方面十分方便,寥寥数行代码就可以实现我们需要的功能。复制代码代码如下:defgetHtml(url):page=urllib.urlopen(url)html=page.read()page.close()returnhtml我们都知道html链接的标签是“a”,链接的属性是

系统 2019-09-27 17:47:40 2085

Python

【记录】linux安装python3后再安装Scrapy环境遇到的问题

本地电脑具有Scrapy爬虫环境,但是想让爬虫一直工作,还是要把代码扔到服务器上,所以在linux服务器上安装Scrapy环境。linux服务器原python2.7经过一番操作,升级到python3.6参考https://www.cnblogs.com/kimyeee/p/7250560.html我只是到makeinstall为止然后安装Scrapy,遇到问题1:'error:gcc'failedwithexitstatus1'参考https://blog

系统 2019-09-27 17:46:10 2085