一、anacondapython版本对应关系python2.7.14对应Anaconda2-5.0.1python3.6对应Anaconda3-4.3.0二、下载anaconda镜像下载地址:清华镜像源官方下载地址:https://repo.anaconda.com/archive/三、安装anaconda点击下载的exe文件进行安装添加环境变量:C:\python27;C:\python27\Scripts;C:\python36;C:\python36
系统 2019-09-27 17:57:11 2272
本文实例讲述了pythonthreading和multiprocessing模块基本用法。分享给大家供大家参考,具体如下:前言这两天为了做一个小项目,研究了一下python的并发编程,所谓并发无非多线程和多进程,最初找到的是threading模块,因为印象中线程“轻量...”,“切换快...”,“可共享进程资源...”等等,但是没想到这里水很深,进而找到了更好的替代品multiprocessing模块。下面会讲一些使用中的经验。后面出现的代码都在ubunt
系统 2019-09-27 17:57:08 2272
本文实例讲述了python计算书页码的统计数字问题,是Python程序设计中一个比较典型的应用实例。分享给大家供大家参考。具体如下:问题描述:对给定页码n,计算出全部页码中分别用到多少次数字0,1,2,3,4...,9实例代码如下:defcount_num1(page_num):num_zero=0num_one=0num_two=0num_three=0num_four=0num_five=0num_six=0num_seven=0num_eight=0
系统 2019-09-27 17:56:23 2272
input函数,在用户直接使用回车的情况下到底保存了个什么?实验如下:i=input("直接录入回车,i保存的是个啥?")print(i)print(type(i))ifi=="":print("匹配成功,保存的是空字符串!")执行之后,确认,在直接回车的情况下,input函数保存的是空字符串
系统 2019-09-27 17:56:10 2272
这个加密文本的程序需要以下用户输入:1.要加密的文本text2.正整数prime而有效的prime值包括:1,3,5,7,9,11,15,17,19,21,23,253.正整数number和字母移动位置n,其中n由下式给出:(primer∗positionofeachletter+number)例如,如果primer=1,number=1,则’A’将变为’B’则:(1*0['A’的字母位置]+1)=1['B’的字母位置]。思路是首先由用户输入文本和两个加密
系统 2019-09-27 17:55:57 2272
描述:输入一个大于0的整数n,输出1到n的全排列:例如:n=3,输出[[3,2,1],[2,3,1],[2,1,3],[3,1,2],[1,3,2],[1,2,3]]n=4,输出[[4,3,2,1],[3,4,2,1],[3,2,4,1],[3,2,1,4],[4,2,3,1],[2,4,3,1],[2,3,4,1],[2,3,1,4],[4,2,1,3],[2,4,1,3],[2,1,4,3],[2,1,3,4],[4,3,1,2],[3,4,1,2],
系统 2019-09-27 17:55:25 2272
本文实例讲述了Python实现爬取亚马逊数据并打印出Excel文件操作。分享给大家供大家参考,具体如下:python大神们别喷,代码写的很粗糙,主要是完成功能,能够借鉴就看下吧,我是学java的,毕竟不是学python的,自己自学看了一点点python,望谅解。#!/usr/bin/envpython3#encoding=UTF-8importsysimportreimporturllib.requestimportjsonimporttimeimport
系统 2019-09-27 17:55:18 2272
一、安装FastDFS1-1:执行docker命令安装#安装trackerdockerrun-dti--network=host--nametracker-v/var/fdfs/tracker:/var/fdfsyoukou1/fastdfstracker#安装storagedockerrun-dti--network=host--namestorage-eTRACKER_SERVER=IP地址:22122-v/var/fdfs/storage:/var/
系统 2019-09-27 17:54:44 2272
这里使用requests库爬取网页要比urllib库方便用finditer查询importrequestsimportreurl='https://www.flyai.com/'#带爬取的网页html=requests.get(url).text#text为转化为str数据pat='(\w+@\w+.com)|(\d{11})'#正则模式res=re.finditer(pat,html)#finditer返回的是一个迭代器foriinres:#i是一个Ma
系统 2019-09-27 17:52:10 2272
在互联网出现之前,“抄”很不方便,一是“源”少,而是发布渠道少;而在互联网出现之后,“抄”变得很简单,铺天盖地的“源”源源不断,发布渠道也数不胜数,博客论坛甚至是自建网站,而爬虫还可以让“抄”完全自动化不费劲。这就导致了互联网上的“文章”重复性很高。这里的“文章”只新闻、博客等文字占据绝大部分内容的网页。中文新闻网站的“转载”(其实就是抄)现象非常严重,这种“转载”几乎是全文照抄,或改下标题,或是改下编辑姓名,或是文字个别字修改。所以,对新闻网页的去重很有
系统 2019-09-27 17:51:18 2272