拥有Python标签的文章
Python

Cpy和Python的效率对比

Python语言的初学者,特别是"惊奇者"(也就是那种第一眼就被毫无意义的某些特性吸引,之后持续说服自己的人)认为Python不需要C语言的for语句,因为他们能用优雅的Pythonfor来代替类C的for.Cpy的循环方式:复制代码代码如下:for(i=s;i}Python的循环方式:复制代码代码如下:foriinrange(num)[s:e:step]:最近,我写了一个循环100000000遍的代码,不幸的是(也正是所预计的),Python把机器内存吃

系统 2019-09-27 17:51:24 2256

Python

python编写的最短路径算法

一心想学习算法,很少去真正静下心来去研究,前几天趁着周末去了解了最短路径的资料,用python写了一个最短路径算法。算法是基于带权无向图去寻找两个点之间的最短路径,数据存储用邻接矩阵记录。首先画出一幅无向图如下,标出各个节点之间的权值。其中对应索引:A――>0B――>1C――>2D――>3E――>4F――>5G――>6邻接矩阵表示无向图:算法思想是通过Dijkstra算法结合自身想法实现的。大致思路是:从起始点开始,搜索周围的路径,记录每个点到起始点的权值

系统 2019-09-27 17:51:19 2256

Python

简单介绍利用TK在Python下进行GUI编程的教程

我想要向您介绍能想像到的开始GUI编程的最简单方法,就是使用Scriptics的TK和Tkinter封装器。我们将与developerWorks中的“Python中的curses编程”提到的curses库进行很多比较。除了curses实现文本控制台而TK实现GUI这一差别之外,这两个库有着惊人相似的接口。在使用任何一个库之前,需要基本了解窗口和事件循环,并参考可用的窗口小部件。(好,好的参考和适量的练习。)如同关于curses的文章,本文仅讨论Tkinte

系统 2019-09-27 17:50:00 2256

Python

实例讲解Python3中abs()函数

Python3abs()函数描述abs()函数返回数字的绝对值。语法以下是abs()方法的语法:abs(x)参数x--数值表达式,可以是整数,浮点数,复数。返回值函数返回x(数字)的绝对值,如果参数是一个复数,则返回它的大小。实例以下展示了使用abs()方法的实例:#!/usr/bin/python3print("abs(-40):",abs(-40))print("abs(100.10):",abs(100.10))以上实例运行后输出结果为:abs(-4

系统 2019-09-27 17:49:51 2256

Python

python离线下载和安装库

离线批量下载,首先可以使用:pipfreeze>requirements.txt可以将其中的==改成>=,批量修改即可使用命令,把下载的库放入dependency文件夹下:中途可能因为网络原因下载失败,再次执行该命令即可,已经下载好的包不会重复下载pipdownload-ddependency-rrequirements.txt批量离线安装:pipinstall--no-index--find-links=安装包路径-rrequirements.txt下载

系统 2019-09-27 17:47:58 2256

Python

python实现爬虫抓取小说功能示例【抓取金庸小说】

本文实例讲述了python实现爬虫抓取小说功能。分享给大家供大家参考,具体如下:#-*-coding:utf-8-*-frombs4importBeautifulSoupfromurllibimportrequestimportreimportos,time#访问url,返回html页面defget_html(url):req=request.Request(url)req.add_header('User-Agent','Mozilla/5.0')res

系统 2019-09-27 17:47:40 2256

Python

利用python分析access日志的方法

前言WAF上线之后,处理最多的是误报消除。产生误报有多种原因,比如web应用源码编写时允许客户端提交过多的cookie;比如单个参数提交的数值太大。把误报降低到了可接受的范围后,还要关注漏报。WAF不是神,任何WAF都可能被绕过。所以还需要定位漏过的攻击,明确漏报的原因,才能updateWAF的策略。要定位漏报,就必须分析Web应用的访问日志了。一个站点,每天产生的access日志大概接近1GB,显然靠肉眼看是不现实的。这就需要用python帮助自动分析。

系统 2019-09-27 17:37:54 2256

Python

使用python,爬取网页评论

使用python,爬取网页评论(实例:豆瓣《都挺好》)python的第三方库丰富了python的功能,今天就用python的第三方库requests和bs4这两个库来实现对一个网页的爬取操作环境python3.7.2requests库bs4库requests库和bs4库下载如果你的电脑只用python3的版本使用以下方式下载:pipinstallrequestspipinstallbs4如果你的电脑中python3和python2的版本都存在:python

系统 2019-09-27 17:57:30 2255

Python

python logging模块使用

pythonlogging模块使用logging模块日志记录的重要性在开发过程中,我们可以printf或者Debug来排查问题。但是在生产环境中(黑盒环境)出现问题,我们并不能知道在运行的环境中的哪个地方出现了问题。如果我们当时有日志记录,我们就可以方便地追踪到在当时运行过程中出现了怎样的状况,从而排查问题。日志记录是非常有必要的,任何一款软件如果没有标准的日志记录,都不能算作一个合格的软件。作为开发者,我们需要重视并做好日志记录过程。logging的工作

系统 2019-09-27 17:56:32 2255

Python

简单了解python变量的作用域

1.效果图:2.代码#作用域是对象生效的区域(对象能被使用的区域)#全局作用域在任意位置可生效#局部作用域在函数内生效c=20#全局变量deffn():d=10#a定义在了函数内部,所以他的作用域就是函数内部,函数外部无法访问print('函数内部:','c=',c)print('函数内部:','d=',d)fn()print('函数外部获取:','c=',c)print('函数外部获取:','d=',d)#在Python中一共有两种作用域#全局作用域#-

系统 2019-09-27 17:54:02 2255

Python

python 并发编程 多路复用IO模型详解

多路复用IO(IOmultiplexing)这种IO方式为事件驱动IO(eventdrivenIO)。我们都知道,select/epoll的好处就在于单个进程process就可以同时处理多个网络连接的IO。它的基本原理就是select/epoll这个function会不断的轮询所负责的所有socket,当某个socket有数据到达了,就通知用户进程。它的流程如图:select是多路复用的一种当用户进程调用了select,那么整个进程会被block,而同时,

系统 2019-09-27 17:52:57 2255

Python

Python内置函数Type()函数一个有趣的用法

今天在网上看到type的一段代码,然后查了一下文档,才知道type还有三个参数的用法。http://docs.python.org/2/library/functions.html#type以前只是知道type可以检测对象类型。然后发现了一个有趣的用法。复制代码代码如下:defprintln(self):a=1+1print“%s,%s”%(self.aa,a)A=type(‘A',(),{‘aa':'printa',‘println':println})

系统 2019-09-27 17:52:10 2255

Python

Python 数字货币量化交易实战

“与其提高牌技,我宁愿寻找对手。”这正是邢不行进入币圈的缘由。比特币在2017已经风靡一时,不过对于散户及小型机构而言,此时仍旧是适合进场的时机。为什么现在仍是适合进场的机会呢?1.现在场内的数字货币投资者,投资水平普遍不高。邢不行举了一个例子。在一次课程中,他发现整个班级的学员都买过币,做过ICO,但是用过做空策略的只有他自己。“采用做空这种交易方式,在币价下跌的时候能赚钱,这是一个投资常识。但是大多学员都不清楚,可见投资水平并不高。”邢不行说道。2.现

系统 2019-09-27 17:51:41 2255

Python

python求加权平均值的实例(附纯python写法)

首先是数据源:#需要求加权平均值的数据列表elements=[]#对应的权值列表weights=[]使用numpy直接求:importnumpyasnpnp.average(elements,weights=weights)附纯python写法:#不使用numpy写法1round(sum([elements[i]*weights[i]foriinrange(n)])/sum(weights),1)#不使用numpy写法2round(sum([j[0]*j[

系统 2019-09-27 17:50:32 2255

Python

windows下搭建python scrapy爬虫框架步骤

网络上现有的windows下搭建scrapy教程都比较旧,一般都是咔咔咔安装一堆软件,太麻烦,这是因为scrapy框架用到好多不同的模块,其实查阅最新的官网scrapy文档,在windows下搭建scrapy框架,官方文档是建议使用集成包的,以免安装太过复杂而出现问题,首先百度scrapy,就可以找到scrapy的官方文档1、找到windows下的框架安装的文档教程,这里建议我们安装Anaconda或者Miniconda集成包,下面我选择安装Minicon

系统 2019-09-27 17:50:07 2255