入栈出栈查看栈顶元素查看栈长度查看栈元素classStack():def__init__(self):self.stack=[]defpush(self,value):self.stack.append(value)returnTruedefpop(self):#先判断栈是否为空ifself.stack:item=self.stack.pop()returnitemelse:returnFalsedeftop(self):ifself.stack:retu
系统 2019-09-27 17:47:11 1978
因为需要对数据处理,将excel数据导入到数据库,记录一下过程。使用到的库:xlrd和pymysql(如果需要写到excel可以使用xlwt)直接丢代码,使用python3,注释比较清楚。importxlrdimportpymysql#importimportlib#importlib.reload(sys)#出现呢reload错误使用defopen_excel():try:book=xlrd.open_workbook("XX.xlsx")#文件名,把文
系统 2019-09-27 17:47:02 1978
fileinput模块可以遍历文本文件的所有行.它的工作方式和readlines很类似,不同点在于,它不是将全部的行读到列表中而是创建了一个xreadlines对象.下面是fileinput模块中的常用函数input()#它会返回能够用于for循环遍历的对象.filename()#返回当前文件的名称lineno()#返回当前(累计)的行数filelineno()#返回当前文件的行数isfirstline()#检查当前行是否是文件的第一行复制代码代码如下:#
系统 2019-09-27 17:46:52 1978
C语言中三目运算符复制代码代码如下:expression?expr1:expr2;//expression为真则取表达式expr1的值,否则取expr2的值python三目实现方法:(1)expr=判断表达式andexpr1orexpr2判断表达式为真,此时如果expr1为真则expr=expr1,为假则变成Falseorexpr2,expr=expr2.判断表达式为假,则演变成Falseorexpr2,此时expr=expr2.只要表达式expr1,ex
系统 2019-09-27 17:45:34 1978
1.编译nginx在网上买了一本《实战nginx-取代Apache的高性能服务器》,写的比较浅,主要是些配置方面的东西,不过却正是目前我所需要的。由于需要支持https和rewrite,所以除了nginx的源码之外,又下载了openssl-0.9.8r.tar.gz和pcre-8.12.tar.gz,把他们和nginx-1.0.4.tar.gz放到同一个目录。为了方便编译,笔者写了一个脚本,代码如下:#!/bin/bash#================
系统 2019-09-27 17:38:47 1978
简单记一下python中List的sort方法(或者sorted内建函数)的用法。List的元素可以是各种东西,字符串,字典,自己定义的类等。sorted函数用法如下:sorted(data,cmp=None,key=None,reverse=False)其中,data是待排序数据,可以使List或者iterator,cmp和key都是函数,这两个函数作用与data的元素上产生一个结果,sorted方法根据这个结果来排序。cmp(e1,e2)是带两个参数的
系统 2019-09-27 17:38:23 1978
hasattr(object,name)作用:判断对象object是否包含名为name的特性(hasattr是通过调用getattr(ojbect,name)是否抛出异常来实现的)。示例:>>>hasattr(list,'append')True>>>hasattr(list,'add')Falsegetattr(object,name,default):作用:返回object的名称为name的属性的属性值,如果属性name存在,则直接返回其属性值;如果属
系统 2019-09-27 17:38:20 1978
今天,在完成一个小的python习题,习题的主要内容是读取一个帮助模块,并保存到本地文件。知道是用pydoc进行模块的读取,但是在windows系统下,调用os模块之后,结果总是为空。核心语句:helpfile=os.popen('pydoc%s'%module).read()此语句在Linux下可以正常运行,结果正常。后来发现,在Windows下,该修改为:helpfile=os.popen('python-mpydoc%s'%module).read(
系统 2019-09-27 17:38:03 1978
先使用一些关键参数创建对象实例,如下:>>>p=Publisher(name='Apress',...address='2855TelegraphAve.',...city='Berkeley',...state_province='CA',...country='U.S.A.',...website='http://www.apress.com/')这个对象实例并没有对数据库做修改。在调用``save()``方法之前,记录并没有保存至数据库,像这样:>>
系统 2019-09-27 17:37:48 1978
学Python,想必大家都是从爬虫开始的吧。毕竟网上类似的资源很丰富,开源项目也非常多。Python学习网络爬虫主要分3个大的版块:抓取,分析,存储当我们在浏览器中输入一个url后回车,后台会发生什么?简单来说这段过程发生了以下四个步骤:查找域名对应的IP地址。向IP对应的服务器发送请求。服务器响应请求,发回网页内容。浏览器解析网页内容。网络爬虫要做的,简单来说,就是实现浏览器的功能。通过指定url,直接返回给用户所需要的数据,而不需要一步步人工去操纵浏览
系统 2019-09-27 17:37:39 1978