前言with这个关键字,对于每一学习Python的人,都不会陌生。操作文本对象的时候,几乎所有的人都会让我们要用withopen,这就是一个上下文管理的例子。你一定已经相当熟悉了,我就不再废话了。withopen('test.txt')asf:printf.readlines()什么是上下文管理器?基本语法withEXPRasVAR:BLOCK先理清几个概念1.上下文表达式:withopen('test.txt')asf:2.上下文管理器:open('te
系统 2019-09-27 17:50:17 2038
1.python的基本数据类型Number(数字)String(字符串)Tuple(元组)List(列表)Set(集合)Dictionary(字典)其中前3个为不可变数据类型,后三个为可变数据类型。1.1数字类型–Number支持int,float,bool,complex1.1.1数据运算基本运算规则不变,以下展示鲜知的。另外进行混合运算时,整数会自动转为浮点数。#除法得到一个整数,单个斜杠得到浮点数print(4/9)print(4//9)print(
系统 2019-09-27 17:49:13 2038
一、概述终于把公司的资产管理网站写完,并通过测试,然后上线。期间包括看视频学习、自己写前后端代码,用时两个多月。现将一些体会记录下来,希望能帮到想学django做web开发的人。大牛可以不用看了,小白的第一个项目,写的很low,不入眼。二、过程1.python自学断断续续都有好长的时间,总是零零散散,没有去完完全全开发一个项目出来,跟别人说我会python,都没有啥说服力。后来下定决心,用python去做一个网站出来。正好公司平常维护资产的时候使用的是ex
系统 2019-09-27 17:49:00 2038
所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。在Python中有很多库可以用来抓取网页,我们先学习urllib2。urllib2是Python2.x自带的模块(不需要下载,导入即可使用)urllib2官网文档:https://docs.python.org/2/library/urllib2.htmlurllib2源码urllib2在python3.x中被改为urllib.requesturlopen我们先来段代码:#-*-
系统 2019-09-27 17:48:38 2038
python3.7环境下安装wxPython教程我的环境安装步骤运行代码和结果我的环境我的安装环境:系统:Windows10专业版;Python版本:Python3.7;wxpython版本::wxPython4.0.6;安装步骤下载wxpython安装包确定你的Python版本,比如我这里是Python3.7,到官网https://pypi.org/project/wxPython/#files下载对应的wxpython安装包,我这里下载的是wxPyth
系统 2019-09-27 17:47:37 2038
python中对文件、文件夹(文件操作函数)的操作需要涉及到os模块和shutil模块。得到当前工作目录,即当前Python脚本工作的目录路径:os.getcwd()返回指定目录下的所有文件和目录名:os.listdir()函数用来删除一个文件:os.remove()删除多个目录:os.removedirs(r“c:\python”)检验给出的路径是否是一个文件:os.path.isfile()检验给出的路径是否是一个目录:os.path.isdir()判
系统 2019-09-27 17:47:37 2038
Python日常学习杂记python-c的作用在命令行里执行python时,如果加上-c,即python-cxxx那么,xxx就被当做一条指令(command)来执行,否则,就当做脚本路径,去找script,然后执行里面的内容。比如:$python'importthis'/root/anaconda3/bin/python3.7:can'topenfile'importthis':[Errno2]Nosuchfileordirectory这里就把这个str
系统 2019-09-27 17:46:17 2038
本文探讨一点子类继承的差异,基于python2.x和python3.x的差异。如下为python3的代码样例,注意super()的用法。#python3classPerson():def__init__(self,name,age):self._name=nameself._age=agedeffoo(self):passclassStudent(Person):def__init__(self,name,age,grade):super().__init
系统 2019-09-27 17:46:12 2038
前段时间自学了python,作为新手就想着自己写个东西能练习一下,了解到python编写爬虫脚本非常方便,且最近又学习了MongoDB相关的知识,万事具备只欠东风。程序的需求是这样的,爬虫爬的页面是京东的电子书网站页面,每天会更新一些免费的电子书,爬虫会把每天更新的免费的书名以第一时间通过邮件发给我,通知我去下载。一、编写思路:1.爬虫脚本获取当日免费书籍信息2.把获取到的书籍信息与数据库中的已有信息作比较,如果书籍存在不做任何操作,书籍不存在,执行插入数
系统 2019-09-27 17:38:35 2038
首先第一步,打开文件,有两个函数可供选择:open()和file()①.f=open('file.txt',‘w')...file.close()②.f=file('file.json','r')...file.close()#记得打开文件时最后不要忘记关闭!open()和file()都是Python的内建函数,返回一个文件对象,具有相同的功能,可以任意替换。使用语法为:f=open(fileName,access_mode='r',buffering=-
系统 2019-09-27 17:37:51 2038