用Python来编写网站,必须要能够通过python操作数据库,所谓操作数据库,就是通过python实现对数据的连接,以及对记录、字段的各种操作。上一讲提到的那种操作方式,是看官直接通过交互模式来操作数据库。安装python-MySQLdb要想通过python来操作数据库,还需要在已经安装了mysql的基础上安装一个称之为mysqldb的库,它是一个接口程序,python通过它对mysql数据实现各种操作。在编程中,会遇到很多类似的接口程序,通过接口程序对
系统 2019-09-27 17:54:55 1595
单线程执行python的内置模块提供了两个内置模块:thread和threading,thread是源生模块,threading是扩展模块,在thread的基础上进行了封装及改进。所以只需要使用threading这个模块就能完成并发的测试实例创建并启动一个单线程importthreadingdefmyTestFunc():print("我是一个函数")t=threading.Thread(target=myTestFunc)#创建一个线程t.start()
系统 2019-09-27 17:54:54 1595
前言自动化测试中我们存放数据无非是使用文件或者数据库,那么文件可以是csv,xlsx,xml,甚至是txt文件,通常excel文件往往是我们的首选,无论是编写测试用例还是存放测试数据,excel都是很方便的。那么今天我们就把不同模块处理excel文件的方法做个总结,直接做封装,方便我们以后直接使用,增加工作效率。openpyxlopenpyxl是个第三方库,首先我们使用命令pipinstallopenpyxl直接安装注:openpyxl操作excel时,行
系统 2019-09-27 17:54:53 1595
硬币兑换问题:给定总金额为A的一张纸币,现要兑换成面额分别为a1,a2,....,an的硬币,且希望所得到的硬币个数最少。#动态规划思想dp方程式如下#dp[0]=0#dp[i]=min{dp[i-coins[j]]+1},且其中i>=coins[j],0<=j
系统 2019-09-27 17:54:53 1595
阅读更多#1-20的列表a=list(range(1,21))print(a)#1-10000的列表squares=[]forvalueinrange(1,10001):square=valuesquares.append(square)print(squares)#1-10000的列表,核实从1开始10000结束,求1-10000之和a=list(range(1,10001))print(a)print(min(a))print(max(a))print
系统 2019-09-27 17:54:51 1595
配置文件的类型通常自动化测试中的配置文件是以.ini和.conf为后缀的文件配置文件的组成1.section2.option3.value配置文件的格式[section_name]#=号可以使用:号代替option_name=value配置文件的注释通常使用#号或者;分号注释,有一点一定要注意,注释最好不要写到option_name=value行的后面,否则你会遇到意想不到的错误配置文件的作用那么我们的配置文件主要来干些什么呢?1.可以存储测试中测试用例使
系统 2019-09-27 17:54:50 1595
开发思路完整项目地址:https://github.com/371854496/...觉得还OK的话,点下Star,作者不易,thankyou!实现方法1.引入需要的模块,配置图片路径,设置界面宽高背景颜色,创建游戏主入口。#1引入需要的模块importpygameimportrandom#1配置图片地址IMAGE_PATH='imgs/'#1设置页面宽高scrrr_width=800scrrr_height=560#1创建控制游戏结束的状态GAMEOVE
系统 2019-09-27 17:54:50 1595
前面说到了urllib2的简单入门,下面整理了一部分urllib2的使用细节。1.Proxy的设置urllib2默认会使用环境变量http_proxy来设置HTTPProxy。如果想在程序中明确控制Proxy而不受环境变量的影响,可以使用代理。新建test14来实现一个简单的代理Demo:复制代码代码如下:importurllib2enable_proxy=Trueproxy_handler=urllib2.ProxyHandler({"http":'ht
系统 2019-09-27 17:54:48 1595
前面十章爬虫笔记陆陆续续记录了一些简单的Python爬虫知识,用来解决简单的贴吧下载,绩点运算自然不在话下。不过要想批量下载大量的内容,比如知乎的所有的问答,那便显得游刃不有余了点。于是乎,爬虫框架Scrapy就这样出场了!Scrapy=Scrach+Python,Scrach这个单词是抓取的意思,Scrapy的官网地址:点我点我。那么下面来简单的演示一下Scrapy的安装流程。具体流程参照://www.jb51.net/article/48607.htm
系统 2019-09-27 17:54:46 1595
Python单元测试unittest中提供了一下四种装饰器实现测试跳过和预期故障。(使用Python2.7.13)请查考Python手册中:https://docs.python.org/dev/library/unittest.htmlThefollowingdecoratorsimplementtestskippingandexpectedfailures:#以下装饰器实施测试跳过和预期故障:@unittest.skip(原因)Unconditiona
系统 2019-09-27 17:54:46 1595