play框架引入了一个简单的数据库访问层:anorm。使用anorm做模型层,代码大致如下:Scala代码caseclassDog(id:Pk[Long],name:String,age:String)objectDog{valsimple=get[Pk[Long]]("dog.id")~str("name")~int("age")map{caseid~name~age=>Dog(id,name,age)}deffindById(id:Long)=DB.w
系统 2019-08-12 01:32:23 2129
一、正则表达式的特殊字符介绍正则表达式^匹配行首$匹配行尾.任意单个字符[]匹配包含在中括号中的任意字符[^]匹配包含在中括号中的字符之外的字符[-]匹配指定范围的任意单个字符?匹配之前项的1次或者0次+匹配之前项的1次或者多次*匹配之前项的0次或者多次{n}匹配之前项的n次{m,n}匹配之前项最大n次,最小m次{n,}配置之前项至少n次二、re模块的方法介绍1、匹配类方法a、findall方法#findall方法,该方法在字符串中查找模式匹配,将所有的匹
系统 2019-09-27 17:56:15 2128
生成器在Python中,使用了yield的函数被称为生成器(generator)。生成器是一个返回迭代器的函数,只能用于迭代操作,更简单点理解生成器就是一个迭代器。在调用生成器运行的过程中,每次遇到yield时函数会暂停并保存当前所有的运行信息,返回yield的值,并在下一次执行next()方法时从当前位置继续运行。调用一个生成器函数,返回的是一个迭代器对象。列表推导式空间开销大占用内存耗时大,.生成器保存的是算法,而列表保存的计算后的内容,所以同样内容的
系统 2019-09-27 17:56:08 2128
安装urllib库更适合写爬虫文件,scrapy更适合做爬虫项目。步骤:先更改pip源,国外的太慢了,参考:https://www.jb51.net/article/159167.htm升级pip:python-mpipinstall--upgradepippipinstallwheelpipinstalllxmlpipinstallTwistedpipinstallscrapy常用命令核心目录新建项目:scrapystartprojectmcq运行独立的
系统 2019-09-27 17:55:57 2128
最近想备份网站,但是php下载文件的大小是有大小限制的,而我也懒得装ftp再下载了,就想着暂时弄个二级域名站,然后用python(python3)的requests库直接下载网站根目录下的所有文件以及文件夹。(0-0就是这么任性)1.安装requests库pipinstallrequests2.下载文件夹下所有文件及文件夹这里需要处理的地方主要是文件夹,这里我们判断出该链接是文件夹时,自动创建文件夹,并递归继续进行操作,否则判断该链接是文件,直接使用req
系统 2019-09-27 17:55:48 2128
一、ubuntu中使用pip3安装gevent时,提示:cannotimportname'main'问题;二、问题解决:解决pip3使用异常,在python3中可以使用__main__,修改如下:报错中已经提示pip文件路径:/usr/bin/pip3,cd进去,进行修改(需要管理员身份保存修改后文件,sudo执行)源文件出错内容:frompipimportmainif__name__=='__main__':sys.exit(main())修改为:fro
系统 2019-09-27 17:55:31 2128
一、协程协程,又叫微线程,纤程。英文名Coroutine。协程本质上就是一个线程优点1:协程极高的执行效率。因为子程序切换不是线程切换,而是由程序自身控制,因此,没有线程切换的开销,和多线程比,线程数量越多,协程的性能优势就越来越明显。(简单来说没有切换的消耗)优点2:不需要多线程的锁机制,因为只有一个线程,也不存在同时写变量冲突,在协程中控制共享资源不加锁,只需要判断状态就好,所以执行效率比多线程高很多。(没有锁的概念)因为协程是一个线程执行,那怎么利用
系统 2019-09-27 17:54:05 2128
概述在Python3中,数学运算中的除法被分为两种,分别是“真除法”,即无论任何类型相除的结果都会保留小数点,和我们实际的数学运算结果一致,而“截断除法”,则是无论任何类型相除的结果都会省略结果的小数部分,剩下最小的能整除的整数部分。以下是两种除法的基本形式:#真除法X/Y#截断除法X//Y真除法X=8Y=2Z=3print(X/Y)print(X/Z)示例结果:4.02.6666666666666665真除法的结果表明不论操作数的类型其相除结果都返回一个
系统 2019-09-27 17:51:42 2128
Justnotes拿到一台干净的centos之后,初始化Python环境,一些命令和问题记录而已可以搞成脚本自动初始化,当然,用docker更好基础环境1.创建用户sudoaddusernewusersudopasswdnewuser#设置授权不需要输入密码sudo/usr/sbin/visudonewuserALL=NOPASSWD:ALL2.EPEL(FedoraExtraPackagesforEnterpriseLinuxrepository)参考文
系统 2019-09-27 17:51:15 2128
我们开始来谈谈python的爬虫。1,什么是爬虫:网络爬虫是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。互联网犹如一个大蜘蛛网,我们的爬虫就犹如一个蜘蛛,当在互联网遇到所需要的资源,我们就会爬取下来,即为爬虫是一个请求网站并且提取数据的自动化程序。2,下面我们来提到两个名词:1)请求,request即为我们的请求,当我们在浏览器内输入网址,敲击回车时,这时浏览器就会发送消息给该网址所在
系统 2019-09-27 17:50:56 2128