搜索到与相关的文章
数据库相关

数据库事务

数据库的事务隔离级别:1.ReadCommited可读已提交2.ReadUncommited可读未提交3.RepeatableRead可重复读4.Serializable串行化sqlserver默认的事务隔离级别是:读可提交。各种并发问题1.第一类丢失更新(lostupdate):在完全未隔离事务的情况下,两个事物更新同一条数据资源,某一事物异常终止,回滚造成第一个完成的更新也同时丢失。事务1事务21开启事务2开启事务3取出数据age=204取出数据age

系统 2019-08-12 01:33:04 2140

Python

python基础教程之while循环

前言今天来说下python中的循环。循环的意思是什么,以环形、回路或轨道运行;沿曲折的路线运行;特指运行一周而回到原处。这是百度给出的循环的意思。在python中,就是重复执行你给的指令,直至结束。我们现在看下,在python中,循环就是:while;它有它的规则结构,就是while+条件(冒号,这个别忘记了。):意思是,当条件不成立时,不循环。举个例子说明一下:我们先来说下这个例子的意思,首先,while+条件:这个已经带入到了代码中,这个代码的意思是当

系统 2019-09-27 17:56:52 2139

Python

Python使用百度API上传文件到百度网盘代码分享

关于如何获取access_token这个可以自己查百度开放的OAuth2.0的API。这里不做介绍。第三方Python库poster复制代码代码如下:#coding:UTF-8importurllibimporturllib2__author__='Administrator'fromposter.encodeimportmultipart_encodefromposter.streaminghttpimportregister_openersregist

系统 2019-09-27 17:54:41 2139

Python

Python编码

1.内存和硬盘都是用来存储的。内存:速度快硬盘:永久保存2.文本编辑器存取文件的原理(nodepad++,pycharm,word)打开编辑器就可以启动一个进程,是在内存中的,所以在编辑器编写的内容也都是存放在内存中的,断电后数据就丢失了。因而需要保存在硬盘上,点击保存按钮或快捷键,就把内存中的数据保存到了硬盘上。在这一点上,我们编写的py文件(没有执行时),跟编写的其他文件没有什么区别,都只是编写一堆字符而已。3.python解释器执行py文件的原理,例

系统 2019-09-27 17:53:01 2139

Python

Python基础(2)

五,Python基础(2)1.数据类型基础(一)什么是数据类型?用于区分变量值的不同类型。(二)为何对数据分类?针对不同状态就应该用不同类型的数据去标识。(三)数据类型分类1.数字类型1.1整型(int)1.11作用表示人的年龄、各种号码、级别1.12定义age=24#age=int(24)print(id(age))print(type(age))print(age)1982099648241.13如何用加减乘除、逻辑判断(大于、小于)print(a+b

系统 2019-09-27 17:50:57 2139

Python

计算机视觉OpenCV之人脸识别的示例(Python)

计算机视觉之人脸识别看起来很高大上,但是用OpenCV解决很方便,OpenCV真的太强大了。。直接上代码:#!/usr/bin/envpython3importcv2image=cv2.imread("demo.jpg")gray_img=cv2.cvtColor(image,cv2.COLOR_BGR2GRAY)classifier=cv2.CascadeClassifier()classifier.load(r"C:\ProgramFiles\Open

系统 2019-09-27 17:50:45 2139

Python

Python如何调用外部系统命令

前言利用Python调用外部系统命令的方法可以提高编码效率。调用外部系统命令完成后可以通过获取命令执行返回结果码、执行的输出结果进行进一步的处理。本文主要描述Python常见的调用外部系统命令的方法,包括os.system()、os.popen()、subprocess.Popen()等。本文分析python调用外部系统命令主要从两个方面考虑:1、是不是可以返回命令执行结果码,因为大部分场景都需要通过判断调用命令是执行成功还是失败。2、是不是可以获取命令执

系统 2019-09-27 17:49:30 2139

Python

Python 50行爬虫抓取并处理图灵书目过程详解

前言使用requests进行爬取、BeautifulSoup进行数据提取。主要分成两步:第一步是解析图书列表页,并解析出里面的图书详情页链接。第二步是解析图书详情页,提取出感兴趣的内容,本例中根据不同的数据情况,采用了不同的提取方法,总的感觉就是BeautifulSoup用起来很方便以下是几个典型HTML内容提取的Python代码片段1、提取详情页链接列表页中的详情页链接片段深度学习入门:基于Python的理论与实现提取详情页链接的Python代码#bs是

系统 2019-09-27 17:49:25 2139

Python

Python文件读写模式

文件常见的读写模式w以写方式打开,W文件若存在,首先要清空,然后(重新)创建a以追加模式打开(从EOF开始,必要时创建新文件)r+以读写模式打开w+以读写模式打开(参见w)a+以读写模式打开(参见a)rb以二进制读模式打开wb以二进制写模式打开(参见w)ab以二进制追加模式打开(参见a)rb+以二进制读写模式打开(参见r+)wb+以二进制读写模式打开(参见w+)ab+以二进制读写模式打开(参见a+)读取文件内容open读取所有内容使用open打开文件后一定

系统 2019-09-27 17:49:09 2139

Python

Python3网络爬虫中的requests高级用法详解

本节我们再来了解下Requests的一些高级用法,如文件上传,代理设置,Cookies设置等等。1.文件上传我们知道Reqeuests可以模拟提交一些数据,假如有的网站需要我们上传文件,我们同样可以利用它来上传,实现非常简单,实例如下:importrequestsfiles={'file':open('favicon.ico','rb')}r=requests.post('http://httpbin.org/post',files=files)print

系统 2019-09-27 17:48:46 2139