Python

Python的互斥锁与信号量

并发与锁a.多个线程共享数据的时候,如果数据不进行保护,那么可能出现数据不一致现象,使用锁,信号量、条件锁b.c.互斥锁1.互斥锁,是使用一把锁把代码保护起来,以牺牲性能换取代码的安全性,那么Rlock后必须要relase解锁不然将会失去多线程程序的优势2.互斥锁的基本使用规则:1importthreading2#声明互斥锁3lock=threading.Rlock();4defhandle(sid):#功能实现代码5lock.acquire()#加锁6#

系统 2019-09-27 17:48:09 2008

Python

Python字典推导式将cookie字符串转化为字典解析

cookie:PHPSESSID=et4a33og7nbftv60j3v9m86cro;Hm_lvt_51e3cc975b346e7705d8c255164036b3=1561553685;Hm_lpvt_51e3cc975b346e7705d8c255164036b3=1561553685首先分析一下浏览器中cookie的结构基本上是:key=value;key=value;key=value其中key=value之间用一个分号和一个空格分开首先写一下不

系统 2019-09-27 17:47:05 2008

Python

6.Python装饰器

1.开放封闭原则​什么是开放封闭原则?有的同学问开放,封闭这是两个反义词这还能组成一个原则么?这不前后矛盾么?其实不矛盾。开放封闭原则是分情况讨论的。​我们的软件一旦上线之后(比如你的软件主要是多个函数组成的),那么这个软件对功能的扩展应该是开放的,比如你的游戏一直在迭代更新,推出新的玩法,新功能。但是对于源代码的修改是封闭的。你就拿函数举例,如果你的游戏源代码中有一个函数是闪躲的功能,那么你这个函数肯定是被多个地方调用的,比如对方扔雷,对方开枪,对方用刀

系统 2019-09-27 17:45:53 2008

Python

Python判断字符串与大小写转换

判断字符串s.isalnum()#所有字符都是数字或者字母s.isalpha()#所有字符都是字母s.isdigit()#所有字符都是数字s.islower()#所有字符都是小写s.isupper()#所有字符都是大写s.istitle()#所有单词都是首字母大写,像标题s.isspace()#所有字符都是空白字符、\t、\n大小写转换s.upper()#把所有字符中的小写字母转换成大写字母s.lower()#把所有字符中的大写字母转换成小写字母s.cap

系统 2019-09-27 17:45:51 2008

Python

Python的几个高级语法概念浅析(lambda表达式闭包装饰器)

1.匿名函数匿名函数(anonymousfunction)是指未与任何标识符绑定的函数,多用在functionalprogramminglanguages领域,典型应用场合:1)作为参数传给高阶函数(higher-orderfunction),如python中的built-in函数filter/map/reduce都是典型的高阶函数2)作为高阶函数的返回值(虽然此处的"值"实际上是个函数对象)与命名函数(namedfunction)相比,若函数只被调用1次

系统 2019-09-27 17:38:40 2008

Python

Python检测生僻字的实现方法

解决思路首先想到的就是利用python的正则表达式来匹配非法字符,然后找出非法记录。然而理想总是丰满的,现实却是残酷的。在实现的过程中,才发现自己对于字符编码、以及python内部字符串表示的相关知识的缺乏。在这期间,踩过了不少坑,到最后虽然还有些模糊的地方,但总算有一个总体清晰的了解。在此记录下心得,避免以后在同一个地方跌倒。以下的测试环境是ArcGIS10.3自带的python2.7.8环境,不保证其他python环境也适用。python正则表达式py

系统 2019-09-27 17:37:48 2008

Python

python基础知识小结之集合

集合特点:集合对象是一组无序排列的可哈希的值:集合成员可以做字典的键,与列表和元组不同,集合无法通过数字进行索引。此外,集合中的元素不能重复。定义set()->newemptysetobjectset(iterable)->newsetobjects={0}应用:去重>>>lst1=[1,1,2,2,3,4,2]>>>list(set(lst1))[1,2,3,4]常用操作集合支持一系列标准操作,包括并集|、交集&、差集-和对称差集^子集<<=及超集>>=

系统 2019-09-27 17:37:45 2008

Python

Python — 爬取饿了么外卖店信息

在学数据可视化,缺少点数据进行实操,就想着从饿了么上面爬点外卖店信息。主要是获取数据,所以代码比较简陋,直接上代码:importrequestsimportjsonimportcsvdefcrawler_ele(page=0):defget_page(page):url='https://h5.ele.me/restapi/shopping/v3/restaurants?latitude=xxxx&longitude=xxxx&offset={page}&

系统 2019-09-27 17:32:50 2008

Python

Python基础之数据类型、流程控制

Python基础之数据类型、流程控制逆水行舟,不进则退序言Python简介输入和输出数据类型流程控制逆水行舟,不进则退没有改变的勇气,又怎会知道改变后的结果呢。当我下定决心改变时,就不曾有过后悔。30岁自学转行做开发又怎样,只要坚持,就一定会有收获。相信很多人都有同感,自学没有任何公司项目经验,很难有公司给你机会。但一旦有了这个机会,如何把握就靠你自己的能力了。作为一个有了一年多Web前端开发经验的我,这点深有体会,深知只有不断进步,才能有更好的发展和平台

系统 2019-09-27 17:57:30 2007

Python

python 解析html

获取制定标签内容,以及HTML全部文本代码#-*-coding:utf-8-*-importrehtml="岗位职责:完成推荐算法、数据统计、接口、后台等服务器端相关工作必备要求:良好的自我驱动力和职业素养,工作积极主动、结果导向"#获得全部文本dr=re.compile(r'<[^>]+>',re.S)dd=dr.sub('',html)print(dd)print("*"*20)#取出p标签中的文本html_regex=r".*?(.*?)"resul

系统 2019-09-27 17:56:47 2007

Python

python 网络编程详解及简单实例

python网络编程详解网络编程的专利权应该属于Unix,各个平台(如windows、Linux等)、各门语言(C、C++、Python、Java等)所实现的符合自身特性的语法都大同小异。在我看来,懂得了Unix的socket网络编程,其他的形式的网络编程方法也就知道了。这句话说得还不太严谨。准确的应该说成懂得了socket编程的原理,网络编程也就知道了,不同之处就在于每个平台,每个语言都有自己专享的语法,我们直接灵活套用就行了。下面是用python实现的

系统 2019-09-27 17:55:59 2007

Python

解决python super()调用多重继承函数的问题

当类间继承关系很简单时,super()的使用很简单。classA(object):def__init__(self):print('a')classB(A):def__init__(self):super(B,self).__init__()print('b')b=B()输出结果:ab当一个类继承多个类时,问题就复杂起来了,请看下例:classA(object):def__init__(self):print('a')classB(object):def_

系统 2019-09-27 17:55:42 2007

Python

python anaconda 安装 环境变量 升级 以及特殊库安装的方法

Anaconda是一个旗舰版的python安装包,因为普通的python没有库,如果需要安装一些重要的库,要经常一个一个下载,会非常麻烦.所以这个一个集成的,可以手动批量升级的软件.而且库的安装也很全下载速度快.从官网下载完以后,next安装好.配置环境变量,把安装的文件夹的绝对路径拷贝到环境变量的path里面.不配置python都启动不了,当然,如果之前安装过其他版本的python可以考虑把之前多余的环境变量路径删掉.打开anacondaprompt,输

系统 2019-09-27 17:55:04 2007

Python

零基础写python爬虫之HTTP异常处理

先来说一说HTTP的异常处理问题。当urlopen不能够处理一个response时,产生urlError。不过通常的PythonAPIs异常如ValueError,TypeError等也会同时产生。HTTPError是urlError的子类,通常在特定HTTPURLs中产生。1.URLError通常,URLError在没有网络连接(没有路由到特定服务器),或者服务器不存在的情况下产生。这种情况下,异常同样会带有"reason"属性,它是一个tuple(可以

系统 2019-09-27 17:54:51 2007

Python

零基础写python爬虫之爬虫框架Scrapy安装配置

前面十章爬虫笔记陆陆续续记录了一些简单的Python爬虫知识,用来解决简单的贴吧下载,绩点运算自然不在话下。不过要想批量下载大量的内容,比如知乎的所有的问答,那便显得游刃不有余了点。于是乎,爬虫框架Scrapy就这样出场了!Scrapy=Scrach+Python,Scrach这个单词是抓取的意思,Scrapy的官网地址:点我点我。那么下面来简单的演示一下Scrapy的安装流程。具体流程参照://www.jb51.net/article/48607.htm

系统 2019-09-27 17:54:46 2007