- 军军小站|张军博客
搜索到与相关的文章
Python

python跳出死循环

python循环怎么跳出1、常用跳出方法:while判断条件:循环语句当判定条件不满足时退出循环2、循环次数不定跳出循环方法:在while循环内加一个if判定条件,,用break语句跳出循环。即while1:num=input("请输入编号:")name=input("请输入姓名:")line=[num,name]a=input("输入q退出!任意键继续!!")ifa.lower()=='q'://输入一个大写或小写的q退出循环print("已退出输入!!

系统 2019-09-27 17:55:42 1845

Python

跟老齐学Python之类的细节

这几天和几个朋友以各种途径讨论过OOP的相关问题,他们是:令狐虫、Frank、晋剑、小冯大家对OOP有不同看法,所谓工程派和学院派看法不一致。从应用的角度看,工程派的观点是值得推荐的,那就是:不用太在意内部是怎么工作的,只要能够解决眼下的问题即可。但是,对于学习者而言,如果仅仅停留在工程派的层面(特别提醒,上述几位朋友都是工程派的大侠,他们可不是简单地能够使用,其实是更高层次的“无招胜有招”),学习者可能感觉有点不透彻。所以,学习者,特别是初学者,要知道一

系统 2019-09-27 17:55:20 1845

Python

Python Web框架之Django框架cookie和session用法分析

本文实例讲述了PythonWeb框架之Django框架cookie和session用法。分享给大家供大家参考,具体如下:part1概念在Django里面,cookie和session都记录了客户端的某种状态,用来跟踪用户访问网站的整个回话。两者最大的区别是cookie的信息是存放在浏览器客户端的,而session是存放在服务器端的。两者使用的方式都是request.COOKIES[XXX]和request.session[XXX],其中XXX是您想要取得的

系统 2019-09-27 17:54:57 1845

Python

python bottle框架支持jquery ajax的RESTful风格

这两天在用python的bottle框架开发后台管理系统,接口约定使用RESTful风格请求,前端使用jqueryajax与接口进行交互,使用POST与GET请求时都正常,而RequestMethod使用PUT或DELETE请求时,直接爆“HTTPError405:MethodNotAllowed”错误。而ajax提交的RequestMethod值DELETE也变成了OPTIONS了。度娘了好多答案,要么说是浏览器不支持,要么说自己重新封装jquery,还

系统 2019-09-27 17:54:55 1845

Python

零基础写python爬虫之HTTP异常处理

先来说一说HTTP的异常处理问题。当urlopen不能够处理一个response时,产生urlError。不过通常的PythonAPIs异常如ValueError,TypeError等也会同时产生。HTTPError是urlError的子类,通常在特定HTTPURLs中产生。1.URLError通常,URLError在没有网络连接(没有路由到特定服务器),或者服务器不存在的情况下产生。这种情况下,异常同样会带有"reason"属性,它是一个tuple(可以

系统 2019-09-27 17:54:51 1845

Python

python 日期排序的实例代码

问题1:如果日期中有千年以前的情况(没法用格式化函数),如('2010-11-23','1989-3-7','2010-1-5','978-12-1','2010-2-4')参照方法1问题2:如果日期中没有千年以前的情况,做法就很多了。参照方法2和方法3#-*-coding:utf-8-*-importtimefromoperatorimportitemgetterarr=('2010-11-23','1989-3-7','2010-1-5','978-1

系统 2019-09-27 17:54:50 1845

Python

零基础写python爬虫之爬虫框架Scrapy安装配置

前面十章爬虫笔记陆陆续续记录了一些简单的Python爬虫知识,用来解决简单的贴吧下载,绩点运算自然不在话下。不过要想批量下载大量的内容,比如知乎的所有的问答,那便显得游刃不有余了点。于是乎,爬虫框架Scrapy就这样出场了!Scrapy=Scrach+Python,Scrach这个单词是抓取的意思,Scrapy的官网地址:点我点我。那么下面来简单的演示一下Scrapy的安装流程。具体流程参照://www.jb51.net/article/48607.htm

系统 2019-09-27 17:54:46 1845

Python

python urllib urlopen()对象方法/代理的补充说明

pythonurlliburlopen()对象方法/代理的补充说明urllib是python自带的一个抓取网页信息一个接口,他最主要的方法是urlopen(),是基于python的open()方法的。下面是主要说明:urllib.urlopen('网址')这里传入urlopen()的参数有特别说要求,要遵循一些网络协议,比如http,ftp,也就是说,在网址的开头必须要有http://这样的说明,如:urllib.urlopen('http://www.b

系统 2019-09-27 17:54:45 1845

Python

Python数据导入

一:从各种不同的格式文件中导入数据,总结目前最常用的文件格式导入数据的一些方法:#-*-coding:utf-8-*-fromnumpyimport*defloadDataSet(fileName):'''导入数据'''numFeat=len(open(fileName).readline().split('\t'))-1dataMat=[]labelMat=[]fr=open(fileName)forlineinfr.readlines():lineAr

系统 2019-09-27 17:54:24 1845

Python

python下载图片实现方法(超简单)

我们有时候会需要在网上查找并下载图片,当数量比较少的时候,点击右键保存,很轻松就可以实现图片的下载,但是有些图片进行了特殊设置,点击右键没有显示保存选项,或者需要下载很多图片,这样的情况,写一段Python爬虫代码就可以轻松解决!一、页面抓取#coding=utf-8importurllibdefgetHtml(url):page=urllib.urlopen(url)html=page.read()returnhtmlhtml=getHtml("http

系统 2019-09-27 17:54:24 1845