拥有Python标签的文章
Python

Python窗体输入、展示并存储数据

Python窗体输入、展示并存储数据利用python的tkinter进行窗体开发,可以实现输入框,以及利用get函数获取输入框的数据,并将这些数据存储到本地,如果利用数据库,也可以把窗体获取的数据导入到数据库中fromtkinterimport*importtkinter.messageboxasmessageboxroot=Tk()root.title("信息输入框")root.geometry('300x300')input1=Label(root,t

系统 2019-09-27 17:50:46 2058

Python

python获取网页源代码

最简单的网页取源(不用模拟浏览器的情况)1importrequests2defgetHTML(url):3try:4r=requests.get(url,timeout=30)5r.raise_for_status()6r.encoding='utf-8'7returnr.text8except:9return""10url="http://baidu.com"11print(getHTML(url))

系统 2019-09-27 17:50:19 2058

Python

Python open读写文件实现脚本

1.open使用open打开文件后一定要记得调用文件对象的close()方法。比如可以用try/finally语句来确保最后能关闭文件。file_object=open('thefile.txt')try:all_the_text=file_object.read()finally:file_object.close()注:不能把open语句放在try块里,因为当打开文件出现异常时,文件对象file_object无法执行close()方法。2.读文件读文本

系统 2019-09-27 17:49:43 2058

Python

Python神经网络编程(手写数字识别)

代码来源:《Python神经网络编程》手写数据集下载地址:1.训练数据集2.测试数据集摘要本文代码主要讲解基于Python的简单神经网络构建用于识别手写数据集,类模块具有通用性,在分析清楚问题后可以加以改动,运用于其他方面。代码importnumpy#scipy.specialforthesigmoidfunctionexpit()importscipy.specialimportmatplotlib.pyplotasplt#neuralnetworkcl

系统 2019-09-27 17:49:14 2058

Python

python爬取盘搜的有效链接实现代码

因为盘搜搜索出来的链接有很多已经失效了,影响找数据的效率,因此想到了用爬虫来过滤出有效的链接,顺便练练手~这是本次爬取的目标网址http://www.pansou.com,首先先搜索个python,之后打开开发者工具,可以发现这个链接下的json数据就是我们要爬取的数据了,把多余的参数去掉,剩下的链接格式为http://106.15.195.249:8011/search_new?q=python&p=1,q为搜索内容,p为页码以下是代码实现:import

系统 2019-09-27 17:48:14 2058

Python

Python with as 的实现原理

有一些任务,可能事先需要设置,事后做清理工作。对于这种场景,Python的with语句提供了一种非常方便的处理方式。一个很好的例子是文件处理,你需要获取一个文件句柄,从文件中读取数据,然后关闭文件句柄。如果不用with语句,代码如下:file=open("/tmp/foo.txt")data=file.read()file.close()这里有两个问题。一是可能忘记关闭文件句柄;二是文件读取数据发生异常,没有进行任何处理。下面是处理异常的加强版本:file

系统 2019-09-27 17:48:03 2058

Python

Python lambda表达式filter、map、reduce函数用法解析

前言lambda是表达式,用于创建匿名函数,可以和filter、map、reduce配合使用。本文环境Python3.7。一、lambda表达式lambda只包含一个语句,用于创建匿名函数。语法:lambda[arg1[,arg2,.....argn]]:expressionarg1--参数,可以有多个expression--表达式使用例子:f1=lambdax:x>10print(f1(1))#输出:Falseprint(f1(11))#输出:Truef

系统 2019-09-27 17:46:55 2058

Python

python3爬虫之入门基础和正则表达式

前面的python3入门系列基本上也对python入了门,从这章起就开始介绍下python的爬虫教程,拿出来给大家分享;爬虫说的简单,就是去抓取网路的数据进行分析处理;这章主要入门,了解几个爬虫的小测试,以及对爬虫用到的工具介绍,比如集合,队列,正则表达式;用python抓取指定页面:代码如下:importurllib.requesturl="http://www.baidu.com"data=urllib.request.urlopen(url).rea

系统 2019-09-27 17:45:49 2058

Python

[Python实战]使用栈实现简易计算器

我们这次实现的命令行计算器,支持加减乘除、括号、浮点数、负数,以及查看历史和退出功能。主要的思路:read-parse-print-loop。read阶段是指读取用户在提示符(cal>)之后输入的字符串。parse阶段包括:将用户输入的字符串分割成单个对象比如:符号+,或者数字1.2。其次将中缀表达式转化后缀表达式,接下来计算后缀表达式的数值。print阶段指的是将parse阶段的数值打印在终端上。loop阶段是指重复上述操作,除非用户输入exit符号或者

系统 2019-09-27 17:45:27 2058

Python

python基于paramiko将文件上传到服务器代码实现

python通过安装使用paramiko模块,将本地文件上传到服务器上importparamikoimportdatetimeimportoshostname='服务器ip'username='root'password='服务器密码'port=22#配置信息可以写到配置文件中#loacl_file是要上传的本地文件路径#remote_path是要上传到服务器上指定文件的路径defupload(local_file,remote_path):try:t=p

系统 2019-09-27 17:45:24 2058

Python

Python命令启动Web服务器实例详解

Python命令启动Web服务器实例详解利用Python自带的包可以建立简单的web服务器。在DOS里cd到准备做服务器根目录的路径下,输入命令:python-mWeb服务器模块[端口号,默认8000]例如:python-mSimpleHTTPServer8080然后就可以在浏览器中输入http://localhost:端口号/路径来访问服务器资源。例如:http://localhost:8080/index.htm(当然index.htm文件得自己创建)

系统 2019-09-27 17:38:29 2058

Python

Python提取网页中超链接的方法

下面是最简单的实现方法,先将目标网页抓回来,然后通过正则匹配a标签中的href属性来获得超链接代码如下:importurllib2importreurl='http://www.sunbloger.com/'req=urllib2.Request(url)con=urllib2.urlopen(req)doc=con.read()con.close()links=re.findall(r'href\=\"(http\:\/\/[a-zA-Z0-9\.\/]

系统 2019-09-27 17:38:07 2058

Python

用python简单实现mysql数据同步到ElasticSearch的教程

之前博客有用logstash-input-jdbc同步mysql数据到ElasticSearch,但是由于同步时间最少是一分钟一次,无法满足线上业务,所以只能自己实现一个,但是时间比较紧,所以简单实现一个思路:网上有很多思路用什么mysql的binlog功能什么的,但是我对mysql了解实在有限,所以用一个很呆板的办法查询mysql得到数据,再插入es,因为数据量不大,而且10秒间隔同步一次,效率还可以,为了避免服务器之间的时间差和mysql更新和查询产生

系统 2019-09-27 17:37:40 2058

Python

Python pip 使用国内镜像

##推荐源```https://mirrors.aliyun.com/pypi/simple/阿里镜像,速度快、稳定https://pypi.douban.com/simple/豆瓣镜像```##使用方法###1.使用时修改```pipinstall-i[国内镜像地址][模块名称]```###2.修改配置文件修改或创建`~/.pip/pip.conf`文件内容:```[global]index-url=https://mirrors.aliyun.com/

系统 2019-09-27 17:57:07 2057

Python

Python实现抓取网页并且解析的实例

本文以实例形式讲述了Python实现抓取网页并解析的功能。主要解析问答与百度的首页。分享给大家供大家参考之用。主要功能代码如下:#!/usr/bin/python#coding=utf-8importsysimportreimporturllib2fromurllibimporturlencodefromurllibimportquoteimporttimemaxline=2000wenda=re.compile("href=\"http://wenda.

系统 2019-09-27 17:56:42 2057