python基础学习笔记(二)2013-02-2416:25虫师阅读(...)评论(...)编辑收藏继续第一篇的内容,讲解,python的一些基本的东西。注释为了让别人能够更容易理解程序,使用注释是非常有效的,即使是自己回头再看旧代码也是一样。>>>#获得用户名:>>>user_name=raw_input("whatisyourname?")在python中用井号(#)表示注释。井号(#)右边的内存将不被程序执行。即使没有注释,也应该让代码本身易于理解。
系统 2019-09-27 17:48:56 1929
文章目录获取当前决定路径os.getcwd()获取路径下的所有文件名和路径名os.listdir()创建文件夹os.makedirs()删除文件夹os.remove()获取文件的绝对路径os.path.abspath("init.py")判断指定路径或者文件是否存在os.path.exists()将文件路径和文件组成一个完成的路径os.ptah.join()获取当前决定路径os.getcwd()paths=os.getcwd()print(paths)#D
系统 2019-09-27 17:48:26 1929
阅读更多变量1.变量•指在程序执行过程中,可变的量;•定义一个变量,就会伴随有3个特征,分别是内存ID、数据类型和变量值。•其他语言运行完之前,一定要手动把程序的内存空间释放掉。但python解释器是自带内存回收机制的,一旦python程序运行完后,会自动释放内存空间。age=10print(id(age),type(age),age)常量2.常量•指在程序执行过程中,不可变的量;•一般都用大写字母定义常量。AGE=10print(AGE)3.变量的命名方
系统 2019-09-27 17:48:22 1929
本文根据ApacheFlink系列直播课程整理而成,由ApacheFlinkPMC,阿里巴巴高级技术专家孙金城分享。重点为大家介绍FlinkPythonAPI的现状及未来规划,主要内容包括:ApacheFlinkPythonAPI的前世今生和未来发展;ApacheFlinkPythonAPI架构及开发环境搭建;ApacheFlinkPythonAPI核心算子介绍及应用。一.ApacheFlinkPythonAPI的前世今生和未来发展1.Flink为什么选择
系统 2019-09-27 17:48:03 1929
闲来无事,想看看python,网上看了一下教程,好像入门问题不大,那就说干就干。先大概了解一下python的语法。传送门:https://www.runoob.com/python/python-tutorial.html最基础的语法啊,balabala一堆,反正先看下,了解一下。然后就是来搭建一下环境,网上看了一下,linux如何搭建python环境,一看吓一跳,linux本身自带python运行环境。这么刺激的嘛,赶紧打开我的linux,先瞅瞅:终端下
系统 2019-09-27 17:47:45 1929
将音频文件拷贝到程序所在目录即可。如下所示:#!/usr/bin/envpython#encoding:utf-8"""@Company:华中科技大学电气学院聚变与等离子研究所@version:V1.0@author:Victor@contact:1650996069@qq.comoryexin@hust.edu.cn2018--2020@software:PyCharm@file:VoiceDataProcessing.py@time:2018/9/81
系统 2019-09-27 17:47:00 1929
url组成:协议域名端口(如果url里面没有端口,那么采用默认端口)文件路径文件名参数锚点HTTP:超文本传输协议端口:80工作原理:请求响应模型无连接无状态http请求包含哪些内容请求行(请求方法[get、post]url协议版本)请求头(每个参数以键值对形式存在)空行请求数据(请求参数)请求头参数1、user-agent:请求发起者的身份信息User-Agent:Mozilla/5.0(WindowsNT6.1;Win64;x64)AppleWebKi
系统 2019-09-27 17:46:58 1929
1.从集合中取出最大或最小N个元素importheapqnums=[1,8,2,23,7,-4,18,23,42,37,2]print(heapq.nlargest(3,nums))#输出[42,37,23]print(heapq.nsmallest(3,nums))#输出[-4,1,2]也支持其他参数支持更为复杂的数据结构portfolio=[{'name':'IBM','shares':100,'price':91.1},{'name':'AAPL',
系统 2019-09-27 17:46:30 1929
这次只演示了,如何在真实项目内用到BeautifulSoup库来解析网页,而新浪的新闻是ajax加载过来的数据,在这里我们只演示解析部分数据(具体反扒机制没做分析)。代码地址:https://gitee.com/dwyui/BeautifulSoup_xinlang.git。关于的爬虫的博客已经越来越多,使用到的技术也越来越多,后期我还会持续写下去,大概从几个角度去写,多线程爬取(提高效率),如何更好的做到爬取数据(破解反扒)。用redis管理多线程和代理
系统 2019-09-27 17:45:54 1929
1.编译nginx在网上买了一本《实战nginx-取代Apache的高性能服务器》,写的比较浅,主要是些配置方面的东西,不过却正是目前我所需要的。由于需要支持https和rewrite,所以除了nginx的源码之外,又下载了openssl-0.9.8r.tar.gz和pcre-8.12.tar.gz,把他们和nginx-1.0.4.tar.gz放到同一个目录。为了方便编译,笔者写了一个脚本,代码如下:#!/bin/bash#================
系统 2019-09-27 17:38:47 1929