python默认环境一般是ascii编码方式,因此Python自然调用ascii编码解码程序去处理字符流,当字符流不属于ascii范围内,就会抛出异常(ordinalnotinrange(128))。参考可通过如下方式查看默认环境编码方式:importsysprintsys.getdefaultencoding()问题解决有两种方式:1、修改默认环境编码方式为utf-8importsysreload(sys)#不加这个会报”找不到setdefaultenc
系统 2019-09-27 17:52:42 1819
问题:用两个栈来实现一个队列,完成队列的Push和Pop操作。分析:栈的特性是“先进后出”,队列为“先进先出”。思路:入队:直接把新元素压入stack1即可。出队:根据队列先进先出的性质,由于先进入队列的元素被压倒stack1的栈底,要想实现先入队列的先出队,需要将stack1中的元素逐个弹出并压入stack2,经过弹出和压入之后最先进入的元素就处于stack2的栈顶,有可以直接弹出。python实现代码:classSolution:def__init__
系统 2019-09-27 17:52:27 1819
文章目录1.描述2.语法3.参数4.返回值5.实例演战5.1.求解$\ln2$5.2.求解$\log_210$1.描述log()返回x的自然对数。2.语法以下是log()方法的语法:importmathmath.log(x[,base])注意:log()是不能直接访问的,需要导入math模块,通过静态对象调用该方法。3.参数x–数值表达式。base–可选,底数,默认为e。4.返回值返回x的自然对数,x>0。5.实例演战5.1.求解ln2\ln2ln2im
系统 2019-09-27 17:52:07 1819
json是一种轻量级的数据交换格式,也可以说是一种配置文件的格式这种格式的文件是我们在数据处理经常会遇到的python提供内置的模块json,只需要在使用前导入即可你可以通过帮助函数查看json的帮助文档json常用的方法有load、loads、dump以及dumps,这个都属于python初级,我不做过多解释json可以结合数据库一起使用,在这以后要处理大量数据时非常有用下面我们正式来利用数据挖掘对json文件进行处理现在很多网站都运用了Ajax,所以一
系统 2019-09-27 17:51:28 1819
一、zipfile模块的简述zipfile是python里用来做zip格式编码的压缩和解压缩的,由于是很常见的zip格式,所以这个模块使用频率也是比较高的,在这里对zipfile的使用方法做一些记录。即方便自己也方便别人。zipfile里有两个非常常用的class,分别是ZipFile和ZipInfo,在绝大多数的情况下,我们只需要使用这两个class就可以了。ZipFile是主要的类,用来创建和读取zip文件而ZipInfo是存储的zip文件的每个文件的
系统 2019-09-27 17:51:00 1819
上节介绍了PyCharm的安装与简单使用,本节介绍PyCharm相关的配置调整,以支持在PyCharm环境下集成Python解释器进行程序的编译。一、工程配置调整在执行文件前,可能需要对PyCharm进行配置调整:点击File->settings菜单,如图:进入设置界面:这些设置选项包括外观、快捷键、工具栏等,大家可以慢慢研究,最重要的是一定要在工程设置中设置:ProjectInterpreter,即工程使用的Python解释器。刚开始安装的版本应该是没有
系统 2019-09-27 17:50:43 1819
作者:LogM本文原载于https://segmentfault.com/u/logm/articles,不允许转载~1.源码来源TextRank4ZH源码:https://github.com/letiantian/TextRank4ZH.git本文对应的源码版本:committedon3Jul2018,fb1339620818a0b0c16f5613ebf54153faa41636TextRank论文地址:https://www.aclweb.org/
系统 2019-09-27 17:50:38 1819
前言本不想多说什么,年后在公司亲历一段别样经验,不想吐槽,只因吐槽不能改变任何现状。小姐心态,寡妇待遇,妇联追求,一份技术工作做出弯腰,低头,下跪,也是醉了。今年大环境不好,大厂裁员,人才过盛,好在自己还是去了符合自己意愿的公司。新工作快一个月,主要工作技术内容是一个Django的小东西,首先是需要从Python2迁移至Python3,简单带点重构。Python2迁移Python3运行环境服务run在docker里,启动方式里面没有嵌入太多环境变量,基本基
系统 2019-09-27 17:50:00 1819
(1)在校大学生。最好是数学或计算机相关专业,编程能力还可以的话,稍微看一下爬虫知识,主要涉及一门语言的爬虫库、html解析、内容存储等,复杂的还需要了解URL排重、模拟登录、验证码识别、多线程、代理、移动端抓取等。由于在校学生的工程经验比较少,建议找一些少量数据抓取的项目,而不要去接一些监控类的项目、或大规模抓取的项目。慢慢来,步子不要迈太大。(2)在职人员。如果你本身就是爬虫工程师,挣钱很简单。如果你不是,也不要紧。只要是做IT的,稍微学习一下爬虫应该
系统 2019-09-27 17:49:59 1819
一般来说,用pandas处理小于100兆的数据,性能不是问题。当用pandas来处理100兆至几个G的数据时,将会比较耗时,同时会导致程序因内存不足而运行失败。当然,像Spark这类的工具能够胜任处理100G至几个T的大数据集,但要想充分发挥这些工具的优势,通常需要比较贵的硬件设备。而且,这些工具不像pandas那样具有丰富的进行高质量数据清洗、探索和分析的特性。对于中等规模的数据,我们的愿望是尽量让pandas继续发挥其优势,而不是换用其他工具。本文我们
系统 2019-09-27 17:49:29 1819