过去在主页的边栏中就有“我的电子书”,现在被iteye改没了,有网友问到了,我就把地址公布一下吧:http://fangang.iteye.com/blog/pdf其它文章,可以访问我的百度文集:http://www.baidu.com/p/Mooodo?from=wenku另外,我还有以下几个博客网站,我都尽量保持同步发布:http://blog.csdn.net/mooodohttp://www.cnblogs.com/mooodo/我的电子书地址
系统 2019-08-29 21:59:16 1896
今天这堂培训课讲什么呢?我既不讲Spring,也不讲Hibernate,更不讲Ext,我不讲任何一个具体的技术。我们抛开任何具体的技术,来谈谈如何提高代码质量。如何提高代码质量,相信不仅是在座所有人苦恼的事情,也是所有软件项目苦恼的事情。如何提高代码质量呢,我认为我们首先要理解什么是高质量的代码。高质量代码的三要素我们评价高质量代码有三要素:可读性、可维护性、可变更性。我们的代码要一个都不能少地达到了这三要素的要求才能算高质量的代码。1.可读性强一提到可读
系统 2019-08-29 21:58:58 1896
请各位朋友帮忙看下,困扰好久了.情况是这样:有一个小项目,用spring+ibatis+tomcat的,上传图片是用jspsmart,部署到虚拟主机上的时候上传一张图片就发生oom的现象,图片大小仅仅70k左右,在本机测试的时候和另一个已部署的项目都是采用同样的方式都不会出现这样的问题,而且可以上传10几张图片.部分异常如下:1.java.lang.OutOfMemoryError:Javaheapspaceatjava.io.Win32FileSyste
系统 2019-08-12 09:29:57 1896
同事问了一个非常简单的问题,怎么取出每个partition里面另外一个列的最小值?createtablet1(intc1,intc2);假如按照c2分区,0-10,10-20,20-30,30-40,40-50insertintot1values(101,1);insertintot1values(102,2);insertintot1values(111,11);insertintot1values(112,12);insertintot1values(
系统 2019-08-12 09:26:53 1896
背景由于工作性质,经常面对不同的问题,某些场景下SQL+Excel、常用办公软件不能处理,这时到网上找一些案例,自己动手用python处理。后续,借此博客记录比较典型的处理过程。后续,陆续实际处理的问题,如1.合并PDF2.拆分PDF3.敏感字段MD5脱敏4.从非架构化的大文本文件中提取指定条件的记录需求工作和生活中有时会遇到将多个pdf文件,合并成一个大文件的情况。例如,扫描时,普通扫描仪或打印机一页生成一个PDF,而一份资料实际多页。Adobe的收费版
系统 2019-09-27 17:57:30 1895
思路懒得写了.依赖python-nmap,先在电脑上装nmap,不然用不了.openpyxl实际上没有用到,可以不安装.makeEx()没用到,懒得删了.#依赖python-nmap,openpyxl包importnmapimporttimeimportopenpyxlfrommultiprocessing.dummyimportPoolasThreadPoolimportmultiprocessing#1.同目录下创建一个input.txt,放入ip地址
系统 2019-09-27 17:57:14 1895
本文实例为大家分享了python多线程分块读取文件的具体代码,供大家参考,具体内容如下#_*_coding:utf-8_*_importtime,threading,ConfigParser'''Reader类,继承threading.Thread@__init__方法初始化@run方法实现了读文件的操作'''classReader(threading.Thread):def__init__(self,file_name,start_pos,end_pos
系统 2019-09-27 17:57:14 1895
计算文件夹里所有内容的大小总和递归方法'''计算文件夹的大小'''importosdefdir_file_size(path):ifos.path.isdir(path):file_size=0dir_list=os.listdir(path)fordir_nameindir_list:file_path=os.path.join(path,dir_name)ifos.path.isfile(dir_name):file_size+=os.path.get
系统 2019-09-27 17:56:49 1895
本文以实例形式讲述了Python实现抓取网页并解析的功能。主要解析问答与百度的首页。分享给大家供大家参考之用。主要功能代码如下:#!/usr/bin/python#coding=utf-8importsysimportreimporturllib2fromurllibimporturlencodefromurllibimportquoteimporttimemaxline=2000wenda=re.compile("href=\"http://wenda.
系统 2019-09-27 17:56:42 1895
文本库string:通用字符串操作re:正则表达式操作difflib:差异计算工具textwrap:文本填充unicodedata:Unicode字符数据库stringprep:互联网字符串准备工具readline:GNU按行读取接口rlcompleter:GNU按行读取的实现函数二进制数据库struct:将字节解析为打包的二进制数据codecs:注册表与基类的编×××数据类型库datetime:基于日期与时间工具calendar:通用月份函数collec
系统 2019-09-27 17:56:06 1895