搜索到与相关的文章
数据库相关

数据库的设计(一些观点) _转

1.数据库的设计尽量把数据库设计的更小的占磁盘空间.1).尽可能使用更小的整数类型.(mediumint就比int更合适).2).尽可能的定义字段为notnull,除非这个字段需要null.3).如果没有用到变长字段的话比如varchar,那就采用固定大小的纪录格式比如char.4).表的主索引应该尽可能的短.这样的话每条纪录都有名字标志且更高效.5).只创建确实需要的索引。索引有利于检索记录,但是不利于快速保存记录。如果总是要在表的组合字段上做搜索,那么

系统 2019-08-12 01:51:36 2113

数据库相关

项目存储过程编写

好久没有维护项目开发了,写存储过程开始有点手生了,真后悔没有早点总结一下以往项目经验啊。所以这里就开个篇记录点心得:1.首先要写好每个存储过程的版本说明,应该包括:版本号、修改日期、修改人、项目名称、应用范围(工作类型或者功能块)、修改描述如:--Ver.1.02008-10-16EnliXXXproject(装配工作站):新建功能2.名称命名很重要,既然要表达出功能的意义,又要尽量统一描述方式项目存储过程编写

系统 2019-08-12 01:51:28 2113

编程技术

一定要做的事(备忘)

一:玩树莓派(RaspberryPi):二:用firefoxOS或者ubuntu的手机至于ubuntu的电脑,已经用上一段时间了。准备彻底放弃windows,拥抱开源三在GitHub上拥有至少一个开源项目一定要做的事(备忘)

系统 2019-08-12 01:33:11 2113

Python

用python3 urllib破解有道翻译反爬虫机制详解

前言最近在学习python爬虫方面的知识,网上有一博客专栏专门写爬虫方面的,看到用urllib请求有道翻译接口获取翻译结果。发现接口变化很大,用md5加了密,于是自己开始破解。加上网上的其他文章找源码方式并不是通用的,所有重新写一篇记录下。爬取条件要实现爬取的目标,首先要知道它的地址,请求参数,请求头,响应结果。进行抓包分析打开有道翻译的链接:http://fanyi.youdao.com/。然后在按f12点击Network项。这时候就来到了网络监听窗口,

系统 2019-09-27 17:57:02 2112

Python

python3实现高效的端口扫描

我们通过python-nmap实现一个高效的端口扫描工具,与定时作业crontab及邮件告警结合,可以很好的帮助我们及时发现异常开放的高危端口。当然,该工具也可以作为业务服务端口的可用性探测,例如扫描192.168.209.121-125网段Web服务端口80s是否处于open状态。我们这里所采用的scan方法arguments参数指定为-v-PE-p+端口,-v表示启用细节模式,可以返回非up状态主机清单;-PE表示采用TCP同步扫描(TCPSYN)方式

系统 2019-09-27 17:55:34 2112

Python

Python的pycurl库升级升级失败的解决方法

打算升级pycurl库,输入:pipinstall--upgradepycurl,提示如下:Lookinginindexes:https://pypi.tuna.tsinghua.edu.cn/simple/CollectingpycurlDownloadinghttps://pypi.tuna.tsinghua.edu.cn/packages/ac/b3/0f3979633b7890bab6098d84c84467030b807a1e2b31f5d301

系统 2019-09-27 17:55:33 2112

Python

Coursera Python学习笔记(三)Python访问网络数据

正则表达式RegularExpression正则表达式是一种符号语言,每个符号都有它自己的含义~符号的含义:注意:①方括号里不写范围就是符合一个字符,方括号里的^代表非。②如果是一个真实的字符,加一个\区分用正则表达式从文件中找自己需要的信息:re.search():判断是否符合该正则表达式re.findall():返回符合正则表达式的所有内容(所以返回的是一个列表)符号后面加‘+’:表示使用非贪心的方法,即找到较短的字符。分割字符的三种方法比较:Find

系统 2019-09-27 17:54:58 2112

Python

让Python脚本暂停执行的几种方法(小结)

1.time.sleep(secs)参考文档原文:Suspendexecutionforthegivennumberofseconds.Theargumentmaybeafloatingpointnumbertoindicateamoreprecisesleeptime.Theactualsuspensiontimemaybelessthanthatrequestedbecauseanycaughtsignalwillterminatethesleep()

系统 2019-09-27 17:54:56 2112

Python

Python 序列化 pickle/cPickle模块使用介绍

Python序列化的概念很简单。内存里面有一个数据结构,你希望将它保存下来,重用,或者发送给其他人。你会怎么做?这取决于你想要怎么保存,怎么重用,发送给谁。很多游戏允许你在退出的时候保存进度,然后你再次启动的时候回到上次退出的地方。(实际上,很多非游戏程序也会这么干)在这种情况下,一个捕获了当前进度的数据结构需要在你退出的时候保存到硬盘上,接着在你重新启动的时候从硬盘上加载进来。Python标准库提供pickle和cPickle模块。cPickle是用C编

系统 2019-09-27 17:53:40 2112

Python

python爬虫实战——爬取股票个股信息

爬虫爬取网页信息的思路:发送网页端请求—>获取响应内容—>解析内容—>获取想要的数据—>保存数据这次我们要实现的是爬取静态网页的股票数据,首先是获取沪深A股的所有股票代码,再用这些股票代码获取相应股票的信息东方财富网有所有个股的股票代码(沪深A股所有股票)查看其网页源代码在网页源代码中可以搜索到相应的元素,判断其是数据是静态的接下来是获取每只个股的信息,由于周六日没开市,东方财富网的个股信息没有显示这里改用百度股市通(个股)同样地检查元素可以发现个股的信息

系统 2019-09-27 17:52:55 2112