引言数据库的设计范式是数据库设计所需要满足的规范,满足这些规范的数据库是简洁的、结构明晰的,同时,不会发生插入(insert)、删除(delete)和更新(update)操作异常。反之则是乱七八糟,不仅给数据库的编程人员制造麻烦,而且面目可憎,可能存储了大量不需要的冗余信息。设计范式是不是很难懂呢?非也,大学教材上给我们一堆数学公式我们当然看不懂,也记不住。所以我们很多人就根本不按照范式来设计数据库。实质上,设计范式用很形象、很简洁的话语就能说清楚,道明白
系统 2019-08-12 01:52:58 2165
个人理解,数据库性能最关键的因素在于IO,因为操作内存是快速的,但是读写磁盘是速度很慢的,优化数据库最关键的问题在于减少磁盘的IO,就个人理解应该分为物理的和逻辑的优化,物理的是指oracle产品本身的一些优化,逻辑优化是指应用程序级别的优化物理优化的一些原则:1)、Oracle的运行环境(网络,硬件等)2)、使用合适的优化器3)、合理配置oracle实例参数4)、建立合适的索引(减少IO)5)、将索引数据和表数据分开在不同的表空间上(降低IO冲突)6)、
系统 2019-08-12 01:52:08 2165
自己虽然不属于技术强的那类人物,但算是勤奋用功“刨根问底”类型的,总喜欢把一个东西研究个透彻的那种,否则心里不踏实,总是云里雾里,废话不多说。[B/S]1:在宁波宇泰软件公司时,需要做一个ASP.NET的EIP项目,从PHP版本的PostNuke改版的任务,现在VB.NET版本的DotNetNuke也是很出名的,由于不喜欢VB.NET,就彻底放弃研究这个了,由于很早的时候接触了国外网上的知名开源软件项目,所以对今天的工作也很有帮助,思想一直没被国内的软件项
系统 2019-08-12 01:33:27 2165
大家都用过企业管理器中的--“收缩数据库”,里面的功能的确可以收缩数据库的日志文件(.ldf)和数据文件(.mdf),但都会发现同样的问题,在收缩“数据文件”(.mdf)时根本收缩不了多少。最多截段自动增长部份的,没有根本释放在日常操作中删除数据库的沉冗空间。上述应该是很多人遇到过的,笔者也千试万试试出来的方法,为了确定您的数据库安全,在执行下例的操作前,请先备份你的数据库。1.首先你要找到你的数据库最大的表,一般是数目最大的表,如果不清楚,请在查询分析器
系统 2019-08-12 01:32:33 2165
1.原本安装了Python,还有必要安装Anaconda吗?有必要Anaconda,其包含了conda、Python等180多个科学包及其依赖项,是一个开源的包、环境管理器,能够在不同的环境之间切换.2.什么是MongoDB?MongoDB是由C++语言编写的,是一个基于分布式文件存储的开源数据库系统。在高负载的情况下,添加更多的节点,可以保证服务器性能。3.什么是Robomogo?MongoDB的可视化界面。下载Robomogo免费版就足够用了4.什么是
系统 2019-09-27 17:57:08 2164
python字典操作提取key,valuedictionaryName[key]=value1.为字典增加一项2.访问字典中的值3、删除字典中的一项4、遍历字典5、字典遍历的key\value6、字典的标准操作符7、判断一个键是否在字典中8、python中其他的一些字典方法9、将两个字典合并a={'a':1,'b':2,'c':3}b={'aa':11,'bb':22,'cc':33}#方法一print(dict(a,**b))#方法二这其实就是在内存中创
系统 2019-09-27 17:55:54 2164
0前言大概是三个月前,有个人找我说要我帮忙写几行代码,功能是把一个文件夹里面的所有文件拆分成200个文件一个文件夹,很简单的。我理解了之后,觉得还是挺简单的,花了半个小时写出来了,代码也不多,代码和思路都可以分享一下。1环境说明Win10系统下Python3,编译器是Pycharm。需要安装shutil这个第三方库,直接pipinstallshutil就可以了。2代码先导入需要用到的库,os是用来切换路径和创建文件夹的。shutil是用来复制黏贴文件的im
系统 2019-09-27 17:54:56 2164
Hello,Everyone!Python是个好东西!好吧,以黎某人这寒碜的赞美之词,实在上不了台面,望见谅。那我们直接来上干货吧。第一步:下载Python安装包https://www.python.org/1.进入Python官网,点击download2.进入之后有两个安装包供选择(Python会根据你系统的位数智能选择,所以这里不用纠结你的电脑是32位的还是64位)我的建议是下载Python3.0后面的版本,因为Python3在Python2的基础上,
系统 2019-09-27 17:54:44 2164
image花下猫语:近日,Python之父在Medium上开通了博客,并发布了一篇关于PEG解析器的文章(参见我翻的全文译文)。据我所知,他有自己的博客,为什么还会跑去Medium上写文呢?好奇之下,我就打开了他的老博客。最后一篇文章写于2018年5月,好巧不巧,写的竟是pgen解析器,正是他在新文中无情地吐槽的、说将要替换掉的pgen。在这篇旧文里,Guido回忆了他创造pgen时的一些考量,在当时看来,创造一个新的解析器无疑是明智的,只不过时过境迁,现
系统 2019-09-27 17:54:17 2164
爬虫爬取网页信息的思路:发送网页端请求—>获取响应内容—>解析内容—>获取想要的数据—>保存数据这次我们要实现的是爬取静态网页的股票数据,首先是获取沪深A股的所有股票代码,再用这些股票代码获取相应股票的信息东方财富网有所有个股的股票代码(沪深A股所有股票)查看其网页源代码在网页源代码中可以搜索到相应的元素,判断其是数据是静态的接下来是获取每只个股的信息,由于周六日没开市,东方财富网的个股信息没有显示这里改用百度股市通(个股)同样地检查元素可以发现个股的信息
系统 2019-09-27 17:52:55 2164