“sqldiag”是一款诊断工具,你可以用它收集各种SQLServer服务的诊断信息。它的初衷是为微软公司的支持工程师使用的,但是你可能也会发现它收集的信息对你诊断问题也是有帮助的。“Sqldiag”默认情况下会把收集到的信息写到文件中,保存到名为“SQLDIAG”的文件夹中,该文件夹被自动创建在文件“sqldiag.exe”所在路径同级目录(比如:C:\ProgramFiles\MicrosoftSQLServer\100\Tools\binn\SQLD
系统 2019-08-12 01:32:40 2252
原文:ActiveReports9实战教程(1):手把手搭建环境VisualStudio2013社区版ActiveReports9刚刚发布3天,微软就发布了VisualStudioCommunity2013开发环境。VisualStudioCommunity2013提供完整功能的IDE,可开发Windows、Android和iOS应用。支持:C++,Python,HTML5,JavaScript,和C#,VB,F#语言的开发,提供设计器、编辑器、调试器和诊
系统 2019-08-12 01:32:21 2252
一、使用XmlDataSource控件1.新建XML格式的文件格式如下:2.添加一个XmlDataSource控件到页面中,然后配置。3.配置RadAutoCompleteBox控件有关配置的详细参数参阅文章:TELERIK的RADAUTOCOMPLETEBOX控件学习一telerik的RadAutoCompleteBox控件学习二
系统 2019-08-12 01:32:11 2252
python跟Java一样,也有类似try...catch...的异常处理机制。在程序中有做异常处理最大的好处是代码段出现异常之后,仍然能够继续执行下去。一、捕获一种具体的异常的写法:d={}try:print(d('apple'))exceptKeyErroraserr:print('Error:{}'.format(err))print('...')二、如果有多种Error的话,可以这么写:#写法一:try:num=input("pleaseinput
系统 2019-09-27 17:56:56 2251
继续上一篇,我们在继续完成其他页面设置之前,先把老师登录后的页面给创建出来,并且学生与老师不能互访门户,以及实现注销功能。回到【实战演练】Python+Django网站开发系列02-Django完整开发环境部署,对于老师页面,具有以下模块。1、需求分析老师登录后页面包括如下功能:1)个人信息:登录后显示老师个人信息,以及自己需要授课的课程名、上课时间、上课地点。2)成绩录入:可以查看自己授课的课程下面的学生,并且可以录入成绩,成绩仅能为0~100分,超出范
系统 2019-09-27 17:54:04 2251
pip安装matplotlib没有能成功,打印出错误BeginningwithMatplotlib3.1,Python3.6oraboveisrequired原因本地环境是python3.6以下的版本。解决如果不升python版本的话,降低要安装的matplotlib版本。出现这个问题,安装的版本应该是matplotlib3.1试着降低版本pipinstallmatplotlib==3.0用国内源的话pipinstall-ihttps://pypi.tun
系统 2019-09-27 17:52:44 2251
安装pyserialpipinstallpyserial查看可用的端口#coding:utf-8importserial.tools.list_portsplist=list(serial.tools.list_ports.comports())iflen(plist)<=0:print("没有发现端口!")else:plist_0=list(plist[0])serialName=plist_0[0]serialFd=serial.Serial(seri
系统 2019-09-27 17:50:55 2251
本文主讲Python中Numpy数组的类型、全0全1数组的生成、随机数组、数组操作、矩阵的简单运算、矩阵的数学运算。尽管可以用python中list嵌套来模拟矩阵,但使用Numpy库更方便。定义数组>>>importnumpyasnp>>>m=np.array([[1,2,3],[2,3,4]])#定义矩阵,int64>>>marray([[1,2,3],[2,3,4]])>>>m=np.array([[1,2,3],[2,3,4]],dtype=np.f
系统 2019-09-27 17:50:51 2251
爬虫的抓取方式有好几种,正则表达式,Lxml(xpath)与BeautifulSoup,我在网上查了一下资料,了解到三者之间的使用难度与性能三种爬虫方式的对比。抓取方式性能使用难度正则表达式快困难Lxml快简单BeautifulSoup慢简单这样一比较我我选择了Lxml(xpath)的方式了,虽然有三种方式,但肯定是要选择最好的方式来爬虫,这个道理大家都懂,另外有兴趣的朋友也可以去了解另外两种爬虫方式!好了现在来讲讲xpath由于Xpath属于lxml模块
系统 2019-09-27 17:49:53 2251
基于Pythonrequests的人人词典数据爬虫,爬取站点http://www.91dict.com爬取内容包含:单词、单词词性及翻译、单词发音、单词例句剧照、单词例句及翻译、单词例句发音总共数据:单词53189个,例句发音文件及图片文件共10G左右,20M带宽不到一个小时就能爬完,我测试是这样的。。。关于单词发音,可自行添加爬取爬取内容1爬取内容2例句发音例句剧照Python版本Python3+,建议Python3.6requirements.txtr
系统 2019-09-27 17:49:44 2251