换了vs2008之后发现div层和一些控件都是绝对定位了。做一些简单的页面感觉没以前舒服了。(当然这是有好处的,逼着你用CSS定位)问:我怎么用vs拖动div层啊。。拖动按钮啊。。拖动。。啊解答:1.选中你要拖动的控件,比如button12.点击最上面最上面菜单栏里面的【格式】--【位置】3.看到这些选项之后你懂的。【技术贴】怎么拖动vs2008的控件
系统 2019-08-12 01:32:23 1972
读取十万多条文本写入SQLite类型数据库,由于文本中存在中文字符,插入到数据库没错,取出时一直是UnicodeDecodeError,导致折腾了一天。最后的解决方法:Python连接数据时进行如下设置:db=sqlite3.connection("...")db.text_factory=st另为了python代码中硬编码的中文字符串不出现问题,除了在源码开始添加#-*-coding:utf-8-*-设置python源码的编码为utf-8importsy
系统 2019-09-27 17:57:04 1971
一、Linux环境和Windows环境下个人推荐推荐使用geany,个人认为这个编辑器优于pycharm,pycharm破解起来异常麻烦,而且它体积小,能够运行几乎所有的程序(而无需终端来运行)。也可以选择anaconda作为geany当做python的编辑器Linux中安装的命令如下:sudoapt-getgeanywindows中,可以点击链接https://www.geany.org/Download/Releases,然后找到Releases目录下
系统 2019-09-27 17:55:10 1971
Python信息抽取之乱码解决办法就事论事,直说自己遇到的情况,和我不一样的路过吧,一样的就看看吧信息抓取,用python,beautifulSoup,lxml,re,urllib2,urllib2去获取想要抽取的页面内容,然后使用lxml或者beautifulSoup进行解析,插入mysql具体的内容,好了貌似很简单很easy的样子,可是里面的恶心之处就来了,第一,国内开发网站的人在指定网站编码或者是保存网站源码的时候并没有考虑什么编码,反正一句话,一个
系统 2019-09-27 17:54:45 1971
直接送上代码importurllib.requestimportjsonimportjsonpathimporttimeend_page=int(input('请输入爬取的结束页码:'))foriinrange(0,end_page+1):print('第%s页开始爬取------'%(i+1))url='https://sclub.jd.com/comment/productPageComments.action?callback=fetchJSON_c
系统 2019-09-27 17:54:07 1971
今天在写一个linux下自动备份指定目录下的所有目录的脚本时,遇到了一个问题,由于我是需要备份目录,所以,需要判断扫描的文件是否为目录,当我用os.path.isdir()来判断的时候,发现所有文件均返回false,刚开始以为是系统兼容性问题,进一步测试,发现用os.path.isfile(),这些文件还是返回false,这肯定就是程序写的有问题了,代码如下:#!/usr/bin/envpython#apythonscripttoautobackupadi
系统 2019-09-27 17:52:29 1971
和其他语言不一样,传递参数的时候,python不允许程序员选择采用传值还是传引用。Python参数传递采用的肯定是“传对象引用”的方式。实际上,这种方式相当于传值和传引用的一种综合。如果函数收到的是一个可变对象(比如字典或者列表)的引用,就能修改对象的原始值--相当于通过“传引用”来传递对象。如果函数收到的是一个不可变对象(比如数字、字符或者元组)的引用,就不能直接修改原始对象--相当于通过“传值'来传递对象。python一般内部赋值变量的话,都是传个引用
系统 2019-09-27 17:51:23 1971
定时与邮件在这一关,我们希望为一般的爬虫程序新增两个实用性比较强的功能:第一是定时功能,即程序可以根据我们设定的时间自动爬取数据;第二是通知功能,即程序可以把爬取到的数据结果以邮件的形式自动发送到我们的邮箱。这两个功能可以让爬虫程序定时向我们汇报。试想一下,如果你是一位股票(或比特币)的持有者,你希望及时爬取股票(或比特币)每日的价格数据,方便你能及时卖出或买入,那每天都去启动一遍爬虫程序是极其不高效的。而此时,如果你的爬虫程序有定时和发送邮件功能,能自动
系统 2019-09-27 17:50:59 1971
这个问题在网上找了很长时间,也没有很好的解决方案,大多数都是用的ftp.retrlines('LIST',处理函数)来获得文件的时间但是格式是所以很难做成时间戳,获取时间的目的不就是用来比较,所以下面个大家来个可以获取时间然后转化成时间戳的方式首先函数直接获取ftp文件的时间然后我的做法是,先将时间转化成列表,然后做成时间元组,再用函数转化成时间戳。L=list(ftp.sendcmd('MDTM'+"/home/tarena/%s/%s"%(files_
系统 2019-09-27 17:50:49 1971
主要目标识别图中红色的裂缝,尝试了几种不同的方法,最后发现比较每一点的RGB差值可以很好的解决这个问题,也就是提取图片中的红色相关信息。处理结果如下:实现的代码如下,注意opencv读入的图片通道顺序是bgr:importcv2importmatplotlib.pyplotaspltimagepath=r'tear/11.jpg'image=cv2.imread(imagepath)height,width,channel=image.shapeforii
系统 2019-09-27 17:50:25 1971