自己虽然不属于技术强的那类人物,但算是勤奋用功“刨根问底”类型的,总喜欢把一个东西研究个透彻的那种,否则心里不踏实,总是云里雾里,废话不多说。[B/S]1:在宁波宇泰软件公司时,需要做一个ASP.NET的EIP项目,从PHP版本的PostNuke改版的任务,现在VB.NET版本的DotNetNuke也是很出名的,由于不喜欢VB.NET,就彻底放弃研究这个了,由于很早的时候接触了国外网上的知名开源软件项目,所以对今天的工作也很有帮助,思想一直没被国内的软件项
系统 2019-08-12 01:33:27 2178
1window.onload=function(){2if(getCookie('name')!=null&&getCookie('phone')!=null&&getCookie('password')!=null){3$("#hid").css('display','block');4$("#bol").css('display','none');5}6}验证用户是否登录,是否有过注册信息
系统 2019-08-12 01:32:44 2178
大家都用过企业管理器中的--“收缩数据库”,里面的功能的确可以收缩数据库的日志文件(.ldf)和数据文件(.mdf),但都会发现同样的问题,在收缩“数据文件”(.mdf)时根本收缩不了多少。最多截段自动增长部份的,没有根本释放在日常操作中删除数据库的沉冗空间。上述应该是很多人遇到过的,笔者也千试万试试出来的方法,为了确定您的数据库安全,在执行下例的操作前,请先备份你的数据库。1.首先你要找到你的数据库最大的表,一般是数目最大的表,如果不清楚,请在查询分析器
系统 2019-08-12 01:32:33 2178
目录:1.安装python32.安装flask3.简单的服务器代码编写4.设置FLASK_APP路径并启动服务器程序1.安装python3python3的安装这里就不过多赘述了,网上直接下载安装即可2.安装flask安装完Python3后我们就可以用pip工具进行安装了,当然还有很多安装方式大家可以自行百度。windows下使用cmd命令pipinstallflask3.简单的服务器代码main.pyfromflaskimportFlaskapp=Flas
系统 2019-09-27 17:56:28 2177
Hello,Everyone!Python是个好东西!好吧,以黎某人这寒碜的赞美之词,实在上不了台面,望见谅。那我们直接来上干货吧。第一步:下载Python安装包https://www.python.org/1.进入Python官网,点击download2.进入之后有两个安装包供选择(Python会根据你系统的位数智能选择,所以这里不用纠结你的电脑是32位的还是64位)我的建议是下载Python3.0后面的版本,因为Python3在Python2的基础上,
系统 2019-09-27 17:54:44 2177
image花下猫语:近日,Python之父在Medium上开通了博客,并发布了一篇关于PEG解析器的文章(参见我翻的全文译文)。据我所知,他有自己的博客,为什么还会跑去Medium上写文呢?好奇之下,我就打开了他的老博客。最后一篇文章写于2018年5月,好巧不巧,写的竟是pgen解析器,正是他在新文中无情地吐槽的、说将要替换掉的pgen。在这篇旧文里,Guido回忆了他创造pgen时的一些考量,在当时看来,创造一个新的解析器无疑是明智的,只不过时过境迁,现
系统 2019-09-27 17:54:17 2177
爬虫爬取网页信息的思路:发送网页端请求—>获取响应内容—>解析内容—>获取想要的数据—>保存数据这次我们要实现的是爬取静态网页的股票数据,首先是获取沪深A股的所有股票代码,再用这些股票代码获取相应股票的信息东方财富网有所有个股的股票代码(沪深A股所有股票)查看其网页源代码在网页源代码中可以搜索到相应的元素,判断其是数据是静态的接下来是获取每只个股的信息,由于周六日没开市,东方财富网的个股信息没有显示这里改用百度股市通(个股)同样地检查元素可以发现个股的信息
系统 2019-09-27 17:52:55 2177
前言网络爬虫也称为网络蜘蛛、网络机器人,抓取网络的数据。其实就是用Python程序模仿人点击浏览器并访问网站,而且模仿的越逼真越好。一般爬取数据的目的主要是用来做数据分析,或者公司项目做数据测试,公司业务所需数据。而数据来源可以来自于公司内部数据,第三方平台购买的数据,还可以通过网络爬虫爬取数据。python在网络爬虫方向上有着成熟的请求、解析模块,以及强大的Scrapy网络爬虫框架。爬虫分类1、通用网络爬虫:搜索引擎使用,遵守robots协议(君子协议)
系统 2019-09-27 17:51:27 2177
需要用到的库:操作xls格式的表格文件:读取:xlrd写入:xlwt修改(追加写入):xlutils操作Excel文件的实用工具,如复制、分割、筛选等操作xlsx格式的表格文件:读取/写入:openpyxl新建,写入内容,保存。#coding=utf-8importxlwtimportxlrdtry:#创建excel文件filename=xlwt.Workbook()#给工作表命名,testsheet=filename.add_sheet("test")#
系统 2019-09-27 17:51:19 2177
BacktoPythonIndex.1.安装Installation官网,国内镜像源清华最方便,condaconfig--addchannelshttps://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/condaconfig--addchannelshttps://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/#显示源地址condaconfig--set
系统 2019-09-27 17:50:47 2177