沒想到進度超前,在今天釋出第一個版本,只要在gmail或是gtalk邀請en2zhtw@gmail.com設定成為聯絡人,送出整段英文訊息給en2zhtw@gmail.com,機器人就會翻譯英文-->繁體,實作過程中,最複雜的還是TLS的實作,其他並沒有太多的阻礙,另外xmpp的訂閱聯絡人協定做的有點不是很好,連gtalk都沒有完整實做,這在幾種不同的SERVER測過,目前最標準的是openfire,其餘或多或少都有部分不太符合rfc3921,相較於msn
系统 2019-08-29 23:22:29 2074
HP高管在周二称,他们可能将剥离PC业务成为一家独立的公司,同时有可能重启Touchpad项目。HP负责公司的电脑和平板的个人系统事业部副总裁ToddBradley在接受路透社采访时称,平板电脑绝对是一个重要的细分市场。他还称HP可能会重启TouchPad项目,或在稍后推出另一型号。公司目前仍然希望授权webOS操作系统,并在寻找其他硬件供应商。在此之前,HP曾以99.99美元的跳楼价清仓TouchPad,使得TouchPad在美国和加拿大一机难求。Bra
系统 2019-08-29 23:16:24 2074
声明:本篇文章是根据memcached-session-manager官方配置方法wiki页面翻译整理,关于memcached-session-manager的介绍,具体参见官网:http://code.google.com/p/memcached-session-manager/,也可以参考:http://gong1208.iteye.com/blog/1596120Introduction如果为了简单使用,你只需要安装一个tomcat(6或者7)和me
系统 2019-08-29 22:09:50 2074
今天早上去SpringSource官网,发现SpringFramework4.0发布了,我认为最重要的两个特性发布了:JDK8的支持和WebSocket编程的支持。亲爱的Spring社区:宣布SpringFramework4.0第一个里程碑版本是我的荣幸。发布一些我们工作的几个关键的主题:第一波是JavaSE8/OpenJDK8支持(在后边有一些细节)。初步支持JMS2.0,JPA2.1,BeanValidation1.1和JSR-236并发(来自EE7体
系统 2019-08-29 22:00:53 2074
Spring和Struts2都是应用非常广泛的J2EE应用程序框架,Struts2主要注重的是将视图层和控制层分开,但是不涉及对模型层的优化设计;而Spring除了实现Struts2的MVC功能外,还可以利用其控制反转的思想实现对模型层的优化,从更深层次去降低应用程序各个组件的耦合程度。1、添加ContextLoaderListener到web.xmlXml代码org.springframework.we
系统 2019-08-12 09:30:34 2074
##推荐源```https://mirrors.aliyun.com/pypi/simple/阿里镜像,速度快、稳定https://pypi.douban.com/simple/豆瓣镜像```##使用方法###1.使用时修改```pipinstall-i[国内镜像地址][模块名称]```###2.修改配置文件修改或创建`~/.pip/pip.conf`文件内容:```[global]index-url=https://mirrors.aliyun.com/
系统 2019-09-27 17:57:07 2073
计算文件夹里所有内容的大小总和递归方法'''计算文件夹的大小'''importosdefdir_file_size(path):ifos.path.isdir(path):file_size=0dir_list=os.listdir(path)fordir_nameindir_list:file_path=os.path.join(path,dir_name)ifos.path.isfile(dir_name):file_size+=os.path.get
系统 2019-09-27 17:56:49 2073
使用Python写CUDA程序有两种方式:*Numba*PyCUDAnumbapro现在已经不推荐使用了,功能被拆分并分别被集成到accelerate和Numba了。例子numbaNumba通过及时编译机制(JIT)优化Python代码,Numba可以针对本机的硬件环境进行优化,同时支持CPU和GPU的优化,并且可以和Numpy集成,使Python代码可以在GPU上运行,只需在函数上方加上相关的指令标记,如下所示:importnumpyasnpfromti
系统 2019-09-27 17:56:19 2073
导入模块frombs4importBeautifulSoupsoup=BeautifulSoup(html_doc,"html.parser")下面看下常见的用法print(soup.a)#拿到soup中的第一个a标签print(soup.a.name)#获取a标签的名称print(soup.a.string)#获取a标签的文本内容print(soup.a.text)#获取a标签的文本内容print(soup.a["href"])#获取a标签的href属性
系统 2019-09-27 17:55:49 2073
写爬虫似乎没有比用Python更合适了,Python社区提供的爬虫工具多得让你眼花缭乱,各种拿来就可以直接用的library分分钟就可以写出一个爬虫出来,今天就琢磨着写一个爬虫,将廖雪峰的Python教程爬下来做成PDF电子书方便大家离线阅读。开始写爬虫前,我们先来分析一下该网站1的页面结构,网页的左侧是教程的目录大纲,每个URL对应到右边的一篇文章,右侧上方是文章的标题,中间是文章的正文部分,正文内容是我们关心的重点,我们要爬的数据就是所有网页的正文部分
系统 2019-09-27 17:55:45 2073