最近搬迁服务器也遇到一个问题,一个ecshop的站点,访问速度很慢,以前也没有这种情况发生,现在出现这么慢的情况确实让人疑惑,换了另外一个服务器也还是这样,可是访问的人也不多呢,带宽也不差,所以纳闷…多搜索一下资料看看,似乎找到了出路,可以不用再尝试换服务器了。我把表类型换为innodb类型后,情况就好很多了,请参考后面的资料。sql语句类似ALTERTABLEaslibraTYPE=innodb;很简单其实碰到这个问题我就看了一下数据库的进程,发现有很多
系统 2019-08-12 01:33:01 2492
小菜一直对操作系统心存畏惧,以前也很少接触,这次创业购买了Linux云主机,由于木有人帮忙,只能自己动手优化服务器了。。。。小菜的云主机配置大致为:centeos6(32位),4核心cpu,4G内存,5M独享带宽。一、jvm内存优化方案。要优化服务器,首先从jvm入手,分配好jvm内存,配置方案如下:declare-xJAVA_OPTS="-server-Xms1280M-Xmx1280M-Xmn512M-Xss1024k-XX:+AggressiveOp
系统 2019-08-12 01:33:01 2492
http://blog.csdn.net/ruglcc/article/details/7874076zieckey(zieckey@yahoo.com.cn)线程(thread)技术早在60年代就被提出,但真正应用多线程到操作系统中去,是在80年代中期,solaris是这方面的佼佼者。传统的Unix也支持线程的概念,但是在一个进程(process)中只允许有一个线程,这样多线程就意味着多进程。现在,多线程技术已经被许多操作系统所支持,包括Windows/
系统 2019-08-12 01:32:54 2492
一.新建windows服务二.新建wcf服务三.添加安装程序四.设置安装程序五.设置启动代码678.注:当使用管理员身份安装不成功时,可以使用vs自带的命令工具举行安装,即可以成功WCF服务
系统 2019-08-12 01:32:51 2492
该版本升级InnoDB插件到1.0.6版本,目前1.0.6版本的InnoDB的质量差不多是RC候选发行级别的。另外一些命令行工具各自增加了一些参数选项,详情请看这里。MySQL(发音:[ˌmaɪɛskjuːˈɛl],但也经常读作My-SEQuel)是一个开放源码的关系数据库管理系统,开发者为瑞典MySQLAB公司,现为Sun公司的一部分。2009年Oracle宣布收购Sun公司,因此MySQL可能成为Oracle旗下产品。MySQL由于性能高、成本低、可靠
系统 2019-08-12 01:32:42 2492
凌乱的小笔记,平时用的一些功能,稍稍总结一下。1.把某表的一栏复制到另一张表里面去。mysql貌似不支持select*into,所以只能create一张新表了,其实还是很简单的。createtablenew_table_name(select*fromold_table_name);2.让mysql数据库允许远程访问。两种方法:(1)改表方法。mysql–uroot–pmysql>usemysql;mysql>updateusersethost='%'wh
系统 2019-08-12 01:32:28 2492
Python很慢和/或它不是的两个最常见的原因高性能:解读GIL第一个是相当直接的,但在高级别编译器将更高级别的语言翻译成更低级别(更快)的语言,因此编译语言几乎总是比非编译语言执行得更快。这个经验法则有一些例外(例如JIT可能比AOT编译更快的情况),但它们会分散讨论。第二个是更臭名昭着,但是Python有一个叫做全局解释器锁的东西,它通过强制解释器一次只在一个进程(Python解释器的实例)中执行单个线程来基本上防止多线程。它的工作原理也很有趣,但也像
系统 2019-09-27 17:57:24 2491
最后一次更新于2019/07/10ICMPPing目的此任务是重新创建第3讲(延迟,丢失和吞吐量)中讨论的ping客户端。Ping是一个用于在计算机网络中测量延迟和丢失的工具。在实际应用中,我们可以通过ping命令分析判断网络失败的原因。当然,这类信息也可用于帮助我们选择性能更佳的IP地址作为代理服务器。原理Ping通常使用Internet控制消息协议(ICMP)报文来测量网络中的延迟和丢失:本机在ICMP包中发送回响请求(ICMP类型代码为8)给另一个主
系统 2019-09-27 17:56:16 2491
刚刚开始学习python,当前看到了函数这一节。结合数组操作,写了个非递归的全排列生成。原理是插入法,也就是在一个有n个元素的已有排列中,后加入的元素,依次在前,中,后的每一个位置插入,生成n+1个新的全排列。因为Python切割数组或者字符串,以及合并比较方便,所以,程序会节省很多代码。defgetArrayInsertCharToStr(STR,CHAR):arr=[]s_len=len(STR)index=0whileindex<=s_len:#分割
系统 2019-09-27 17:56:11 2491
我们都知道,爬虫获取页面的响应之后,最关键的就是如何从繁杂的网页中把我们需要的数据提取出来,python从网页中提取数据的包很多,常用的解析模块有下面的几个:BeautifulSoupAPI简单但解析速度慢,不推荐使用lxml由C语言编写的xml解析库(libxm2),解析速度快但是API复杂Scrapy综合以上两者优势实现了自己的数据提取机制,被称为Selector选择器。它是由lxml库构建的,并简化了API,先通过XPath或者CSS选择器选中要提取
系统 2019-09-27 17:54:28 2491