搜索到与相关的文章
MySql

mysql数据库的导入导出

MySQL命令行导出数据库:1.导出数据库:mysqldump-u用户名-p数据库名>导出的文件名mysqldump-uroot-pMovie>Movie.sql(输入后会让你输入进入MySQL的密码)(如果导出单张表的话在数据库名后面输入表名即可)mysqldump-uroot-pMoviemovies>tab_movies.sql2.会看到文件Movie.sql自动生成到var/lib/mysql数据库存储目录下,如下所示:root@landen-Le

系统 2019-08-12 01:55:13 2654

数据库相关

PL/SQL Developer使用技巧、快捷键

(转)PL/SQLDeveloper使用技巧、快捷键来源:http://www.cnblogs.com/linjiqin/archive/2013/06/24/3152538.html评论:真心好用啊感谢博主了1、类SQLPLUS窗口:File->New->CommandWindow,这个类似于oracle的客户端工具sqlplus,但比它好用多了。2、设置关键字自动大写:Tools->Preferences->Editor,将Keywordcase选择U

系统 2019-08-12 01:53:32 2654

Linux

解决linux服务器Tomcat日志中文乱码问题

首先需要确认服务器是否支持中文,在支持中文字符集的服务器,可以通过以下两种方式调整字符集编码:一、通过/etc/sysconfig/i18n修改默认的字符集在很多时候,linux服务器可能未安装中文支持包,特别是我们在国外购买的服务器,默认是不安装中文支持包的。为了让我们的服务器在命令行下能够输出漂亮的中文字体,我们可以采用yum方式安装中文支持包,非常便捷。1.安装中文包:yum-ygroupinstallchinese-support2.修改字符编码配

系统 2019-08-12 01:33:54 2654

操作系统

vi 命令 使用方法

一、Unix编辑器概述编辑器是使用计算机的重要工具之中的一个,在各种操作系统中,编辑器都是不可缺少的部件。Unix及其类似的ix操作系统系列中,为方便各种用户在各个不同的环境中使用,提供了一系列的ex编辑器,包含ex,edit,ed和vi.当中ex,edit,ed都是行编辑器,如今已非常少有人使用,Unix提供他们的原因是考虑到满足各种用户特别是某些终端用户的须要。值得庆幸的是,Unix提供了全屏幕的Vi编辑器,这使我们的工作轻松不少。不少DOS用户抱怨V

系统 2019-08-12 01:32:53 2654

CSS

CSS样式的优先机制

链接:http://www.cnblogs.com/xugang/archive/2010/09/24/1833760.html又抓到虫子了:IE中奇怪的应用CSS的BUG:http://www.cnblogs.com/lhb25/archive/2010/09/19/1831209.htmlCSS样式的优先机制

系统 2019-08-12 01:32:52 2654

Python

python利用beautifulSoup实现爬虫

以前讲过利用phantomjs做爬虫抓网页//www.jb51.net/article/55789.htm是配合选择器做的利用beautifulSoup(文档:http://www.crummy.com/software/BeautifulSoup/bs4/doc/)这个python模块,可以很轻松的抓取网页内容#coding=utf-8importurllibfrombs4importBeautifulSoupurl='http://www.baidu.

系统 2019-09-27 17:56:00 2653

Python

Python脚本利用adb进行手机控制的方法

一.adb相关命令:1.关闭adb服务:adbkill-server2.启动adb服务adbstart-server3.查询当前运行的所有设备adbdevices4.可能在adb中存在多个虚拟设备运行可以指定虚拟设备运行-s虚拟设备名称5.重启设备adbreboot--指定虚拟设备adb-s设备名称reboot6.查看日志adblogcat清除日志adblogcat-c7.进入linuxshell下adbshell其中常用的linux命令cdcat等等输入

系统 2019-09-27 17:45:25 2653

Python

零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版

百度贴吧的爬虫制作和糗百的爬虫制作原理基本相同,都是通过查看源码扣出关键数据,然后将其存储到本地txt文件。项目内容:用Python写的百度贴吧的网络爬虫。使用方法:新建一个BugBaidu.py文件,然后将代码复制到里面后,双击运行。程序功能:将贴吧中楼主发布的内容打包txt存储到本地。原理解释:首先,先浏览一下某一条贴吧,点击只看楼主并点击第二页之后url发生了一点变化,变成了:http://tieba.baidu.com/p/2296712428?s

系统 2019-09-27 17:38:06 2653