金融市场智能化,就业必然就越来越精英化。当操控着量化投资策略的人出现了,99个传统岗位都会被取代。如今,金融业的“码农化”已是大势所趋,Python更是已然成为投行、基金、咨询和互联网等泛金融和商科领域必备的一项技能,量化投资的风口热度直线飙升,并在各大投资银行和对冲基金公司中成为交易系统的主流。为了迎合市场需求,海外名校金融、经济、金工等专业越来越重视培养学生的量化分析技能,且更偏向招收量化分析能力强的申请者。正在看这篇文章的你,会是候选人之一么?Pyt
系统 2019-09-27 17:45:42 1511
一、建立虚拟环境pipinstallvirtualenv要使用Django,首先要建立一个虚拟工作环境。我们先为项目建立一个文件夹learn,在文件夹中打开命令行(shift+右击),来建立另一个虚拟环境。如果使用的是python3,可使用如下命令来创建:python-mvenvl_env这里运行模块venv,用它来创建一个名为l_env的虚拟环境,此时learn文件夹中会多出来一个l_env的文件夹。如果上述成功了,则跳转到三、激活虚拟环境,否则跳转二、
系统 2019-09-27 17:45:42 1511
不论什么语言,我们都需要注意性能优化问题,提高执行效率。选择了脚本语言就要忍受其速度,这句话在某种程度上说明了Python作为脚本语言的不足之处,那就是执行效率和性能不够亮。尽管Python从未如C和Java一般快速,但是不少Python项目都处于开发语言领先位置。Python很简单易用,但大多数人使用Python都知道在处理密集型cpu工作时,它的数量级依然低于C、Java和JavaScript。但不少第三方不愿赘述Python的优点,而是决定自内而外提
系统 2019-09-27 17:45:40 1511
SessionMiddleware激活后,每个传给视图(view)函数的第一个参数``HttpRequest``对象都有一个session属性,这是一个字典型的对象。你可以象用普通字典一样来用它。例如,在视图(view)中你可以这样用:#Setasessionvalue:request.session["fav_color"]="blue"#Getasessionvalue--thiscouldbecalledinadifferentview,#orman
系统 2019-09-27 17:38:45 1511
什么是中间件我们从一个简单的例子开始。高流量的站点通常需要将Django部署在负载平衡proxy之后。这种方式将带来一些复杂性,其一就是每个request中的远程IP地址(request.META["REMOTE_IP"])将指向该负载平衡proxy,而不是发起这个request的实际IP。负载平衡proxy处理这个问题的方法在特殊的X-Forwarded-For中设置实际发起请求的IP。因此,需要一个小小的中间件来确保运行在proxy之后的站点也能够在r
系统 2019-09-27 17:38:42 1511
概述考虑这样一个问题,有hello.py脚本,输出”hello,world!”;有TestInput.py脚本,等待用户输入,然后打印用户输入的数据。那么,怎么样把hello.py输出内容发送给TestInput.py,最后TestInput.py打印接收到的”hello,world!”。下面我来逐步讲解一下shell的交互方式。hello.py代码如下:#!/usr/bin/pythonprint"hello,world!"TestInput.py代码如
系统 2019-09-27 17:38:38 1511
心血来潮写了个多线程抓妹子图,虽然代码还是有一些瑕疵,但是还是记录下来,分享给大家。Pic_downloader.py#-*-coding:utf-8-*-"""CreatedonFriAug0717:30:582015@author:Dreace"""importurllib2importsysimporttimeimportosimportrandomfrommultiprocessing.dummyimportPoolasThreadPooltype
系统 2019-09-27 17:38:32 1511
网络爬虫,即WebSpider,是一个很形象的名字。把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。1.网络爬虫的定义网络蜘蛛是通过网页的链接地址来寻找网页的。从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。这样看来,网络爬虫
系统 2019-09-27 17:38:28 1511
python3批量删除豆瓣分组下的好友的实现代码"""python3批量删除豆瓣分组下的好友2016年6月7日03:43:42codegay我两年前一时冲动在豆瓣关注了很多豆瓣的员工,好多,有四百个。我现在一时冲动想取消关注...,写这么一个脚本可以用来加快删除的速度。cookies还是直接从chrome读取出来用,参考我之前刚写的代码python3从chrome浏览器读取cookie,"""importosimportsqlite3importreimp
系统 2019-09-27 17:38:28 1511
接触过Django的同学都应该十分熟悉它的ORM系统。对于python新手而言,这是一项几乎可以被称作“黑科技”的特性:只要你在models.py中随便定义一个Model的子类,Django便可以:获取它的字段定义,并转换成表结构读取Meta内部类,并转化成相应的配置信息。对于特殊的Model(如abstract、proxy),还要进行相应的转换为没有定义objects的Model加上一个默认的Manager开发之余,我也曾脑补过其背后的原理。曾经,我认为
系统 2019-09-27 17:38:17 1511
最近开发了一个GoogleAnalytics相关的应用,但需要在Windows下部署,结合网上的相关经验,最终选择了apache+mod_wsgi这样的配置。修改python应用复制代码代码如下:Notethatmod_wsgirequiresthattheWSGIapplicationentrypointbecalled'application'.Ifyouwanttocallitsomethingelsethenyouwouldneedtoconfig
系统 2019-09-27 17:38:15 1511
JSON编码支持的基本数据类型为None,bool,int,float和str,以及包含这些类型数据的lists,tuples和dictionaries。对于dictionaries,keys需要是字符串类型(字典中任何非字符串类型的key在编码时会先转换为字符串)。为了遵循JSON规范,你应该只编码Python的lists和dictionaries。而且,在web应用程序中,顶层对象被编码为一个字典是一个标准做法。JSON编码的格式对于Python语法而
系统 2019-09-27 17:38:14 1511
Python可以使用xml.etree.ElementTree模块从简单的XML文档中提取数据。为了演示,假设你想解析PlanetPython上的RSS源。下面是相应的代码:fromurllib.requestimporturlopenfromxml.etree.ElementTreeimportparse#DownloadtheRSSfeedandparseitu=urlopen('http://planet.python.org/rss20.xml')
系统 2019-09-27 17:38:13 1511
前言流量信息可以直接在/proc/net/dev中进行查看,笔者实现的程序使用命令:pythonnet.pyinterface其中interface为网卡名称,使用什么网卡,电脑有哪些网卡,可以使用sudoifconfig进行查看。Python实现的程序如下:#coding:utf-8importsys,time,os'''Inter-|Receive|Transmitface|bytespacketserrsdropfifoframecompressed
系统 2019-09-27 17:38:09 1511
1.在Scrapy工程下新建“middlewares.py”#Importingbase64librarybecausewe'llneeditONLYincaseiftheproxywearegoingtouserequiresauthenticationimportbase64#StartyourmiddlewareclassclassProxyMiddleware(object):#overwriteprocessrequestdefprocess_r
系统 2019-09-27 17:38:07 1511