python爬虫 requests基本用法

系统 1612 0

一些基本用法,ssl证书和身份认证是尚未验证的 

            
              import requests

headers = {
    'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)'
                   ' AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36',
    # 'Cookie' : 'XXXXXXXXXXXXXXXX'
}

# 取得图片
# res = requests.get("https://pic2.zhimg.com/d3dd87a0feae0a3db82973157eee89c0_m.jpg", headers=headers)
# with open("1.jpg", "wb") as pic:
#     pic.write(res.content)
# print(res.content)

# 测试cookies,知乎取不到cookies,其他网站可以
# res = requests.get("https://www.zhihu.com", headers=headers)
# print(res.cookies)
# for key, value in res.cookies.items() :
#     print(key+"="+value)

# 测试session, 两次的cookies值是一致的,证明维持了同一个会话
# session = requests.Session()
# res1 = session.get("http://httpbin.org/cookies/set/number/1234567")
# print(res1.text)
# res2 = session.get("http://httpbin.org/cookies")
# print(res2.text)

# 测试ssl证书, 没有找到合适的网站,12306的证书已经被修改好了
# session = requests.Session()
# res = session.get("https://www.ccb.com/cn/home/indexv3.html/", verify=False)
# print(res.status_code)

# 测试超时设置
# session = requests.Session()
# 如果你设置了一个单一的值作为 timeout,这一timeout值将会用作connect和read二者的总和timeout:
#res = session.get("https://www.baidu.com", timeout=1)
#如果要分别指定,就传入一个元组:
# res = session.get("https://www.baidu.com", timeout=(0.1, 3))
# print(res.status_code)

# 身份认证,这种简单的方法无效,总是返回 status_code=200
# res = requests.get("https://passport.csdn.net/login?code=public", auth=('17671766710', 'ylbs4342017'))
# print(res.status_code)
            
          

 


更多文章、技术交流、商务合作、联系博主

微信扫码或搜索:z360901061

微信扫一扫加我为好友

QQ号联系: 360901061

您的支持是博主写作最大的动力,如果您喜欢我的文章,感觉我的文章对您有帮助,请用微信扫描下面二维码支持博主2元、5元、10元、20元等您想捐的金额吧,狠狠点击下面给点支持吧,站长非常感激您!手机微信长按不能支付解决办法:请将微信支付二维码保存到相册,切换到微信,然后点击微信右上角扫一扫功能,选择支付二维码完成支付。

【本文对您有帮助就好】

您的支持是博主写作最大的动力,如果您喜欢我的文章,感觉我的文章对您有帮助,请用微信扫描上面二维码支持博主2元、5元、10元、自定义金额等您想捐的金额吧,站长会非常 感谢您的哦!!!

发表我的评论
最新评论 总共0条评论