python爬虫基础之requests

基础的爬虫包括发送get,post请求。其中包括请求头请求体和标识等。一些常用的代码和方法如下

复制代码
import requests
from requests.auth import HTTPProxyAuth

request = requests.post(
    #地址
    url="http://www.baidu.com",
    #请求头
    headers={ "user-agent": "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.133 Safari/537.36"},
    #cookie
    cookies="",
    #请求参数
    params={"k1":"v1","k2":"v2"},
    #post请求体(data or json 都行)
    data = {"username":"admin", "pwd":"admin"},
    json = {"username":"admin", "pwd":"admin"},
    #代理ip
    proxies = { "http": "http://192.168.0.1:8080", "https": "https://192.168.0.1:8080" },
    #登录代理的账号密码
    auth = HTTPProxyAuth("username","passwd"),
    #上传文件
    file = {"f1":open("C:\Finish.log","rb")},
    #超时
    timeout = 2,
    #允许重定向
    allow_redirects = False
)

#保持cookie(保持登录状态等)
session = requests.session()
session.get(
    url="http://www.baidu.com"
)
print(request.text)
复制代码

 

posted @   mywink  阅读(132)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
点击右上角即可分享
微信分享提示