python + seleinum +phantomjs 设置headers和proxy代理
python + seleinum +phantomjs 设置headers和proxy代理
最近因为工作需要使用selenium+phantomjs无头浏览器,其中遇到了一些坑,记录一下,尤其是关于phantomjs设置代理的问题。
基本使用
首先在python中导入使用的包,其中webdriver是要创建无头浏览器对象的模块,DesiredCapabilites这个类是浏览器对象的一些选项设置。
-
from selenium import webdriver
-
from selenium.webdriver.common.desired_capabilities import DesiredCapabilities
-
-
# 初始化浏览器对象
-
desired_cap = DesiredCapabilities.PHANTOMJS.copy()
-
driver = webdriver.PhantomJS(desired_capabilities=desired_cap)
修改请求头
在使用爬虫的过程中我们需要修改请求投中的user-agent防止被反爬,修改过程如下
-
desired_cap = DesiredCapabilities.PHANTOMJS.copy()
-
# 修改请求头中的UA
-
desired_cap['phantomjs.page.settings.userAgent'] = 'xxxxxx'
-
# 设置其他请求投信息,其中key为要修改的请求投键名
-
desired_cap['phantomjs.page.customHeaders.{}'.format(key)] = 'xxxx'
-
driver = webdriver.PhantomJS(desired_capabilities=desired_cap)
设置代理
在使用爬虫过程中,经常需要使用代理ip,网上关于这方面资料较少,我也是搜集了好久,记录一下
ip代理有静态ip代理和动态ip代理,先说静态ip,静态ip就是134.119.184.92:1080这样的代理,不需要使用验证信息,使用方法如下:
-
-
proxy = [
-
'--proxy=%s' % "218.60.8.83:3129",
-
'--proxy-type=http',
-
'--ignore-ssl-errors=true',
-
]
-
-
-
drive = webdriver.PhantomJS(service_args=proxy)
-
-
-
drive.set_page_load_timeout(10)
-
drive.set_script_timeout(10)
-
-
-
drive.get('http://www.baidu.com')
以上是静态代理设置方法,但是我们时候使用的是动态代理,设置方法有所变化,需要在参数里加上验证使用的用户名和密码,代码如下:
-
-
proxy = [
-
'--proxy=%s:%s' % (proxyHost, proxyPort),
-
'--proxy-type=http',
-
'--proxy-auth=%s:%s' % (proxyUser, proxyPass),
-
'--ignore-ssl-errors=true',
-
]
-
-
-
drive = webdriver.PhantomJS(service_args=proxy)
-
-
-
drive.set_page_load_timeout(10)
-
drive.set_script_timeout(10)
-
-
-
drive.get('http://www.baidu.com')
以上就是使用selenium + phantomjs无头浏览器设置headers和代理的方法。