python爬有道翻译
在有道翻译页面中打开开发者工具,在Headers板块找到Request URL以及相应的data。
import urllib.request
import urllib.parse
import json
content=input('请输入需要翻译的内容:')
#_o要去掉,否则会出先error_code:50的报错
url='http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'
data={}
#开发者工具里有,i和doctype键不可少
data['i']=content
data['from']='AUTO'
data['to']='AUTO'
data['smartresult']='dict'
data['client']='fanyideskweb'
data['salt']='15695569180611'
data['sign']='5b0565493d812bc5e713b895c12d615d'
data['doctype']='json'
data['version']='2.1'
data['keyfrom']='fanyi.web'
data['action']='FY_BY_REALTTIME'
#将字典类型的请求数据转化为url编码,并将编码类型转变为'utf-8'类型
data=urllib.parse.urlencode(data).encode('utf-8')
#向url请求data的响应结果
response=urllib.request.urlopen(url,data)
#读取返回数据内容,decode是转换返回数据的格式为str
html=response.read().decode('utf-8')
#使用json将字符串转化成字典
target=json.loads(html)
#结果在key='translateResult'的三层列表的key='tgt'中
print("翻译结果:%s" %(target['translateResult'][0][0]['tgt']))
上面这种很大可能被有道网页给识别出来不是人工在访问,而是代码在访问。
此时我们可以加个‘User-Agent’代理。通过设置User Agent来达到隐藏身份的目的,一般情况下浏览器是通过User-Agent来识别的。
通过调用urllib.request.Request()来设置UA。
class urllib.request.Request(url, data=None, headers={}, origin_req_host=None, unverifiable=False, method=None) This class is an abstraction of a URL request.
url should be a string containing a valid URL.
headers should be a dictionary #headers要为字典
有两种方法设置User Agent:
1.在创建Request对象的时候,填入headers参数(包含User Agent信息),这个Headers参数要求为字典;
2.在创建Request对象的时候不添加headers参数,在创建完成之后,使用add_header()的方法,添加headers。
import urllib.request
import urllib.parse
import json
import time
while True:
content=input('请输入需要翻译的内容(输入"q!退出程序"):')
if content=='q!':
break;
#_o要去掉,否则会出先error_code:50的报错
url='http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'
'''
第一种方法
head={}
head['User-Agent']='Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36'
'''
data={}
#开发者工具里有,i和doctype键不可少
data['i']=content
data['from']='AUTO'
data['to']='AUTO'
data['smartresult']='dict'
data['client']='fanyideskweb'
data['salt']='15695569180611'
data['sign']='5b0565493d812bc5e713b895c12d615d'
data['doctype']='json'
data['version']='2.1'
data['keyfrom']='fanyi.web'
data['action']='FY_BY_REALTTIME'
#将字典类型的请求数据转化为url编码,并将编码类型转变为'utf-8'类型
data=urllib.parse.urlencode(data).encode('utf-8')
'''
第一种方法
req=urllib.request.Request(url,data,head)
'''
#第二种方法设置User Agent
#创建Request对象
req=urllib.request.Request(url,data)
req.add_header('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36')
#传入创建好的Request对象
response=urllib.request.urlopen(req)
#读取响应信息并解码
html=response.read().decode('utf-8')
#使用json将字符串转化成字典
target=json.loads(html)
#结果在key='translateResult'的三层列表的key='tgt'中
print("翻译结果:%s" %(target['translateResult'][0][0]['tgt']))
#5秒一次
time.sleep(5)