splash官方文档解读(翻译)

安装

splash是一个类似于selenium的自动化浏览器,不过它与selenium还是有很大区别的:比如splash是异步的,splash暴露httpAPI来自动化操作。

安装很简单,需要先安装docker,然后拉取镜像:
sudo docker pull scrapinghub/splash
启动splash:
sudo docker run -it -p 8050:8050 --rm scrapinghub/splash
另外,还可以把容器内的目录映射到本地,这样保证了数据的持久化,否则下次启动一个新的容器配置都变了,容器内有四个主要目录:

  • /etc/splash/filters:存放过滤器的文件夹
  • /etc/splash/proxy-profiles:存放代理配置的文件夹
  • /etc/splash/js-profiles:存放js脚本的文件夹
  • /etc/splash/lua_modules:存放lua脚本的文件夹

映射到本地的命令是(-v就表示映射文件夹),其他类似:
docker run -p 8050:8050 -v 本地绝对路径:/etc/splash/filters scrapinghub/splash

Splash HTTP API

我们可以通过发送某种HTTP请求来使splash执行相应的操作,举个例子:
我们在浏览器输入127.0.0.1:8050/render.html?url=https://www.baidu.com这样你就可以让splash访问百度了,浏览器显示的内容就是splash返回的内容。但这有什么用呢?注意splash返回的是已经经过js渲染的页面,也就是说它可以加载动态页面,明白有什么用了吧。

splash 的httpapi既支持get也支持post,其中的一些参数可以作为get的参数发送,也可以作为post的内容发送(注意格式为json,而且请求头建议加入Content-Type: application/json)

render.html

返回渲染后页面的HTML
参数如下:

  • url:字符串,要访问的URL

  • baseurl:如果页面中某些资源包含相对URL,需要使用这个参数来填充前面那部分。

  • timeout:浮点数,超时时间

  • resource_timeout :单个请求的超时时间,注意既然是会渲染页面,说明splash访问URL肯定不是一次请求,其中还包含很多ajax、js和图片的加载。

  • wait:页面加载后的等待时间,一般情况下都会指定一个较小的值(0.5)来防止一些不必要的异常

  • proxy:代理,格式为[protocol://][user:password@]proxyhost[:port],protocol可以是http,也可以是socks5

  • js:需要执行js配置文件名称,也就是/etc/splash/js-profiles目录下的文件名称

  • js_source :需要执行的js代码

  • filters:/etc/splash/filters存放的过滤器的文件名称,支持多个以逗号分隔。

  • allowed_domains:允许访问的域名列表(以逗号分隔)

  • allowed_content_types: 允许加载的内容类型列表,支持* 、?、[]、[!]四种通配符语法,具体参考fnmatch

  • forbidden_content_types:禁止加载的内容类型,我试了一下这两个参数没效果,难道是姿势不对。

  • viewport :网页大小,格式为1024x768(默认)

  • images:是否下载图片。因为有缓存,所以返回的截图可能也是加载了图片的,只是加载的本地缓存而不是请求互联网。

  • headers:为第一个传出的请求设置的请求头,仅post方法支持该参数

  • body:如果目标请求是POST,该参数是POST请求正文

  • http_method:请求方法,默认GET

  • save_args:要放入缓存的参数名称列表,会在响应头中返回X-Splash-Saved-Arguments: name1=9a6747fc6259aa374ab4e1bb03074b6ec672cf99;name2=ba001160ef96fe2a3f938fea9e6762e204a562b3类似这样的内容,下次请求可以通过load_args传递相同的请求头来加载。一般用不上,js_source或lua_source 更方便。

  • load_args:加载save_args保存的参数名称列表,格式可以是save_args返回的响应头,并以请求头的格式发送,也可以是name1和值组成的json对象

  • html5_media:是否播放视频,默认0关闭

  • http2:是否启用http2,默认0

  • engine :要使用的浏览器引擎,默认webkit,也可以是chromium。不建议修改。

render.png

返回js渲染后的页面png截图
参数除了render.html一样,还有:

  • width:宽度
  • height : 宽度
  • render_all : 是否全屏,默认0
  • scale_method : raster(逐像素缩放,默认)和vector(按元素缩放)。vector性能更高,字体更清晰,元素边界更明显。但是可能出现未知的问题,请谨慎使用。

render.jpeg

参数同render.png,还有:

  • quality : JPEG图片的质量,取值范围0-100,默认75。不建议大于95。

render.har

以HAR格式返回(什么是har格式可以自行百度)
参数与render.html相同
额外参数:

  • request_body:是否包含请求内容,默认0
  • response_body:是否包含响应内容,默认0

render.json

返回带有javascript渲染网页信息的json编码字典。
参数同render.jpeg,还有

  • html : 是否包含HTML,默认0
  • png : 是否包含PNG,默认0
  • jpeg :是否包含JPEG,默认0
  • iframes :是否包含子iframe的信息,默认0
  • script : 是否包含执行的js结果,默认0
  • console : 是否包含js控制台消息,默认0
  • history : 是否包含历史响应,默认0
  • har :是否包含HAR数据,默认0
  • request_body :如果值为1,返回结果将包含har记录,而且包含请求内容
  • response_body :如果值为1,返回结果将包含har记录,而且包含响应内容

execute

执行自定义脚本并返回结果

  • lua_source : lua脚本字符串
  • timeout : 同上
  • allowed_domains :同上
  • proxy :同上
  • filters :同上
  • save_args : 同上
  • load_args :同上

run

参数和作用同execute,区别在于脚本的格式。execute脚本必须包含在main函数中,而run脚本则可以是单独的语句,示例脚本如下:

execute脚本

function main(splash, args)
    assert(splash:go(args.url))
    assert(splash:wait(1.0))
    return splash:html()
end

run脚本

assert(splash:go(args.url))
assert(splash:wait(1.0))
return splash:html()

允许跨域

docker run -it -p 8050:8050 scrapinghub/splash --js-cross-domain-access

在网页中执行js代码

有两种方法:
1、使用render.html中的js_source参数或者js参数加载指定js文件,示例(建议使用POST请求):

curl -X POST -H 'content-type: application/json' \
    -d '{"js_source": "document.title=\"My Title\";", "url": "http://example.com"}' \
    'http://localhost:8050/render.html'

2、带有指定请求头

curl -X POST -H 'content-type: application/javascript' \
    -d 'document.title="My Title";' \
    'http://localhost:8050/render.html?url=http://domain.com'

如果要获取js执行的结果,需使用render.json将script参数设置为1

请求过滤器(Request Filters)

Splash支持根据Adblock Plus规则过滤请求。你可以使用其easylist.txt
来删除广告,或者手动编写来阻止某些请求。例如阻止自定义字体文件的加载可以这些写:

.ttf|
.woff|

然后将这个文件命名为nofonts.txt,并在使用docker开启splash的时候将过滤器目录映射到本地(上面有说怎么映射),接着将nofonts.txt放在这个目录。发起请求只需携带参数filters=nofonts就可以执行过滤器规则,例如:

curl 'http://localhost:8050/render.png?url=http://domain.com/page-with-fonts.html&filters=nofonts'

另外如果过滤器目录存在default.txt文件,则会自动启用。当然如果你不想启用,可以设置filters=none。关于自定义过滤器的语法请参考:https://help.eyeo.com/en/adblockplus/how-to-write-filters

代理配置文件(Proxy Profiles)

同过滤器规则,需先将代理配置目录映射到本地,接着讲代理配置文件放入目录。示例配置文件:

[proxy]

; 代理IP和端口,分号为注释
host=proxy.crawlera.com
port=8010

; 代理验证,默认为空
username=username
password=password

; 代理类型,默认HTTP,还支持socks5
type=HTTP

[rules]
;使用代理的白名单,默认.*
whitelist=
    .*mywebsite\.com.*

; 使用代理的黑名单, 默认为空
blacklist=
    .*\.js.*
    .*\.css.*
    .*\.png

接着将文件保存在代理目录为myproxy.ini(名称任意),然后只需在请求加入proxy=myproxy参数即可。另外,只有在白名单中并且不再黑名单中的才会使用代理,也就是说如果黑名单和白名单同时匹配,黑名单优先级更高。

可以看出代理文件的规则很简单,也就是正则编写的表达式以换行分隔就行了。另外,如果存在default.ini,则默认启用。使用proxy=none禁止。

_gc

回收内存清理缓存,只支持POST请求,示例:
curl -X POST http://localhost:8050/_gc

_debug

获取有关Splash实例的调试信息(使用的RSS数量上限,使用的文件描述符数量,活动请求,请求队列长度,活动对象的数量),以GET方式请求。
curl http://localhost:8050/_debug

_ping

要ping Splash实例,向/_ping端点发送GET请求,示例:
curl http://localhost:8050/_ping

lua脚本

如果以execute接口来执行lua脚本的话,格式需要遵循:

function main(splash, args)
  splash:go("http://example.com")
  splash:wait(0.5)
  local title = splash:evaljs("document.title")
  return {title=title}
end

另外关于一些lua的API可以直接参考:官方文档,写的很详细,很容易看懂。

scrapy-splash

如果你想将scrapy和splash整合在一起会怎么写?很简单,就像整合selenium一样添加一个splash中间件。

实际访问URL,splash其实就是在访问http://splashURL/render.html?url=URL,其他都没有变化所以我们只需在中间件中替换URL就可以了,不过splash还有一些参数怎么传递给中间件呢?使用request.meta即可。

至于scrapy-splash就不详细介绍了,只需要在settings.py中配置一些参数,然后在spider中将splash的参数添加到meta里即可。当然也可以使用SplashRequest,SplashRequest其实就是将参数保存在meta,做了一个封装。

SPLASH_URL = 'http://192.168.59.103:8050'
DOWNLOADER_MIDDLEWARES = {
    'scrapy_splash.SplashCookiesMiddleware': 723,
    'scrapy_splash.SplashMiddleware': 725,
    'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 810,
}
SPIDER_MIDDLEWARES = {
    'scrapy_splash.SplashDeduplicateArgsMiddleware': 100,
}
DUPEFILTER_CLASS = 'scrapy_splash.SplashAwareDupeFilter'
HTTPCACHE_STORAGE = 'scrapy_splash.SplashAwareFSCacheStorage'

请求示例:

yield scrapy.Request(url, self.parse_result, meta={
    'splash': {
        'args': {
            # set rendering arguments here
            'html': 1,
            'png': 1,

            # 'url' is prefilled from request url
            # 'http_method' is set to 'POST' for POST requests
            # 'body' is set to request body for POST requests
        },

        # optional parameters
        'endpoint': 'render.json',  # optional; default is render.json
        'splash_url': '<url>',      # optional; overrides SPLASH_URL
        'slot_policy': scrapy_splash.SlotPolicy.PER_DOMAIN,
        'splash_headers': {},       # optional; a dict with headers sent to Splash
        'dont_process_response': True, # optional, default is False
        'dont_send_headers': True,  # optional, default is False
        'magic_response': False,    # optional, default is True
    }
})

更多参考:https://github.com/scrapy-plugins/scrapy-splash

posted @ 2020-05-19 16:43  Python成长路  阅读(1172)  评论(0编辑  收藏  举报