上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 62 下一页
摘要: web-view页面在你向地址拼接参数展示页面时,在安卓上有时会显示空白 解决方案: A: 普通不需要参数的话可以直接把地址写在src里,不要去在onLoad里获取你的全局变量后再赋值. B: 如果需要拼接参数!!! 1.在data里添加一个bool用作判断显示web-view,默认设置为false 阅读全文
posted @ 2021-05-28 10:48 mingruqi 阅读(785) 评论(0) 推荐(0) 编辑
摘要: 前言: mybatis在持久层框架中还是比较火的,一般项目都是基于ssm。虽然mybatis可以直接在xml中通过SQL语句操作数据库,很是灵活。但正其操作都要通过SQL语句进行,就必须写大量的xml文件,很是麻烦。mybatis-plus就很好的解决了这个问题。 欢迎大家关注我的公众号 javaw 阅读全文
posted @ 2021-05-27 00:04 mingruqi 阅读(185) 评论(0) 推荐(0) 编辑
摘要: 1. vonic 一个基于 vue.js 和 ionic 样式的 UI 框架,用于快速构建移动端单页应用,很简约,是我喜欢的风格 star 2.3k 中文文档 在线预览 2.vux 基于WeUI和Vue(2.x)开发的移动端UI组件库 star 10k 基于webpack+vue-loader+vu 阅读全文
posted @ 2021-05-22 23:57 mingruqi 阅读(3819) 评论(0) 推荐(0) 编辑
摘要: 造成新打开一个窗口,但是selenium不会自动跳转到新的串口,需要自己切换: # 你打开的浏览器,谷歌 browser = webdriver.Chrome() # 你中间的操作 ... # 获取当前浏览器所有的窗口 handles = browser.window_handles # handl 阅读全文
posted @ 2021-05-22 16:26 mingruqi 阅读(352) 评论(0) 推荐(0) 编辑
摘要: 通常情况下用selenium开发爬虫时,会使用以下方式添加UA chrome_options.add_argument('user-agent=' + self.ua) 但是每次更换需要重启浏览器,这会造成资源浪费。好在selenium支持CDP,于是翻了文档终于找到了解决方法。解决方法如下 dri 阅读全文
posted @ 2021-05-22 16:02 mingruqi 阅读(1304) 评论(1) 推荐(0) 编辑
摘要: 1.随机生成 安装: pip install fake-useragent 使用: from fake_useragent import UserAgent ua = UserAgent() 调用指定ua: ua.ie Mozilla/5.0 (Windows; U; MSIE 9.0; Windo 阅读全文
posted @ 2021-05-22 15:17 mingruqi 阅读(2155) 评论(0) 推荐(0) 编辑
摘要: 介绍: Selenium 是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7, 8, 9, 10, 11),Mozilla Firefox,Safari,Google Chrome,Opera等。 利用它可以驱动浏览器执行特 阅读全文
posted @ 2021-05-22 14:14 mingruqi 阅读(584) 评论(0) 推荐(0) 编辑
摘要: ## js获取窗口大小 #获取网页可见区域大小 client_width=self.driver.execute_script("return document.body.clientWidth") client_height = self.driver.execute_script("return 阅读全文
posted @ 2021-05-20 17:56 mingruqi 阅读(458) 评论(0) 推荐(0) 编辑
摘要: ''' selenium操作主要分两大类: -得到UI元素 -find_element_by_id -find_elements_by_name -find_elements_by_xpath -find_elements_by_link_text -find_elements_by_tag_nam 阅读全文
posted @ 2021-05-20 17:55 mingruqi 阅读(214) 评论(0) 推荐(0) 编辑
摘要: 先说结论,关闭scrapy自带的ROBOTSTXT_OBEY功能,在setting找到这个变量,设置为False即可解决。使用scrapy爬取淘宝页面的时候,在提交http请求时出现debug信息Forbidden by robots.txt,看来是请求被拒绝了。开始因为是淘宝页面有什么保密机制,防 阅读全文
posted @ 2021-05-17 18:36 mingruqi 阅读(366) 评论(0) 推荐(0) 编辑
上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 62 下一页