爬虫防止浏览器防止debug处理

方式一(基于你会前端,我比较喜欢这种方式)

复制#复制html页面
#复制其中的js,css(css可有可无,如果加css和不加css情况不一样,网页可能做了css反爬处理)
#全局搜索debug or bug ,找到关键字进行删除或者其他处理
#将htmljs的链接改成本地  
#个人喜欢这样方式,我可以随意的改写他js的逻辑

方式二(F12调试解密打断点)

复制#也是一样全局搜索debug or bug
#找到逻辑的位置
#在soures界面ctrl+F8
#再指定位置右键
#never pause here
posted @   小小咸鱼YwY  阅读(1725)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理

目录导航

点击右上角即可分享
微信分享提示