使用Python登录Github网站

在下面的代码中, 展示了使用Python脚本登录Github的方法。 如果需要登录别的网站,那么请使用Chrome的Inspect的功能寻找到目标的object,对代码进行替换。


代码先登录了github网站,然后在登录过的session里打开了discover页面,然后统计了一下这个网页里加载了多少个项目。


废话不多说,上代码。

from requests import session
from bs4 import BeautifulSoup as bs

USER = 'username@yourmail.local'
PASSWORD = 'InputYourPassword(^_^)'

URL1 = 'https://github.com/session'
URL2 = 'https://github.com/discover'


with session() as s:

    req = s.get(URL1).text
     html = bs(req, "lxml")
     token = html.find("input", {"name": "authenticity_token"}).attrs['value']
     com_val = html.find("input", {"name": "commit"}).attrs['value']       

    login_data = {'login': USER,
                   'password': PASSWORD,
                   'commit' : com_val,
                   'authenticity_token' : token}

    r1 = s.post(URL1, data = login_data)

    r2 = s.get(URL2)
     data2 = r2.content
    
     page_html = data2
    
     page_soup = bs(page_html, "html.parser")
    
     containers = page_soup.findAll("div", {"class":"mb-1"})
     print("On this page, there are how many projects listed? \n")
     print(len(containers))


上面代码在Python 3.6.5上调试通过并成功运行。


参考资料

================

Intro to Web Scraping with Python and Beautiful Soup

https://www.youtube.com/watch?v=XQgXKtPSzUI&t=1507s

posted on   中道学友  阅读(943)  评论(0编辑  收藏  举报

编辑推荐:
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
历史上的今天:
2009-09-14 ISAPI Extension和ISAPI Filter
2009-09-14 一个奇怪的问题
2009-09-14 修改属性之后保存web part时报错
2009-09-14 网络端口范围分类
2009-09-14 更改文档库可备份的大小

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

技术追求准确,态度积极向上

点击右上角即可分享
微信分享提示