如果汉语背后没有文化,文化背后没有思想,思想背后没有精神,光TMD编造老娘和乔布斯没有说过的话,那中国永远不会是一个伟大的国家。——撒切尔夫人

2021.05.20 刘一辰的软件工程随笔

今日目标:使用python爬取、存取数据:

 

今日总结:

from lxml import etree
from pymysql import connect
from jieba.analyse import *
import requests
class CVPR:
# 保存数据
def saveContent_list(self,title,zhaiyao,guanjian,lianjie):
# 打开数据库连接(ip/数据库用户名/登录密码/数据库名)
con = connect("localhost", "root", "a3685371", "pachong")
# 使用 cursor() 方法创建一个游标对象 cursor
cursors = con.cursor()
# 使用 execute() 方法执行 SQL 查询 返回的是你影响的行数
row = cursors.execute("insert into CVPR values(%s,%s,%s,%s)", (title,zhaiyao,guanjian,lianjie))
# 使用 fetchone() 方法获取数据.
con.commit()
# 关闭数据库连接(别忘了)
con.close()
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36"
}
url = "http://openaccess.thecvf.com/CVPR2019.py"
proxies = {
"http": "http://211.147.226.4",
"https": "http://122.200.90.12",
}
cvpr = CVPR()
response = requests.get(url,headers=headers)
html_str = etree.HTML(response.content.decode())
#获得标题
hrefs = html_str.xpath("//div[@id='content']/dl/dt/a/@href")
for href in hrefs:
href = "http://openaccess.thecvf.com/{0}".format(href)
response2 = requests.get(href,headers=headers)
html_str = etree.HTML(response2.content.decode())
lunwens = {}
title = html_str.xpath("//div[@id='content']/dl/dd//div[@id='papertitle']/text()")
lianjie = html_str.xpath("//div[@id='content']/dl/dd//a/@href")
zhaiyao = html_str.xpath("//div[@id='content']/dl/dd//div[@id='abstract']/text()")
for keyword, weight in extract_tags(zhaiyao[0].strip(), topK=5, withWeight=True):

try:
cvpr.saveContent_list(title,zhaiyao,keyword,lianjie)
print("存入成功")
except:
print("存入失败")

 

明日总结:

使用echart 的 wordCloud 实现热词云。

posted @   崤函隳  阅读(38)  评论(0编辑  收藏  举报
编辑推荐:
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
阅读排行:
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)
点击右上角即可分享
微信分享提示