python爬取数据并保存到数据库中(第一次练手完整代码)

  1.首先,下载需要的模块requests, BeautifulSoup, datetime, pymysql(注意,因为我用的python3.7,不支持mysqldb了),具体的下载方法有pip下载,或者使用Anaconda版本python的童鞋可以使用conda下载。

  2.创建conndb,py,包含数据库的连接断开,增删改查等操作:

#!/usr/bin/env python 
# -*- coding:utf-8 -*-
import pymysql


def conn_db():  # 连接数据库函数
    conn = pymysql.connect(
        host='localhost',
        user='数据库用户名',
        passwd='数据库密码',
        db='数据库名称',
        charset='utf8')
    cur = conn.cursor()
    return conn, cur


def exe_update(cur, sql):  # 更新语句,可执行update,insert语句
    sta = cur.execute(sql)
    return sta


def exe_delete(cur, ids):  # 删除语句,可批量删除
    for eachID in ids.split(' '):
        sta = cur.execute('delete from cms where id =%d' % int(eachID))
    return sta


def exe_query(cur, sql):  # 查询语句
    cur.execute(sql)
    return cur


def exe_commit(cur):
    cur.connection.commit()  # 执行commit操作,插入语句才能生效


def conn_close(conn, cur):  # 关闭所有连接
    cur.close()
    conn.close()

  3.创建另一个python文件,用于抓取数据(注意引入conndb.py文件):

#!/usr/bin/env python 
# -*- coding:utf-8 -*-
import requests
from bs4 import BeautifulSoup
import datetime
import conndb


def get_html_text(url):
    try:
        r = requests.get(url, timeout=30)
        # r.encoding = r.apparent_encoding
        r.encoding = 'utf-8'    # 编码方式
        # print(r.text)
        return r.text
    except BaseException as e:
        print('BaseException:', e)
        return ""


def get_content(url):
    html = get_html_text(url)
    # print(html)
    soup = BeautifulSoup(html, 'html.parser')
    title = soup.select(".list-point > .item")  # 此处为BeautifulSoup的CSS选择器,括号内为通过类名选择
    today = datetime.datetime.now().strftime('%Y-%m-%d')    # 获取今天的日期,用于抓取新闻时判断抓取今天的内容
    for item in title:
        time = item.find('span').string             # 新闻创建日期
        time1 = '20' + time[0: time.index(" ")]     # 日期字符串格式处理,便于比较
        if time1 == today:  # 新闻的创建日期是今天
            url = item.find('a')['href']            # 获取单条新闻链接,用户单条新闻抓取
            title = item.find('a').string
            # print(title + time + url)
            get_new_content(url, title, time)


def get_new_content(url, title, tim1):
    html = get_html_text(url)
    # print(html)
    soup = BeautifulSoup(html, 'html.parser')
    p = soup.select(".article-content > p")
    # print(p)
    # for item in p:
    #     if item.find('img'):
    #         print(item.find('img')['src'])
    #     else:
    #         print(item.string)
    # 调用更新记录的函数
    p_str = str(p)      # p为标签,要转化为字符串,并去掉前后的[]符号
    length = len(p_str)
    utf8_length = len(p_str.encode('utf-8'))
    length = (utf8_length - length) / 2 + length
    p_str = p_str[1: int(length)]
    tim2 = datetime.datetime.strptime('20' + tim1, '%Y-%m-%d %H:%M')    # 将字符串格式的日期转为数据库要求的datetime
    sta = conndb.exe_update(cur,
                            "insert into cms(title, content, gmt_create) "
                            "values('%s','%s','%s')" % (title, p_str, tim2))
    if sta == 1:
        print('插入成功')
    else:
        print('插入失败')


def main():
    url = "抓取的页面url"
    get_content(url)


# 调用连接数据库的函数
conn, cur = conndb.conn_db()
main()
conndb.exe_commit(cur)    # 注意!! 一定要记得commit,否则操作成功了,但是并没有添加到数据库中
conndb.conn_close(conn, cur)

  这样,抓取到的数据就可以保存到数据库中了。

posted @ 2018-12-21 15:34  _yj  阅读(21947)  评论(9编辑  收藏  举报