go语言爬虫 - TapTap用户都喜欢些什么游戏

前面的废话

说到爬虫,首先想到的当然是python~ 它在机器学习、爬虫数据分析领域可谓是如日中天,十分热门。但我最近在学习go语言,所以就用go写了

TapTap社区

这是一个高品质的游戏分享社区,可以说是手机上的steam。上面的用户质量非常高,核心玩家多,看到他们那么用心的写那么多长评论,让我惊叹,所以这次打算拿它来爬取数据练练手,下面先看看成果

先看效果,这里的玩家,都喜欢玩啥类型游戏呀?

根据 下载榜 里游戏标签的词频统计出:

发现单机、二次元、MOBA、策略等标签比较突出

让我们加入玩家评分的权重,评分是根据数以万计的玩家打的分数来的,多个游戏相同标签会求平均值。
看看有什么变化?

词云完全不一样了呢,视觉错位、脑洞、哲理等标签的评分较高,这些才是玩家真实的喜好,为啥加入评分权重变化这么大呢,让我们看一下究竟是哪些游戏评分这么高!

原来是纪念碑谷、猿骑、艾希等游戏。而纪念碑谷(tag:视觉错位)的评分竟然达到了10分!!(7951条评价)

不过这款游戏也确实让我服气,连我妈妈、老婆她们不太玩游戏的,都很喜欢这款游戏呢~


那么下面就都把评分权重加进去,看看玩家心里的真实需求

接着分析新品榜

游戏名称(根据排名权重+评分权重)

看看我们分析出来的跟榜单上的有什么不一样?

可以看到,加入评分权重后,像《我叫MT4》、《王牌战争:代号英雄》这种虽然排名靠前,但是口碑很差的游戏,几乎在我们的分析图上就看不见啦。(所以在taptap上,就算你花钱刷榜上去了,也并没有太多用,玩家的眼睛是雪亮的,哈哈哈)

预约榜


游戏名称(根据排名权重+评分权重)

这里可以看出未来市场的玩家需求,《全职觉醒》、《堡垒之夜》等都是期待比较高的

热玩榜

游戏名称(根据排名权重+评分权重)

《绝地求生、刺激战场》也是突出游戏之一,看来taptap的玩家,也是很喜欢吃鸡的

实现方式

goquery解析html
iconv-go进行编码转换
sego用来中文分词
wordart实现词云效果

现在先做了个简单的版本,完整版是还想实现抓取某个游戏的玩家评论,进行分词,情感分析的。

先分析html结构,找到一个游戏信息里包含哪些html元素,然后用goquery解析

使用谷歌浏览器,按F12可以很方便的找到元素哦

然后定义一个结构体,用来存放数据

type GameInfo struct {
	Rank     int      //排名
	TapTapID string   //游戏ID
	Name     string   //游戏名
	Company  string   //公司名
	Score    float64  //游戏评分
	IconUrl  string   //图标地址
	Type     string   //游戏类型
	tags     []string //标签
}

分析单个游戏信息

//解析一个游戏信息
func ParseGameInfoCell(selection *goquery.Selection) {
	gameInfo := GameInfo{}
	nameA := selection.Find(".card-middle-title ")
	gameInfo.TapTapID = nameA.AttrOr("href", "")
	gameInfo.TapTapID = gameInfo.TapTapID[strings.LastIndex(gameInfo.TapTapID, "/")+1:]
	gameInfo.Name = nameA.Find("h4").Text()
	gameInfo.Company = selection.Find(".card-middle-author").Find("a").Text()
	score, _ := strconv.ParseFloat(selection.Find(".middle-footer-rating").Find("span").Text(), 64)
	gameInfo.Score = score
	gameInfo.IconUrl = selection.Find(".card-left-image").Find("img").AttrOr("src", "")
	tempRank, _ := strconv.ParseInt(selection.Find(".top-card-order-text").Text(), 10, 32)
	gameInfo.Rank = int(tempRank)

	gameInfo.Type = selection.Find(".card-middle-footer").Find("a").Text()

	tagsAList := selection.Find(".card-tags").Find("a")

	tagsAList.Each(func(i int, selectionA *goquery.Selection) {
		gameInfo.tags = append(gameInfo.tags, selectionA.Text())
	})

	GameInfoList = append(GameInfoList, gameInfo)
	//fmt.Printf("%v\n", gameInfo)
}

但是很快就遇到了问题,因为排行榜的数据是分页的,我们请求一次只能得到30条数据,于是我们找到了“更多”按钮,发现里面通过ajax异步的请求了一条链接获取数据。

https://www.taptap.com/ajax/top/played?page=2&total=30

page就代表的页数,根据排行榜总数量150,每页30条可以得出一共有5页。这样我们就可以循环5次去请求所有的数据了

func ReqRankPage(page int) {
	res, err := http.Get("https://www.taptap.com/ajax/top/" + rankTypeName + "?page=" + strconv.Itoa(page))
	if err != nil {
		log.Fatal(err)
	}
	defer res.Body.Close()
	if res.StatusCode != 200 {
		log.Fatalf("status code error: %d %s", res.StatusCode, res.Status)
	}

	jsonBs, err := ioutil.ReadAll(res.Body)
	tPageJson := TPageJson{}
	err = json.Unmarshal(jsonBs, &tPageJson)
	if err != nil {
		fmt.Println("解析json错误", err)
	}

	var htmlRead io.Reader = strings.NewReader(tPageJson.Data.Html)
	doc, err := goquery.NewDocumentFromReader(htmlRead)
	if err != nil {
		log.Fatal(err)
	}

	doc.Find(".taptap-top-card").Each(func(i int, selection *goquery.Selection) {
		ParseGameInfoCell(selection)
	})
}

全部代码

package main

import (
	"bytes"
	"encoding/json"
	"fmt"
	"github.com/PuerkitoBio/goquery"
	"io"
	"io/ioutil"
	"log"
	"net/http"
	"strconv"
	"strings"
	"math"
)

type TPageJson struct {
	Success bool          `json:"success"`
	Data    TPageDataJson `json:"data"`
}

type TPageDataJson struct {
	Html string `json:"html"`
	Next string `json:"next"`
}

type GameInfo struct {
	Rank     int      //排名
	TapTapID string   //游戏ID
	Name     string   //游戏名
	Company  string   //公司名
	Score    float64  //游戏评分
	IconUrl  string   //图标地址
	Type     string   //游戏类型
	tags     []string //标签
}

var GameInfoList []GameInfo
var rankTypeName = "reserve"

var rankTypes = []string{"download", "new", "reserve", "sell", "played"}

func main() {

	for _, typeName := range rankTypes {
		GameInfoList = []GameInfo{}

		rankTypeName = typeName
		//每个排行榜有5页数据(根据总数150条,每页30条得出)
		for i := 1; i <= 5; i++ {
			ReqRankPage(i)
		}
		//生成标签词典
		GenerateTags()
		GenerateGameNames()
		fmt.Println("生成排行榜:", rankTypeName, "完毕")
	}
}

func GenerateGameNames() {
	var tagsBuffer bytes.Buffer
	tagsBuffer.WriteString("word;weight\n")

	for _, gameInfo := range GameInfoList {
		//weightSize := 150 - gameInfo.Rank //把排名的权值加上
		//weightSize := int(math.Ceil(float64(150-gameInfo.Rank) * gameInfo.Score)) //把排名的权值加上
		weightSize := int(math.Ceil(gameInfo.Score*100)) //把排名的权值加上

		tagsBuffer.WriteString(gameInfo.Name)
		tagsBuffer.WriteString(";")
		tagsBuffer.WriteString(strconv.Itoa(weightSize))
		tagsBuffer.WriteString("\n")
	}

	WriteFile(rankTypeName+"_names_score.csv", tagsBuffer.String())
}

func GenerateTags() {
	tagsCountDic := make(map[string]int)
	tagsScoreDic := make(map[string]float64)

	var tagsBuffer bytes.Buffer
	tagsBuffer.WriteString("word;weight;")

	for _, gameInfo := range GameInfoList {
		for _, tag := range gameInfo.tags {
			tagsCountDic[tag]++
			tagsScoreDic[tag] += gameInfo.Score*100
		}
	}

	for key, value := range tagsCountDic {
		tagsBuffer.WriteString(key)
		tagsBuffer.WriteString(";")
		//tagsBuffer.WriteString(strconv.Itoa( value))
		tagsBuffer.WriteString(strconv.Itoa( int(tagsScoreDic[key]/float64(value))))
		tagsBuffer.WriteString("\n")
	}
	WriteFile(rankTypeName+"_tags_score.csv", tagsBuffer.String())
}

func WriteFile(name, content string) {
	data := []byte(content)
	if ioutil.WriteFile(name, data, 0644) == nil {
		fmt.Println("写入文件成功:", name)
	}
}

func ReqRankPage(page int) {
	res, err := http.Get("https://www.taptap.com/ajax/top/" + rankTypeName + "?page=" + strconv.Itoa(page))
	if err != nil {
		log.Fatal(err)
	}
	defer res.Body.Close()
	if res.StatusCode != 200 {
		log.Fatalf("status code error: %d %s", res.StatusCode, res.Status)
	}

	jsonBs, err := ioutil.ReadAll(res.Body)
	tPageJson := TPageJson{}
	err = json.Unmarshal(jsonBs, &tPageJson)
	if err != nil {
		fmt.Println("解析json错误", err)
	}

	var htmlRead io.Reader = strings.NewReader(tPageJson.Data.Html)
	doc, err := goquery.NewDocumentFromReader(htmlRead)
	if err != nil {
		log.Fatal(err)
	}

	doc.Find(".taptap-top-card").Each(func(i int, selection *goquery.Selection) {
		ParseGameInfoCell(selection)
	})
}

//解析一个游戏信息
func ParseGameInfoCell(selection *goquery.Selection) {
	gameInfo := GameInfo{}
	nameA := selection.Find(".card-middle-title ")
	gameInfo.TapTapID = nameA.AttrOr("href", "")
	gameInfo.TapTapID = gameInfo.TapTapID[strings.LastIndex(gameInfo.TapTapID, "/")+1:]
	gameInfo.Name = nameA.Find("h4").Text()
	gameInfo.Company = selection.Find(".card-middle-author").Find("a").Text()
	score, _ := strconv.ParseFloat(selection.Find(".middle-footer-rating").Find("span").Text(), 64)
	gameInfo.Score = score
	gameInfo.IconUrl = selection.Find(".card-left-image").Find("img").AttrOr("src", "")
	tempRank, _ := strconv.ParseInt(selection.Find(".top-card-order-text").Text(), 10, 32)
	gameInfo.Rank = int(tempRank)

	gameInfo.Type = selection.Find(".card-middle-footer").Find("a").Text()

	tagsAList := selection.Find(".card-tags").Find("a")

	tagsAList.Each(func(i int, selectionA *goquery.Selection) {
		gameInfo.tags = append(gameInfo.tags, selectionA.Text())
	})

	GameInfoList = append(GameInfoList, gameInfo)
	//fmt.Printf("%v\n", gameInfo)
}

这样就可以把爬取下来的数据,写成文件,生成出一张张的词云进行分析啦

总结

第一次玩爬虫,所以写的不是很好,爬虫还有很多技术,本文里都没有涉及。如防止反爬,账号登陆等。写这个也是想多写一点go代码,以后可能会把go作为我的主语言进行开发

接下来研究下爬取网易云音乐~ 嘿嘿嘿

posted @ 2018-07-30 00:11  李嘉的博客  阅读(1976)  评论(4编辑  收藏  举报