对训练集中的数据做随机抽样,并对抽样出的数据可视化观察分布情况

(1)语料库中56万条数据,分为14个类别

(2)现在训练模型,采样率设定为0.01,即5600条样本

(3)观察用于模型训练数据的分布

复制代码
 1 def load_data(file_name, sample_ratio=1, n_class=15, names=names, one_hot=True):
 2     '''load data from .csv file'''
 3     csv_file = pd.read_csv(file_name, names=names)
 4     # 对56万条数据做随机采样,获取其中的100分之1
 5     shuffle_csv = csv_file.sample(frac=sample_ratio)
 6     x = pd.Series(shuffle_csv["content"])
 7     y = pd.Series(shuffle_csv["class"])
 8     if one_hot:
 9         y = to_one_hot(y, n_class)
10 
11     # 看一下y值数据的分布
12     y_dist = Counter(y.values)
13     sample = []
14     label = []
15     for i in range(14):
16         label.append(i+1)
17         sample.append(y_dist[i+1])
18     plt.bar(label, sample)
19     plt.show()
20 
21     return x, y
复制代码

展示:

 

  思考:模型训练的数据不是越多越好吗?何况使用深度学习模型,那作者为什么不不同56万条,而是用5600条训练模型。如果可以达到效果,那么说,对于小容量的数据集,也可以得到一个很好的模型。可以拭目以待。

posted @   今夜无风  阅读(534)  评论(0编辑  收藏  举报
编辑推荐:
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
阅读排行:
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)
点击右上角即可分享
微信分享提示