对训练集中的数据做随机抽样,并对抽样出的数据可视化观察分布情况
(1)语料库中56万条数据,分为14个类别
(2)现在训练模型,采样率设定为0.01,即5600条样本
(3)观察用于模型训练数据的分布
1 def load_data(file_name, sample_ratio=1, n_class=15, names=names, one_hot=True): 2 '''load data from .csv file''' 3 csv_file = pd.read_csv(file_name, names=names) 4 # 对56万条数据做随机采样,获取其中的100分之1 5 shuffle_csv = csv_file.sample(frac=sample_ratio) 6 x = pd.Series(shuffle_csv["content"]) 7 y = pd.Series(shuffle_csv["class"]) 8 if one_hot: 9 y = to_one_hot(y, n_class) 10 11 # 看一下y值数据的分布 12 y_dist = Counter(y.values) 13 sample = [] 14 label = [] 15 for i in range(14): 16 label.append(i+1) 17 sample.append(y_dist[i+1]) 18 plt.bar(label, sample) 19 plt.show() 20 21 return x, y
展示:
思考:模型训练的数据不是越多越好吗?何况使用深度学习模型,那作者为什么不不同56万条,而是用5600条训练模型。如果可以达到效果,那么说,对于小容量的数据集,也可以得到一个很好的模型。可以拭目以待。
时刻记着自己要成为什么样的人!
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)