摘要: 最近在玩谷歌新开源的自然语言模型bert,最开始是在google的免费GPU上面来弄的(这个部分其实也是可以写一个教程的,中间坑也挺多)。但谷歌比较坑人,小数据集还行,大点的数据集训练耗费时间长,再加上网络不稳定总掉线,训练一个上万的数据集断断续续的用了一天时间。改用在本地的linux服务器上来训练 阅读全文
posted @ 2019-03-15 11:29 zxyza 阅读(6390) 评论(0) 推荐(0) 编辑