摘要: 正确率 sklearn.metrics.precision_score 准确率 sklearn.metrics.accuracy_score(y_true, y_pred, *, normalize=True, sample_weight=None)[source]¶ Accuracy classi 阅读全文
posted @ 2023-09-04 15:40 dmesg 阅读(10) 评论(0) 推荐(0) 编辑
摘要: BCEWithLogLoss(Binary Cross Entropy with Log Loss)和BCE(Binary Cross Entropy)是两种常用的二分类损失函数,它们的区别主要在于损失函数的形式和计算方式上。 BCEWithLogLoss 是基于对数损失函数的二分类损失函数。它的计 阅读全文
posted @ 2023-08-24 14:16 dmesg 阅读(470) 评论(0) 推荐(0) 编辑
摘要: GroupBy.apply(func, *args, **kwargs)[source] Apply function func group-wise and combine the results together. The function passed to apply must take a 阅读全文
posted @ 2022-02-24 15:02 dmesg 阅读(260) 评论(0) 推荐(0) 编辑
摘要: bert结构 首先是embdding lookup,【batch * seq】-->[batch, seq, hidden] 然后是加个mask embdding和type embdding和postion embdding作为最终 然后到transformers,transformers是24层的 阅读全文
posted @ 2020-04-17 17:28 dmesg 阅读(178) 评论(0) 推荐(0) 编辑
摘要: 最近看了下pytorch的数据读取接口,一个dataset,一个dataloader。相比tf的话,可以说抽象的好一些,但是tf的话封装集成的好一些。 pytorch的话适合小数据集合的快速开发和实验。tf的话,更侧重工业级一点,一次调通之后,以后不需要经常变,性能的收益是比较好的。另外tf的生态好 阅读全文
posted @ 2020-04-17 14:27 dmesg 阅读(134) 评论(0) 推荐(0) 编辑
摘要: 抛砖引玉,先根据特征值group by,统计每个特征值出现次数,然后reduce到一个文件,根据一个文件来统计吧,毕竟,你知道多个桶,那么每个桶多少个样本就是确定了,数数,数到一个桶样本的时候停止,就是一个阈值呗 阅读全文
posted @ 2018-11-15 19:36 dmesg 阅读(367) 评论(0) 推荐(0) 编辑
摘要: 某厂人多势众,自己造轮子,不用开源,于是可苦了外来人,外来所有积累的经验都没有用了,同时在这个厂积累的经验到外面又没啥用。呵呵 自己造的轮子,文档极少,遇到坑了只能找客服,客服毛个态度,爱管不管,没法子啊,又不给资源,用不了开源,这个坑只能自己一点一点趟。 需要在某个o平台上用t库,但是o平台自带的 阅读全文
posted @ 2018-11-13 11:18 dmesg 阅读(130) 评论(0) 推荐(0) 编辑
摘要: 1,可以dump成json 用dump_model() 2,写了个c++程序,但是集成到系统会有问题 阅读全文
posted @ 2018-08-05 22:19 dmesg 阅读(394) 评论(0) 推荐(0) 编辑
摘要: 1,在没有过拟合表现的情况下,使用防止过拟合方法有多大效果 阅读全文
posted @ 2018-04-18 14:35 dmesg 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 踩过的坑1 报错,sequence_loss的报错,说batch_size不一样,类似sequence_loss/SparseSoftmaxCrossEntropyWithLogits/SparseSoftmaxCrossEntropyWithLogits 追查记录: 1,sof查该错误,有人出类似 阅读全文
posted @ 2018-04-17 19:17 dmesg 阅读(586) 评论(0) 推荐(0) 编辑