08 2020 档案

摘要:之前对bert轻量化,显存占用减少一半。但是推理速度仍然没多大变化。因此 计划通过tensorRT完成模型的推理加速。 轻量化之前链接: https://www.cnblogs.com/dhName/p/12628828.html 1. 首先,了解一下tensorTR是干什么的,这篇文章写得很好。 阅读全文
posted @ 2020-08-20 22:00 _Meditation 阅读(1645) 评论(0) 推荐(0) 编辑
摘要:1. 首先,HMM是一种生成式模式,它通过对p(x,y)进行联合建模的过程。 他有两个假设,齐次一阶的markov;观测独立假设。 但是: 所以说,MEMM打破了观测独立性假设,通过引入了P(x|y)进行建模的判别式模型。 但是MEMM又有一个非常严重的问题,就是标注偏置问题。总的一句话就是:熵越低 阅读全文
posted @ 2020-08-14 10:16 _Meditation 阅读(245) 评论(0) 推荐(0) 编辑
摘要:支持向量机(SVM)必备知识(KKT、slater、对偶) https://blog.csdn.net/feilong_csdn/article/details/62427148 阅读全文
posted @ 2020-08-12 17:26 _Meditation 阅读(106) 评论(0) 推荐(0) 编辑
摘要:BERT 官方代码中的分类模型的损失函数叫做负对数似然函数(且是最小化,等价于最大化对数似然函数),数学表达式是: 至于为何要定义这样的损失函数,则是因为在实际使用中,常用逻辑回归模型去解决分类问题,当逻辑回归撞上平方损失,损失函数关于参数 非凸。所以,不是分类问题中不使用平方损失,而是逻辑回归不使 阅读全文
posted @ 2020-08-12 11:45 _Meditation 阅读(3716) 评论(0) 推荐(0) 编辑
摘要:private static byte[] readBytesFromFileInputStream(FileInputStream fis) throws IOException { FileChannel channel = fis.getChannel(); int fileSize = (i 阅读全文
posted @ 2020-08-09 13:17 _Meditation 阅读(290) 评论(0) 推荐(0) 编辑
摘要:有的时候可能需要持续输出某个进程在top命令中显示的信息,使用top命令的-b选项可以容易的将输出重定向到其他进程或者文件,配合-n选项指定top命令输出多少次就终止。 # file /tmp/1.sh #!/bin/bash echo " PID USER PR NI VIRT RES SHR S 阅读全文
posted @ 2020-08-07 15:29 _Meditation 阅读(3251) 评论(0) 推荐(0) 编辑
摘要:<plugin> <artifactId>maven-assembly-plugin</artifactId> <configuration> <!--这部分可有可无,加上的话则直接生成可运行jar包--> <!--<archive>--> <!--<manifest>--> <!--<mainCl 阅读全文
posted @ 2020-08-05 16:05 _Meditation 阅读(235) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示