摘要: 对于一个深度学习神经网络来说,其通常包含很多卷积层,用于不断提取目标的特征,或对目标进行最终定位或者分类。 1 数据存储精度与存储空间 在深度学习神经网络中,最常见的数据格式是float32,占4个字节(Byte)。类似地,float16,占2个字节。1024个字节为1KB,1024x1024个字节 阅读全文
posted @ 2023-06-22 23:32 China Soft 阅读(421) 评论(0) 推荐(0) 编辑
摘要: 作者:transformer链接:https://www.zhihu.com/question/507525712/answer/2280236067来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 通过下面这张图可以看看SBERT在语义匹配这一块的地位(见红色标记部分 阅读全文
posted @ 2023-06-22 13:17 China Soft 阅读(143) 评论(0) 推荐(0) 编辑
摘要: 前言 Huggingface的Transformers库是一个很棒的项目,该库提供了用于自然语言理解(NLU)任务(如分析文本的情感)和自然语言生成(NLG)任务(如用新文本完成提示或用另一种语言翻译)的预先训练的模型。其收录了在100多种语言上超过32种预训练模型。这些先进的模型通过这个库可以非常 阅读全文
posted @ 2023-06-22 12:43 China Soft 阅读(175) 评论(0) 推荐(0) 编辑
摘要: transformers库的使用使用pipeline API来快速使用一些预训练模型 使用预训练模型最简单的方法就是使用pipeline(),transformers提供了一些任务: 1、情感分析(Sentment analysis):分析文本是正面的还是负面的2、文本生成(in English): 阅读全文
posted @ 2023-06-22 12:41 China Soft 阅读(287) 评论(0) 推荐(0) 编辑
摘要: sentence-transformers(SBert)中文文本相似度预测(附代码) https://blog.csdn.net/weixin_54218079/article/details/128687878 https://gitee.com/liheng103/sbert-evaluate 阅读全文
posted @ 2023-06-22 11:17 China Soft 阅读(908) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/m0_47256162/article/details/129380499 Sentence Transformer是一个Python框架,用于句子、文本和图像嵌入Embedding。 这个框架计算超过100种语言的句子或文本嵌入。然后,这些嵌入可以进行比 阅读全文
posted @ 2023-06-22 11:11 China Soft 阅读(518) 评论(0) 推荐(0) 编辑