上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 98 下一页
摘要: 通过量化可以减少大型语言模型的大小,但是量化是不准确的,因为它在过程中丢失了信息。通常较大的llm可以在精度损失很小的情况下量化到较低的精度,而较小的llm则很难精确量化。 什么时候使用一个小的LLM比量化一个大的LLM更好? 在本文中,我们将通过使用GPTQ对Mistral 7B、Llama 27 阅读全文
posted @ 2024-03-11 11:06 deephub 阅读(31) 评论(0) 推荐(0) 编辑
摘要: Nomic-embed-text是2月份刚发布的,并且是一个完全开源的英文文本嵌入模型,上下文长度为8192。它在处理短文和长文本任务方面都超越了现有的模型,如OpenAI的Ada-002和text-embedding-3-small。该模型有137M个参数在现在可以算是非常小的模型了。 模型、训练 阅读全文
posted @ 2024-03-10 10:27 deephub 阅读(111) 评论(0) 推荐(0) 编辑
摘要: 将LLM集成到项目所花费的成本主要是我们通过API获取LLM返回结果的成本,而这些成本通常是根据处理的令牌数量计算的。我们如何预估我们的令牌数量呢?Tokeniser包可以有效地计算文本输入中的令牌来估算这些成本。本文将介绍如何使用Tokeniser有效地预测和管理费用。 大语言模型(如GPT)中的 阅读全文
posted @ 2024-03-09 09:45 deephub 阅读(4) 评论(0) 推荐(0) 编辑
摘要: GitHub CoPilot拥有超过130万付费用户,部署在5万多个组织中,是世界上部署最广泛的人工智能开发工具。使用LLM进行编程辅助工作不仅提高了生产力,而且正在永久性地改变数字原住民开发软件的方式,我也是它的付费用户之一。 低代码/无代码平台将使应用程序创建、工作流自动化和数据分析更加广泛的应 阅读全文
posted @ 2024-03-08 10:54 deephub 阅读(116) 评论(0) 推荐(0) 编辑
摘要: MQA 是 19 年提出的一种新的 Attention 机制,其能够在保证模型效果的同时加快 decoder 生成 token 的速度。在大语言模型时代被广泛使用,很多LLM都采用了MQA,如Falcon、PaLM、StarCoder等。 在介绍MQA 之前,我们先回顾一下传统的多头注意力 Mult 阅读全文
posted @ 2024-03-07 09:44 deephub 阅读(30) 评论(0) 推荐(0) 编辑
摘要: Hawk和Griffin是DeepMind推出的新型循环神经网络(RNNs),2月刚刚发布在arxiv上。Hawk通过使用门控线性递归(gated linear recurrences)超越了Mamba的性能,而Griffin则是一种混合型模型,结合了门控线性递归和局部注意力(local atten 阅读全文
posted @ 2024-03-06 10:58 deephub 阅读(20) 评论(0) 推荐(0) 编辑
摘要: 在本篇文章中我们将介绍如何开发一个深度学习模型来检测人工智能生成的图像 大多数用于检测人工智能生成图像的深度学习方法取决于生成图像的方法,或者取决于图像的性质/语义,其中模型只能检测人工智能生成的人、脸、汽车等特定对象。 但是这篇论文“Rich and Poor Texture Contrast: 阅读全文
posted @ 2024-03-05 10:27 deephub 阅读(13) 评论(0) 推荐(0) 编辑
摘要: 2017年推出《Attention is All You Need》以来,transformers 已经成为自然语言处理(NLP)的最新技术。2021年,《An Image is Worth 16x16 Words》,成功地将transformers 用于计算机视觉任务。从那时起,许多基于trans 阅读全文
posted @ 2024-03-04 10:42 deephub 阅读(18) 评论(0) 推荐(0) 编辑
摘要: TensorRT-LLM是一个由Nvidia设计的开源框架,用于在生产环境中提高大型语言模型的性能。该框架是基于 TensorRT 深度学习编译框架来构建、编译并执行计算图,并借鉴了许多 FastTransformer 中高效的 Kernels 实现,并且可以利用 NCCL 完成设备之间的通讯。 虽 阅读全文
posted @ 2024-03-03 10:08 deephub 阅读(61) 评论(0) 推荐(0) 编辑
摘要: 在某些情况下,我们需要用Pytorch做一些高级的索引/选择,所以在这篇文章中,我们将介绍这类任务的三种最常见的方法:torch.index_select, torch.gather and torch.take 我们首先从一个2D示例开始,并将选择结果可视化,然后延申到3D和更复杂场景。最后以表格 阅读全文
posted @ 2024-03-02 13:55 deephub 阅读(2) 评论(0) 推荐(0) 编辑
上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 98 下一页