上一页 1 ··· 13 14 15 16 17 18 19 20 21 ··· 61 下一页
  2023年11月20日
摘要: . 阅读全文
posted @ 2023-11-20 14:54 黑逍逍 阅读(19) 评论(0) 推荐(0) 编辑
  2023年11月19日
摘要: 会让你选择虚拟环境 右下角就有 结果了 阅读全文
posted @ 2023-11-19 14:03 黑逍逍 阅读(6) 评论(0) 推荐(0) 编辑
  2023年11月14日
摘要: 开源的大模型 下载又是github 又是申请账号,可能还有代理的问题。 下载的模型是pth,还不能用,还要转换成huggingface格式。 所以直接从huggingface下载就完事了 阅读全文
posted @ 2023-11-14 23:35 黑逍逍 阅读(42) 评论(0) 推荐(0) 编辑
摘要: 什么是大模型 "大模型"通常指的是深度学习中参数数量庞大、层数深厚的神经网络模型。这些模型具有数十亿甚至上百亿的参数,通常需要大量的计算资源来进行训练和推断。这种规模的模型在处理复杂任务时表现得很出色,因为它们能够从大量的数据中学到更复杂、更抽象的表示。 例如,GPT-3(Generative Pr 阅读全文
posted @ 2023-11-14 22:48 黑逍逍 阅读(182) 评论(0) 推荐(0) 编辑
摘要: . 阅读全文
posted @ 2023-11-14 16:57 黑逍逍 阅读(2) 评论(0) 推荐(0) 编辑
摘要: 参考文献:保姆级教程,用PyTorch和BERT进行文本分类 - 知乎 (zhihu.com) 模型地址:https://huggingface.co/bert-base-cased 结果是BaseModelOutput对象: BaseModelOutput 类型是 Hugging Face Tra 阅读全文
posted @ 2023-11-14 09:54 黑逍逍 阅读(154) 评论(0) 推荐(0) 编辑
  2023年11月13日
摘要: 过拟合(Overfitting): 定义: 过拟合指的是模型在训练数据上表现很好,但在新数据上表现较差的情况。模型过于复杂,可能捕捉了训练数据中的噪声或特定的样本特征,而这些特征并不代表整体的数据分布。 原因: 过拟合通常发生在模型复杂度较高、参数过多或者训练数据不足的情况下。模型可能过分记住了训练 阅读全文
posted @ 2023-11-13 22:38 黑逍逍 阅读(29) 评论(0) 推荐(0) 编辑
摘要: 重新在写 阅读全文
posted @ 2023-11-13 09:57 黑逍逍 阅读(1848) 评论(0) 推荐(0) 编辑
  2023年11月12日
摘要: 论文:https://arxiv.org/abs/1810.04805 参考文献:自然语言处理中的Transformer和BERT - 知乎 (zhihu.com) 定义: BERT(Bidirectional Encoder Representations from Transformers)是一 阅读全文
posted @ 2023-11-12 23:31 黑逍逍 阅读(53) 评论(0) 推荐(0) 编辑
  2023年11月10日
摘要: 在机器学习中,模型评估有很多不同的指标,具体的选择通常取决于你解决的问题的性质(例如分类、回归等)以及你关心的特定性能方面。以下是一些常见的模型评估指标: 分类问题指标: 在二分类问题中,"正类别"通常指的是模型预测为正例的类别。在一个二分类问题中,我们通常将其中一个类别标记为正例(Positive 阅读全文
posted @ 2023-11-10 13:41 黑逍逍 阅读(15) 评论(0) 推荐(0) 编辑
上一页 1 ··· 13 14 15 16 17 18 19 20 21 ··· 61 下一页