摘要: 对笔记本这种小屏设备是个大好消息, 因为这样可以有效规避之前必须要使用鼠标上下左右拖动来查看ai给的代码建议了,美妙的感觉~ 步骤: 使用autohotkey扩展VSCode跨双屏显示: +#Up:: { Title := WinGetTitle("A") WinRestore(Title) X1 阅读全文
posted @ 2024-08-16 01:25 AI健康 阅读(75) 评论(0) 推荐(0) 编辑
摘要: 我来为您翻译这个关于Cursor大型项目指南的完整论坛帖子: 白痴也能懂的大型项目指南 警告:这是一篇超长文章! 预计阅读时间:约6分钟,或者说是您生命的0.000014%。 如果您已经使用Cursor一段时间,并开始涉足更复杂的项目,您几乎肯定会遇到保持项目正轨的挑战。 这当然不是Cursor特有 阅读全文
posted @ 2024-11-20 15:54 AI健康 阅读(0) 评论(0) 推荐(0) 编辑
摘要: 可以直接拿来就用的模型通常被称为“即用型模型”(Ready-to-Use Models)或“预训练模型”(Pre-Trained Models)。这些模型已经被训练好了,用户可以直接下载并应用于自己的任务,而无需进行额外的训练。即用型模型通常具有以下特点: 预训练:模型在大规模的数据集上进行了预训练 阅读全文
posted @ 2024-04-15 15:04 AI健康 阅读(28) 评论(0) 推荐(0) 编辑
摘要: 是的,人工智能大模型也可以根据它们的训练阶段和使用方式来分类。以下是根据模型的阶段性来区分的一些类别: 预训练模型: 这些模型在大规模数据集上进行训练,以学习通用的特征表示。预训练可以是无监督的(如使用自编码或生成对抗网络),也可以是有监督的(如在大型标注数据集上进行训练)。 例子包括GPT系列、B 阅读全文
posted @ 2024-04-15 15:02 AI健康 阅读(98) 评论(0) 推荐(0) 编辑
摘要: 人工智能大模型可以根据不同的维度进行分类,以下是一些主要的分类方式: 按照模型架构分类: 深度神经网络(DNNs):包括多层感知机(MLPs)、卷积神经网络(CNNs)、循环神经网络(RNNs)、长短期记忆网络(LSTMs)和门控循环单元(GRUs)。 Transformer模型:如BERT、GPT 阅读全文
posted @ 2024-04-15 15:00 AI健康 阅读(813) 评论(0) 推荐(0) 编辑
摘要: 最初以为直接在Win7上安装VS Code,然后在上面安装GitHub的Code Copilot就足够了,然而我很快发现VS Code已经不支持Win7了。 既然我已经付款,那在网站上使用总该可以吧?但GitHub不支持个人在网站上使用,必须是企业用户;对于桌面端,它目前只支持自家的VSCode。 阅读全文
posted @ 2024-03-03 22:06 AI健康 阅读(236) 评论(0) 推荐(1) 编辑
摘要: 用AI大语言模型学习经典:了凡四训第一章《立命之学》的疑问和重点 阅读全文
posted @ 2023-12-21 11:42 AI健康 阅读(23) 评论(0) 推荐(0) 编辑
摘要: chatGPT回答: 要将安心和不夹杂作为近期的培养习惯,你可以按照以下步骤来计划和落实: 1. 设定明确的目标:确定想要达成的具体目标,比如每天花30分钟进行冥想或放松训练,或者每天保留一段时间专注于自己的内心感受。 2. 制定行动计划:具体规划每天的行动,确保给自己足够的时间和空间来实践安心和不 阅读全文
posted @ 2023-11-24 09:44 AI健康 阅读(4) 评论(0) 推荐(0) 编辑
摘要: 键盘 BOW-K670D 场景1. 2台windows 通过mouseWithoutBorder 共享键鼠 问题:用snipaste截图写入文字时,不能输入c键。。 解决办法:用笔记本自带键盘输入c键 场景2:ssh到linux服务器,使用tmux切换pane 问题:某些键不能用(前段时间遇到,目前 阅读全文
posted @ 2023-11-16 11:06 AI健康 阅读(50) 评论(0) 推荐(0) 编辑
摘要: 对,使用更多计算时间来弥补模型训练中的算力不足是可行的。主要有以下几点建议: 1. 适当减小batch size,这样每次迭代的计算量会减少,可以用更长的时间去迭代达到收敛。但是batch size不要设置过小,太小会使训练效率降低。 2. 适当减小模型参数量,例如减少隐层单元数、降低嵌入维度等,可 阅读全文
posted @ 2023-08-03 00:01 AI健康 阅读(71) 评论(0) 推荐(0) 编辑