摘要:
选择判断题 标记题干关键词(特别是否定词),避免答错方向(要求选出错误的选项,答成正确的) 选择题: 在得出你认为正确的答案,也要看一下其他选项,也许有更正确的答案:) 对于不会的问题,可以对比不同选项之间的差异,从出题人角度思考可能得答案,以及肯定不对的答案,用排除法提升概率 程序题有时间和允许的 阅读全文
摘要:
作者:爱可可-爱生活链接:https://zhuanlan.zhihu.com/p/665119618来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 要点: 探索了大型语言模型是否能理解和利用心理情感刺激来增强自身,这是人类智能的一个重要方面。 提出“EmotionP 阅读全文
摘要:
RAFT:Reward rAnked FineTuning for Generative Foundation Model Alignment 给一批Prompt,先让大模型生成对每一个prompt生成一个answer,然后让RM去给这些prompt-answer对进行打分,把得分高的选出来用于Fi 阅读全文
摘要:
https://blog.csdn.net/weixin_72060925/article/details/128145585 阅读全文
摘要:
常见解题方法 捆绑法 相邻的元素必须排在一起,不能分开,可以几个相邻元素捆绑成一个元素参与排列 例题1 A,B,C,D,E 五人并排站成一排,如果A,B必须相邻,则不同的排法有多少种? 分析 把A,B视为一人,与其他3人参与排列,则相当于4人的全排列,A(4,4)=24种 A和B内部顺序可以变化,A 阅读全文
摘要:
时间复杂度 递归求斐波那契数列时间复杂度:O(2^n) 递归树分析 节点单一子问题代价:函数执行过程中,除去递归调用以外的代价 比如: int fib(int n){ if(n==1 || n==2){//前2项直接返回 return 1; } return fib(n-1)+fib(n-2);// 阅读全文
摘要:
开源大模型火爆,已有大小羊驼LLaMA、Vicuna等很多可选。 但这些羊驼们玩起来经常没有ChatGPT效果好,比如总说自己只是一个语言模型、没有感情blabla,拒绝和用户交朋友。 归根结底,是这些模型没有ChatGPT那么对齐(Alignment),也就是没那么符合人类用语习惯和价值观。 为此 阅读全文
摘要:
以前有人问我“书读了很多之后,但是其中内容都忘记了,那么读书的价值何在呢?” 我说:“训练数据在训练完模型之后就可以删掉了,只要权值文件和网络结构保存好即可” 死记硬背是没有用的,因为死记硬背是一种过拟合的能力,而一个好的机器学习模型应该是泛化性能比较好的,所以好的教育应该是培养一个人举一反三的能力 阅读全文
摘要:
John Schulman,研究科学家、OpenAI联合创始人;加州大学伯克利分校计算机科学博士,师从Pieter Abbeel。现领导OpenAI强化学习团队。 本文是对John Schulman(下文中简称为JS)的报告《Reinforcement Learning from Human Fee 阅读全文
摘要:
关键结论: 开源社区模型不具备真正智能,更好的小模型来自大模型的 Scale Down GPT-4模型信息:采用MoE架构,16个experts,800b参数 如何减少幻觉 hallucination?scaling/retrieval/reward model 指令遵循的开源小模型被过度炒作,已经 阅读全文