AIGC我们如何行动?
1、什么是AGI?
看清楚不是GAI也不是AIGC。
AGI是Artificial General Intelligence的缩写,中文应该是“通用人工智能”,是指一种能够像人类一样思考、学习和执行多种任务的人工智能系统。我觉得这个词就是为了有别于“特定领域人工智能”而创造出来的。
因此,AGI可以视为一种更高级别的人工智能,是当前人工智能技术发展的一个重要方向和目标。但由于其在技术和理论方面的挑战,它仍然是一个较为遥远的目标。Chatgpt也还不能被称为AGI,至少它还不会画画。
2、思考每个岗位和AGI的关系?
3、技术人应该如何行动?
4、国内的大模型厂商有哪些?
5、大模型的生产链条是什么样的?
大模型的训练是 数据、算力、算法的协同最佳实践。全世界在抢英伟达的卡,但即使有了卡,背后需要解决很多复杂的工程问题,如集群训练的专用高效网络,对性能的要求,计算资源、传输资源的平衡,和模型的配合等,并不是有钱就能堆出来的。
所以大模型基座注定是少数巨头的竞争,门槛成本高,更多人的机会在领域模型。
6、大模型的应用方式?
7、数字技术人才的井型模型 ?
人才能力模型:是为了考察人才的胜任力的?
胜任力模型:T型人才能力模型, π 型(融会贯通的复合型人才),井型人才能力模型。
讲了下新时代人才要求的变化,从 T 型(专精)到 π 型(融会贯通的复合型人才)再到井型(π 型的基础上再加上数字化时代的软性技能和数字技能),总之就是越来越卷了😂
8、大模型时代研发范式变化?
ChatGPT 的核心及局限性
- 数据标注很重要,OpenAI 最优秀的人才投在了数据标注这块,国内找三四线城市人标注,OpenAI 找高级知识分子标注数据。
- OpenAI 20 多个部门,每个部门把一个点做精。如何构建内部高质量的数据集?
- OpenAI 为什么要闭源 => 可能有很多 trick,花大量的时间来发掘,但不具备核心技术壁垒,要藏起来。
- 输出不可控问题,内容安全问题,目前都还是没有比较完美的解决方案(也造成了国内不好做 toC 场景)
中国大模型的问题
- 从商业本质来说,大模型要有应用出口,建立生态,并且带来商业利润。大模型本身投入非常高。GPT3 训练一次 1800W 美金,ChatGLM 部署在 4090 上只能支持 10 个并发。
- 万卡公司屈指可数,一共 20W 张 A100,跟 OpenAI 差不多,短期内难解决。万卡工程化人才少,并卡后准确性大幅下降
- 中文数据质量差
- Open AI 选择先从 toC 引爆热度,根据用户反馈不断调优,扩大领先优势。国内第一家开放给大众使用的大模型,也可能具有飞轮效应
LLM 在工作和产品中的应用
不同体量的企业对 LLM 的应用方式不同。小企业一般会 找跟现金流挂钩的落地场景。部分公司为了节省成本,批量注册账号白嫖 API(免费额度)。
落地 LLM 过程中踩的坑
- 人才很缺
- 被下架(政策原因):国内做 toB,出海做 toC,政策不明朗。国内政策风险无法预测。
- 用开源社区模型的路受阻,宣称的逼近还是有很大距离。远远达不到效果。应该两条路并行,先用最好的东西看看能不能做到天花板,再用私有化的路。
快速抓住机会,ChatDoc 国人开发,快速上线,如今月流水 30W
9、如何做好技术演讲?
- 单点切入,循序渐进,不追求大而全
- 不要只摆大图,搞成汇报。也不要太干,全是技术细节,搞成技术教学
- 主题内核很重要,不要为了一叠醋包一盘饺子
- 优质的案例现场演示能极大增强听众的印象和认可度
作者:
丹江湖畔养蜂子的赵大爹
出处:http://www.cnblogs.com/honeybee/
关于作者:丹江湖畔养蜂子的赵大爹
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文链接