OpenAI 董事会宫斗始作俑者?一窥伊尔亚·苏茨克维内心世界
OpenAI 董事会闹剧应该是暂告一个段落了,Sam Altman和Greg Brockman等一众高管均已加入微软,还有员工写联名信逼宫董事会的戏码,关注度已经降下来了。
但是,这场宫斗闹剧的中心人物Ilya Sutskever大家关注度不算太高。他本人是纯粹的技术男,极少抛头露面透露其内心世界。我看一些评论,居然用他的面相来否定他在OpenAI的贡献,有点匪夷所思。今天刷到一个Ilya的TED演讲,还回顾了之前黄仁勋对他的专访,看完之后对他对“走向多元的、热爱人类的AGI”对追求有了一些理解。希望以下内容,也能让屏幕前的你对Ilya有更多元的了解。
生平
伊尔亚·苏茨克维(Ilya Sutskever),俄罗斯出生,5岁移民以色列,以色列开发大学期间随家人移民加拿大并转学多伦多大学。他拿到了数学理学学士学位、计算机科学硕士学位、哲学博士学位、计算机博士学位。他的博士生导师是Geoffrey Hinton(图灵奖得主、深度学习之父)。随后他还在斯坦福大学跟随吴恩达做了2个月的博士后。
苏茨克维对深度学习领域做出多项重大贡献:他与Alex Krizhevsky和Geoffrey Hinton是卷积神经网络AlexNet的共同发明人,也是AlphaGo论文的众多作者之一。
2013年他加入谷歌,担任谷歌大脑研究科学家,2015年离开,与Sam Altman、Greg Brockman一起创办了OpenAI。
演讲
这是今年十月Ilya在TED的演讲,我做了简单翻译并重新压制了视频。
演讲中Ilya的核心观点如下:
一、人工智能技术已经在快速发展,计算机已经开始能够理解人类语言并进行对话,未来计算机的智能水平很可能会超过人类。
二、具备通用智能(AGI)的计算机将会带来深远的影响,它能够取代人类在许多领域的工作,如医疗领域。
三、AGI也将面临安全性问题,如计算机是否会有自我学习和发展的能力,是否可能会转变为有害的。
四、开展人工智能研究的团队都开始意识到人工智能技术的影响力及风险性,在技术进步的同时也加强安全研究,推动不同机构和公司之间的合作,以应对未来挑战。
五、随着人工智能技术不断成熟并被大众使用,人们对这个技术的认识也将越来越深入,预计将促进不同团队和国家在这个问题上的合作,以克服人工智能可能带来的挑战。Ilya寄希望于通过广泛合作,人们能够很好地把控并利用人工智能。
专访
3月23日,英伟达GTC 线上大会发起了一场特别活动,公司创始人兼CEO黄仁勋与OpenAI联合创始人及首席科学家伊尔亚-苏茨克维(Ilya Sutskever)展开了一次“炉边谈话”。
这场对话中,有几个问题我印象比较深刻:
1、黄仁勋:你最初关注和聚焦人工智能领域的出发点是什么?
Ilya:我关注在人工智能深度学习方面的初心,是我们人类对于各种问题,都有一定的直觉性的理解。对于人类意识的定义,以及我们人类的智力是如何完成这样的预判,这是我特别感兴趣的地方。
2、黄仁勋:GPT-4现在还有什么样缺陷,可以在接下来的版本上更进一巩固吗?
伊尔亚-苏茨克维:现在的ChatGPT可以更精准地的定义逻辑和推理,通过更好的逻辑和推理在接下来的解密的过程中获得更好的答案。神经网络或许会面临一些挑战,比如让神经网络去打破固有的思维模式,这就意味着我们要思考神经网络到底可以走多远,简而言之,神经网络的潜力有多大。
我们认为GPT的推理确实还没有达到我们之前预期的水平,如果我们更进一步扩大数据库,保持过去的商业运转模型,它的推理的能力会进一步提高,我对这个比较有信心。
3、黄仁勋:是的,这也是我们在不断展望的未来中去思考的事情,相信总有一天,AI能够自己去生成内容、进行自我学习,并且可以自我改善。你是否可以总结一下我们现在处于什么样的发展阶段?以及在不远的将来,我们的生成式AI能够达到什么样的情况?对于大语言模型,它的未来是什么?
伊尔亚-苏茨克维:对我来说,预测未来是很困难的。我们能做的就是把这件事,持续做下去,我们将会让大家看到更多令人感到惊艳版本的系统。我们希望能够去提高数据的可靠度,让系统真正能够获得人们的信任。如果让生成式的AI去总结某一些文本,然后得出一个结论。目前AI在解读这个文本过程中,还没有完全去验证文本的真实性以及文本所说的信息的来源,这一点是很重要的。接下来我们对于未来的展望,就是让神经网络必须要意识到所有数据来源的真实性,让神经网络意识到用户每一步的需求。
语录
我还顺手翻看了Ilya近一年的推特,发现他还有很多内心柔弱的瞬间:
1、if you value intelligence above all other human qualities, you’re gonna have a bad time
如果你把智力看得比其他人类品质更重要,那你的日子就会很糟糕
2、Ego is the enemy of growth
自我是成长的敌人
3、Empathy in life and business is underrated
生活和商业中的同理心被低估
4、The perfect has destroyed much perfectly good good
完美毁掉了很多完美的好
5、I feel blessed and grateful to be working with my colleagues
我对与同事们一起工作感到幸福和感激
6、It’s a mistake to let an uncertain future ruin the present
让不确定的未来毁掉现在是错误的
7、Great Potential: You!
巨大的潜力:你!
8、Wrong motivation -> wrong results
错误的动机→错误的结果
9、Criticizing a decision is, to a first order approximation, 100x easier than making one
从一阶近似来看,批评一个决定比做出一个决定容易 100 倍
10、Beware of ideas that, as a consequence of believing in them, make you feel superior to other people
谨防那些因为相信而让你感觉自己比其他人优越的想法
11、Beware of ideas that, as a consequence of believing in them, make you feel superior to other people
谨防那些因为相信而让你感觉自己比其他人优越的想法
12、A one sentence articulation (of existing ideas) for why AI alignment need not be straightforward: humans can lie, hide their intent (alignment), and do so for years. Why not AGI? This can be hard to detect.
用一句话(现有的想法)阐明了为什么人工智能对齐不需要简单明了: 人类可以撒谎、隐藏自己的意图(结盟),并且可以持续多年。为什么不是AGI?这可能很难被发现。
13、The meaning of life is neural net training (parenting is a special case)
生命的意义在于神经网络训练 (养育是一种特殊情况)
14、One of life’s great pleasures is to work with brilliant and kind colleagues
人生一大乐趣就是与才华横溢、友善的同事一起工作
15、All you need is to be less perplexed
你所需要的只是少一些困惑
16、Many believe that great AI advances must contain a new “idea”. But it is not so: many of AI’s greatest advances had the form “huh, turns out this familiar unimportant idea, when done right, is downright incredible”
许多人认为,伟大的人工智能进步必须包含新的“想法”。但事实并非如此:人工智能的许多最伟大的进步都是这样的形式:“嗯,事实证明,这个熟悉的不重要的想法,如果做得正确,是完全令人难以置信的”
17、Denial is a hell of a drug
否认是一剂地狱药
18、If an explanation is long, there’s a high chance that it’s wrong
如果解释很长,那么很可能是错误的
19、Happy new year! May all our AGIs love humanity
新年快乐!愿我们所有的 AGI 都热爱人类
参考: