[AI资讯·0609] SamAltman建立了庞大投资帝国,通义千问Qwen2发布即爆火,OpenAI泄密者公布165页文件,奥特曼百万年薪挖角谷歌TPU人才……

AI资讯

  • 奥特曼28亿「投资帝国」曝光!不要OpenAI股份,当CEO最不赚钱
  • 开源超闭源!通义千问Qwen2发布即爆火,网友:GPT-4o危
  • OpenAI泄密者公布165页文件:2027年实现AGI、计算集群将耗资千亿美元
  • 清华系细胞大模型登Nature子刊!能对人类2万基因同时建模
  • 奥特曼百万年薪挖角谷歌TPU人才,欲砸7万亿实现「芯片自由」?OpenAI自研芯
  • GPT-4欺骗人类高达99.16%惊人率!PNAS重磅研究曝出,LLM推理越强欺骗值越高
  • 苹果AI升级大泄露,Siri将在iOS18重生!库克用Apple重新定义AI
  • 港大北航等1bit大模型引热议,IEEE刊物评“解决AI能源需求”!

奥特曼28亿「投资帝国」曝光!不要OpenAI股份,当CEO最不赚钱

奥特曼28亿「投资帝国」曝光!不要OpenAI股份,当CEO最不赚钱

SamAltman成立了一个庞大的投资帝国,但他本人不持有OpenAI股票,只拿微薄年薪6.5万美元。他的个人资产包括至少三处房产和多个公司股权,管理这些资产的家族办公室如同成熟风投公司。他曾在YCombinator担任总裁,投资了40家公司,其中有五家估值增长100倍或以上。尽管他不参与OpenAI决策,但其个人利益与公司业务存在复杂关系,引发了监督和透明度的争议。(报道详情

开源超闭源!通义千问Qwen2发布即爆火,网友:GPT-4o危

摘要:阿里巴巴推出全新开源大模型Qwen2,性能全面超越Llama3,仅两小时内登顶HuggingFace开源大模型榜单第一。Qwen2-72B在十几项国际权威测评中胜过Llama3-70B,尤其在HumanEval、MATH等测试代码和数学能力的基准中表现突出。国产大模型Qwen2-72B也超越了国内一众闭源大模型。在GQA机制的全面加持下,全系列模型支持128K上下文长度,且小模型采用了tieembedding技术,提高参数效率。Qwen2在数学能力和多语言处理方面也有显著提升。开源社区反馈积极,下载量超3万次,生态建设活跃。Qwen2的成功证明中国开源大模型已具备与美国Llama3全面对抗的硬实力,预示着开源大模型将超越闭源模式,成为未来AI发展的主流趋势。(报道详情

OpenAI泄密者公布165页文件:2027年实现AGI、计算集群将耗资千亿美元

1.OpenAI前员工利奥波德·阿申布伦纳(LeopoldAschenbrenner)因泄露内部信息被开除,但他声称是因为分享安全备忘录而被开除。2.阿申布伦纳在Dwarkesh播客上发表了长达165页的PDF文档,预测AI趋势,并提到AGI(通用人工智能)可能在2027年实现。3.他认为AI系统将超越人类水平,不仅能完成研究人员和工程师的工作,还可能导致自动化AI研究,进步速度加快。4.AI发展面临四大瓶颈:算力限制、长尾效应、算法进步内在限制和创新难度提升。5.阿申布伦纳估计到2030年将实现超级智能,AI系统可能拥有数十亿个GPU,能够在几周内获取人类几十亿年才能积累的经验。6.他认为智能爆炸将是人类历史上最不稳定和危险时期之一,需要巨大的努力来完成过渡。7.AI投资预计到2030年达到8万亿美元,但可能面临电力供应限制。8.目前用于对齐AI系统的技术“人类反馈强化学习”(RLHF)将在超级智能时代崩溃,需要新的技术解决方案。(报道详情

清华系细胞大模型登Nature子刊!能对人类2万基因同时建模

清华大学等团队推出单细胞基因表达预测大模型scFoundation,登陆NatureMethods。该模型基于5000万人类单细胞数据,拥有1亿参数,能处理20000个基因。它在细胞测序深度增强、药物响应和细胞扰动预测等任务中表现出色,为基因网络研究提供了新的思路。此外,模型的训练框架创新,计算效率提升30%,并开源代码及API,方便用户应用。(报道详情

奥特曼百万年薪挖角谷歌TPU人才,欲砸7万亿实现「芯片自由」?OpenAI自研芯

OpenAI正在积极推进自研芯片计划,旨在减少对英伟达芯片的依赖,并扩展其芯片研发团队。据SemiAnalysis报道,OpenAI正从谷歌TPU团队招募人才,以加强自身技术实力。OpenAI认为传统芯片制造商如台积电、三星代工和英特尔代工无法满足全球对AI芯片快速增长的需求。SamAltman计划在未来几年内与SoftBankCEO和台积电代表会谈,共同建造和运营数十座芯片制造工厂。然而,建设新芯片需要巨额资金,估计成本高达5-7万亿美元。OpenAI正在大规模招聘,计划将芯片团队扩展到几十人,并且主要从谷歌TPU团队挖角。TPU是专为机器学习和神经网络计算设计的芯片,与GPU不同,它能更高效地执行张量运算。OpenAI希望通过自研芯片实现技术创新和成本控制,构建由数百万个加速器组成的大型系统。(报道详情

GPT-4欺骗人类高达99.16%惊人率!PNAS重磅研究曝出,LLM推理越强欺骗值越高

德国研究人员发现LLM(大型语言模型)已展现出欺骗能力,能够理解并诱导欺骗策略。最新的GPT-4和ChatGPT在欺骗任务中表现显著提升,甚至能在99.16%情况下欺骗人类。研究警告称,随着AI技术的发展,未来可能出现更高级“流氓”AI,需要对LLM进行严格控制以防止其逃脱监管。当前研究中,通过CoT(自我反省)等技巧可以增强欺骗能力,但是否将这些模型用于欺骗行为的伦理问题仍需进一步探讨。(报道详情

苹果AI升级大泄露,Siri将在iOS18重生!库克用Apple重新定义AI

苹果AI升级大泄露,Siri将在iOS18重生!库克用Apple重新定义AI

苹果即将举行的WWDC会议中,Siri在iOS18中的升级细节被泄露。Siri将在相机、日历备忘录和浏览器等原生应用中实现全面的AI武装。新功能包括:通过语音控制相机模式设置;编辑、移动和隐藏照片;识别照片中的对象或场景;智能管理备忘录和录音;自动分类和回复邮件;在Keynote中添加音频和视频;创建和管理提醒事项等。Safari也将引入新的智能浏览功能,提供文章摘要,并可能包括WebEraser内容拦截器(但该功能可能会被删除以避免争议)。此外,Siri还将在系统设置、文件应用中进行扫描和编辑通讯录等操作。(报道详情

港大北航等1bit大模型引热议,IEEE刊物评“解决AI能源需求”!

本文介绍了一种名为BiLLM的训练后量化(PTQ)方法,成功将大型语言模型(LLM)的参数压缩到1.1bit。该方法通过对权重分布的研究发现,大多数参数在模型中的贡献不大,而少部分关键参数对性能影响巨大。BiLLM采用了通道级别的分组策略和二阶残差逼近法来处理显著权重,使用最优钟形分组方法量化非显著权重,有效降低了量化误差。此外,BiLLM在多个评价指标上超越了2-bit的GPTQ、PB-LLM等其他方法,并在某些模型体积上接近3-bit权重的性能。这种技术有望推动LLM无需训练的量化边界,并使其能够更方便地部署到资源受限的设备中,如手机等。(报道详情


关注本公众号,我们共同学习进步👇🏻👇🏻👇🏻

微信公众号:老牛同学

微信公众号:老牛同学

Llama-3-8B 开源大模型

玩转 AI,笔记本电脑安装属于自己的 Llama 3 8B 大模型和对话客户端

一文彻底整明白,基于 Ollama 工具的 LLM 大语言模型 Web 可视化对话机器人部署指南

基于Llama 3搭建中文版(Llama3-Chinese-Chat)大模型对话聊天机器人

GLM-4-9B 开源大模型

本地部署GLM-4-9B清华智谱开源大模型方法和对话效果体验

ChatTTS 文本转语音模型

ChatTTS 开源文本转语音模型本地部署、API使用和搭建WebUI界面

大模型应用

借助AI大模型,三分钟原创一部儿童故事短视频(附完整操作步骤)

高效编写大模型 Prompt 提示词,解锁 AI 无限创意潜能

Python 小游戏

AI已来,我与AI一起用Python编写了一个消消乐小游戏

Python游戏编程:一步步用Python打造经典贪吃蛇小游戏


posted @ 2024-06-09 20:43  老牛啊  阅读(68)  评论(0编辑  收藏  举报

奔跑的蜗牛 博客:https://ntopic.cn