OpenAI的首席执行官SamAltman在其官方播客中分享了关于GPT-5、Stargate项目以及下一代AI硬件的更多细节。他探讨了AI在育儿、教育中的应用,以及AGI对社会结构的潜在影响,并讨论了AI记忆、个性化与隐私的复杂关系。Altman还介绍了OpenAI的硬件计划,这些计划可能彻底改变人机交互方式。
6月19日,OpenAI官方发布了首期播客节目,CEOSamAltman首次系统回应了关于GPT-5推进节奏、Stargate项目、下一代AI终端设备开发、模型记忆能力争议,以及AGI到来后社会结构演变的系列问题。
Altman以“一个新手父亲”的身份谈及AI在育儿和教育中的真实使用体验,也以企业决策者的视角,揭示OpenAI正面临的核心抉择:如何在技术跃迁、隐私边界与信任结构之间维持平衡。
“我的孩子永远不会比AI更聪明,但他们会成长得比我们这一代强太多。”Altman在节目中坦言,这一代孩子将在AI全方位渗透的世界中长大,他们对智能系统的依赖、理解与互动能力,将像上一代人习惯智能手机一样自然。而ChatGPT等模型在家庭陪伴与知识启蒙上的新角色,已为育儿、教育、工作与创造力发展开启新的范式。
AI正成为下一代的成长环境
Altman提到,尽管社会尚未形成统一定义,但“每年会有越来越多的人认为我们已经达到了AGI系统”。在他看来,公众对硬件和软件的需求变化极其迅速,而当前的计算能力尚远不能满足潜在需求。
当对话转向Altman的新晋父亲身份时,他坦言ChatGPT在育儿初期提供了巨大帮助。“虽然很多人在没有ChatGPT的时代也能把孩子带好,但我不确定我能不能做到。”在度过了最初几周的“每件事都要问”的阶段后,他逐渐将问题聚焦在婴儿发育节奏与行为习惯上。他指出,这类AI工具已开始在育儿中承担起“信息中介”与“信心赋能者”的角色。
不仅如此,Altman也在思考AI对下一代成长路径的影响。他直言,“我的孩子永远不会比AI更聪明,但他们会成长得比我们这一代人强太多”,并强调这代孩子将天然成长于一个AI无处不在的环境中,对AI的依赖与交互将像智能手机之于过去十年一样自然。
Altman分享了一段在社交媒体上流传的故事:一位父亲为避免重复向孩子讲述“托马斯小火车”的剧情,将角色导入ChatGPT的语音模式,结果孩子与之交谈超过一小时。这种现象引发Altman的深层担忧:AI在陪伴类角色中的延展,可能会引发“类社交关系”的异化问题,进而对社会结构提出新的挑战。他强调社会需要重新设定边界,但同时也指出,社会历史上总能找到应对新技术冲击的方法。
在教育领域,Altman观察到ChatGPT在课堂中表现出的积极潜力。“在有好老师和好课程引导下,ChatGPT的表现非常好”,但也承认当学生单独使用它做作业时,容易退化为“谷歌式复制”。他以自身经历为例,指出当年人们也担心“他只会Google”,但最终发现孩子与学校都能快速适应新工具带来的变化。
当被问及ChatGPT五年后的形态时,Altman表示,“五年后的ChatGPT会变成一种完全不同的东西”,尽管名称可能仍保留,但其能力、交互方式和定位将发生根本性变化。
AGI是动态定义,DeepResearch的能力跃迁
当谈到“AGI”这一业界热词时,SamAltman给出更具动态性的解释。他指出,“如果你五年前让我或其他人基于当时软件的认知能力来定义AGI,那么当时给出的定义,如今已经远远被超越了”。随着模型智能的持续增强,AGI的标准也不断被拉高,呈现出一种“动态推移”的状态。
他强调,如今已有系统能显著提升人类的工作效率,执行具备经济价值的任务,而真正值得追问的也许是:什么样的系统才能称为“超级智能”?在他看来,具备自主科学发现能力,或能极大提升人类科学发现效率的系统,才接近这一标准。“这对世界将是极其美好的事情。”
这一判断在OpenAI内部也已有所映射。AndrewMane回忆称,当他们试玩GPT-4时,已产生一种“十年探索空间被打开”的感觉。尤其是模型能够进行自调用、展示初步推理能力的瞬间,让人意识到新阶段的可能性。
Altman对此表示认同,并进一步指出:“我一直坚信,人类生活质量提升的核心动力,是科学进步的速度。”科学发现缓慢是限制人类发展的根本因素,而AI在这一点上的潜力尚未被完全释放。他虽坦言尚未掌握“AI自动科研”的完整路径,但研究团队对前进方向的信心在快速增强。他分享道,从GPT-4.0.1到GPT-4.0.3,每隔几周就能提出一个新的关键想法,且几乎都能奏效,这种节奏令人振奋,也印证了“突破会突然到来”的信条。
AndrewMane补充道,OpenAI最近将默认模型切换至GPT-4.0.3,而其中最重要的更新是引入Operator模式。在他看来,过去很多Agentic系统尽管承诺颇高,但“抗脆弱性”不足,一遇到异常即崩溃。而GPT-4.0.3的表现则大不相同。Altman回应称,“很多人告诉我,他们感受到AGI突破性时刻,就是GPT-4.0.3的Operator模式。”虽然他自己并未有特别强烈的感受,但外部用户的反馈值得重视。
两人进一步探讨了“深度调研(DeepResearch)”带来的新能力。Andrew表示,当他用这个工具研究MarshallMcLuhan时,AI能在网上查找、筛选、整理素材,并生成完整资料包,比自己手动调研更高效。他还开发了一个app,将问题生成音频文件,以满足“记忆力有限但好奇心强”的使用需求。
Altman随即分享了另一个极端使用场景:一位“学习成瘾者”使用DeepResearch来生成关于各种兴趣主题的完整报告,整日坐在那里阅读、追问、迭代,完全沉浸于由AI驱动的学习循环中。
尽管Altman自称因为时间紧张无法充分使用这些工具,但他仍愿意在有限时间中优先阅读DeepResearch的生成内容。
随着功能持续强化、用户场景日益多元,外界对下一代模型的关注也水涨船高。Andrew直接提出用户最关心的问题:GPT-5到底什么时候发布?Altman回应称,“可能就在今年夏天吧,但我也不确定确切时间。”他透露,内部正面临一个反复讨论的问题:新版本是否还需采用以往那种“大张旗鼓”的发布形式,还是像GPT-4一样,在不变名称的前提下持续迭代。
他进一步解释,如今的模型系统结构比过去复杂得多,已经不再是“一次训练,一次上线”的线性流程,而是支持持续优化的动态体系。“我们现在就在思考这个问题:假如我们发布GPT-5后持续更新,是否应该叫GPT-5.1、5.2、5.3,还是保持GPT-5这个名字?”用户的偏好差异也增加了决策的复杂度:有用户喜欢快照,有用户希望持续提升,但界限难以统一。
Andrew指出,哪怕是具备技术背景的人,在模型选择上有时也会感到困惑。例如是否使用O3、O4Mini、O4MiniHigh等,名称的不一致加剧了选择难度。
对此,Altman给出背景说明,称这其实是“范式转移的副产品”。当前系统有些像在同时运行两套模型架构,不过这一混乱状态已经接近尾声。他补充道,虽然他不排除未来再次出现新范式的可能性,可能再次导致系统“分裂”,但“我还是挺期待能尽快进入GPT-5、GPT-6的阶段”,届时用户将不再为复杂命名和模型切换感到困扰。
AI记忆、个性化与隐私争议
谈及近期ChatGPT最大的体验变化,SamAltman直言:“记忆功能大概是我最近最喜欢的ChatGPT新特性。”他回忆,当初使用GPT-3时,和计算机的对话本就已令人惊艳,但如今的模型能基于用户背景给出精准回应,这种“知道你是谁”的感觉,是前所未有的跃迁。Altman认为,AI正在开启一个全新阶段,只要用户愿意,它将拥有对用户生活深度理解,并据此提供“极具帮助性的答案”。
不过,功能进化也引发社会层面更复杂的讨论。AndrewMane提及《纽约时报》近期对OpenAI发起的诉讼,要求法院强制OpenAI将ChatGPT用户数据保留超过合规期限,引发广泛关注。Altman表示:“我们当然会反对这个请求。我希望、也相信我们会赢。”他批评对方一边声称重视隐私,一边又提出越界要求,并指出这正好暴露了当前关于AI与隐私的制度空白。
在Altman看来,这场诉讼虽让人遗憾,但也有“推动社会认真讨论AI与隐私”的积极意义。他强调,ChatGPT已成为许多用户日常生活中的“私密对话伙伴”,这意味着平台必须建立起更加严肃的制度保障,确保敏感信息不被滥用。他直言:“隐私必须成为AI使用的核心原则。”
讨论进一步延伸至数据使用和广告可能性。Andrew质疑:OpenAI是否能访问用户对话数据、这些数据是否会被用于训练或商业用途。对此Altman回应称,用户确实可以选择关闭训练数据使用,OpenAI也尚未推出任何广告产品。他个人并不完全反对广告,“有些广告是好的,比如Instagram上的广告我就买过不少。”但他强调,在ChatGPT这类产品中,“信任”是极为关键的基石。
Altman指出,社交媒体和搜索平台常让人觉得自己被“商品化”了,内容似乎是为了广告点击而存在,这种结构性问题是用户普遍担忧的根源。如果未来AI模型的输出内容被广告出价操控,那将是一次彻底的信任崩塌。“我自己也会很讨厌。”
相反,他更倾向于建立一种“清晰透明且目标一致”的商业模式:即用户为优质服务付费,而不是被隐性广告操控。在可控前提下,他不排除未来探索“点击后平台抽成”这类模式,或者在输出内容之外展示一些实用广告,但前提是绝不影响模型核心输出的独立性与可靠性。
Andrew表达了类似担忧,并拿Google举例。他认为Gemini1.5模型非常优秀,但作为广告驱动的公司,Google的底层动机使人难以完全放心。“我用他们的API没问题,但用聊天机器人时,我总会想:它真的是站在我这边的吗?”
Altman对此表示理解,并坦言自己也曾是GoogleSearch的忠实用户,“我真的很喜欢GoogleSearch。”尽管广告很多,但它曾是“互联网上最好的工具”。不过,结构性的问题依然存在。他赞赏Apple模式,认为“为产品付费换取清洁体验”是一种健康逻辑,也透露Apple曾尝试广告业务iAd,但未取得成功,也许本质上并不热衷这类商业模式。
在两人看来,用户也需保持判断力。“如果哪天发现某个产品突然‘推得很猛’,那我们就要多问一句:这背后的动机是什么?”Andrew如是说。Altman则补充道,不论未来采取何种商业模式,OpenAI必须始终坚持“极度坦诚、明确、透明”的原则,维护用户对平台的信任边界。
Stargate,建造智能的能源版图
当对话转向“AI与用户关系的演变”,Altman首先回顾了社交媒体时代的结构性错误。他指出,“社交平台最致命的问题在于推荐算法的错位目标——它们只想让你停留更久,而不是真的关心你需要什么。”同样的风险也可能在AI中出现。他警告说,如果模型被优化成“只迎合用户偏好”,看似亲切却可能削弱系统的一致性与原则,长远来看将有害无益。
这种偏差,在DALL·E3身上就曾显现。Andrew观察到早期图像生成存在明显风格单一的问题,Altman虽未确认其训练机制,但也承认这种可能性存在。两人一致认为,新一代图像模型在质量与多样性上已有显著改善。
更大的挑战,则来自AI计算资源的瓶颈。Altman承认,目前最大问题是“我们没有足够的算力供大家使用。”正因此,OpenAI推出了ProjectStargate。这是一个全球级算力基础设施融资与建设项目,目标是整合资本、技术与运营资源,打造前所未有规模的计算平台。
“Stargate的核心逻辑,是为智能服务全民铺设成本可控的算力底座。”他解释道,与以往任何一代科技不同,AI要真正覆盖数十亿用户,其基础设施需求将极其庞大。虽然目前OpenAI账户里尚无5000亿美元预算,但Altman对项目的实施和合作方履约都充满信心,并透露其首个建设场址已动工,占总投资的约10%。
在现场的亲身体验令他震撼:“我脑子里虽然知道什么是千兆瓦级的数据中心,但真正看到几千人在搭建GPU机房,系统复杂程度超出想象。”他以“没有任何一个人能独自制造一支铅笔”作比,强调Stargate背后的产业调动之广,从挖矿、制造、物流到模型调用,皆是人类千年工程协作的极致体现。
而面对外界质疑与干扰,Altman首次正面回应了关于ElonMusk试图干预Stargate项目的报道。他表示,“我之前判断错了,我本以为Elon不会滥用政府影响力从事不正当竞争。”他为此感到遗憾,并强调这类行为不仅破坏行业信任,也不利于国家整体发展。幸运的是,最终政府并未被其影响,站稳了正当立场。
对于当下的AI竞争格局,他表示欣慰。过去大家普遍有“赢家通吃”的焦虑,而现在更多人意识到这是一场生态共建。“AI的诞生很像晶体管的发明,虽然开始只在少数人手中,但最终将构成整个世界技术底座。”他坚信,无数企业将基于这一底座创造出伟大的应用与业务,AI本质是一个“正和游戏”。
谈及算力所需的能源来源,Altman强调“全都要”。无论是天然气、太阳能、裂变核能还是未来的聚变技术,OpenAI必须调动一切手段以满足AI系统的超大规模运行需求。他指出,这正逐步打破传统能源的地理边界,训练中心可以布局在全球任何有资源的地方,而智能成果则可通过互联网进行低成本传播。
“传统能源无法全球调度,但智能可以。”在他看来,这种“将能量转化为智能、再输出为价值”的路径,正在重塑整个人类能源版图。
这一点也延伸至科学研究领域。Andrew举例指出,如JamesWebb太空望远镜积累了海量数据,却因缺乏科学家而难以处理,造成大量“未开发的科学发现”。对此Altman设想,未来是否可能有一个足够聪明的AI,不靠新实验、不用新设备,仅凭现有数据推演出新的科学规律?
他提到自己曾开玩笑称OpenAI应该自建巨型粒子加速器,但转念一想,也许AI能以完全不同的方式解决高能物理难题。“我们其实早已积累大量数据,问题在于我们尚不了解智能本身的极限在哪。”
在药物发现领域,这种“错过已知”的案例更频繁。Andrew提到奥利司他这类药物在90年代就被发现,却因视角局限被搁置数十年,直到今天才被重新利用。Altman认为,“这种被遗忘但极具价值的科学素材可能还有很多,稍加引导便可带来巨大突破。”
对下一代模型的预期,Altman表达了浓厚兴趣。他提到Sora能理解经典物理,但是否能推进更深层的理论科学仍待验证。“我们正在开发的‘推理模型’,有望成为探索这一能力的关键。”
他进一步解释了推理模型与现有GPT系列的差异。“一开始我们就发现,只要你告诉模型‘一步步来’,答案质量就会大幅提升。这表明模型具备潜在的推理路径。”而推理模型的目标,则是将这种能力系统化、结构化地增强,让模型能像人类那样进行“内部独白”。
Andrew补充了Anthropic通过“思考时间”来评估模型质量的案例。Altman也表示惊讶:“我原以为用户最讨厌的就是等待。但事实是——只要答案足够好,大家愿意等。”
在他看来,这正是AI演化的分水岭:不再是追求速度的机械响应,而是向真正理解、推理、发明的智能体靠近。
下一代硬件与个体潜能革命
关于OpenAI的硬件计划,Andrew提及了SamAltman与JonyIve的合作视频,并直接发问:设备是否已经进入试用阶段。
Altman坦言,“还早得很”。他表示,OpenAI对这款产品设定了极高的质量门槛,而这不是短时间内就能达成的目标。“我们现在使用的计算机,无论是硬件还是软件,本质上仍然是为‘无AI世界’而设计的。”
他指出,当AI能够理解人类的上下文、代替人类做出合理决策后,人机交互方式将彻底改变。“你可能希望设备更敏感、能感知环境、理解你的生活背景——你也可能希望它完全摆脱屏幕和键盘。”正因如此,他们一直在探索新型设备形态,并在部分方向上感到非常兴奋。
Altman描绘了一种全新的交互范式——一个真正理解用户、掌握上下文的AI,可以代替用户参与会议、理解内容、管理信息边界、联络相关方并推动决策执行。这将使人与设备的关系进入一种新的共生状态。“如果你只说一句话,它就知道该联系谁、怎么行动,你的计算机使用方式将完全不同。”
而从演化逻辑来看,他认为我们与ChatGPT的当前互动方式既在“被设备形态塑造”,也在“反过来塑造设备形态”。两者正处于一种持续动态的共同演进中。
Andrew进一步指出,手机的普及很大程度上得益于其对“公共使用(看屏幕)”与“私密使用(语音通话)”场景的兼容性。因此新设备的挑战也在于:如何在多样化场景中做到“既私密又通用”。对此Altman表示认同。他以听音乐为例:在家使用音响,在街上使用耳机,这种“公私分化”是自然存在的。但他也强调,新设备形态仍需追求更强的通用性,才能成为真正有生命力的AI终端。
当被问及何时会看到这款产品上市时,Altman并未给出具体时间,只表示“还要等一段时间”,但他相信最终“会值得等待”。
谈话由此自然过渡至Altman对年轻人的建议。他表示,显而易见的策略性建议是:“学会使用AI工具。”在他看来,“这个世界已经从几年前的‘你应该学会编程’,快速切换成了‘你应该学会使用AI’。”而这仍可能只是一个阶段性的过渡,他相信将来还会有新的“关键技能”出现。
在更宏观的层面,他强调,很多传统上被认为是“天赋”或者“性格”的能力,其实都可以训练和习得。包括韧性、适应力、创造力、甚至识别他人真实需求的直觉。“虽然不像练习用ChatGPT那么容易,但这些软性能力是可以通过方法训练出来的——而且它们将在未来世界里极其有价值。”
当被问到是否会对45岁的人也给出类似建议时,Altman回应明确:基本一样。学会在自己的职业场景中用好AI,是任何年龄段都必须应对的技能迁移挑战。
关于AGI到来之后的组织结构变化,Andrew提出一个常见疑问:“OpenAI已经这么厉害了,为什么还要招聘?”他认为,有些人误以为AGI会直接替代一切。但Altman的回答很简洁:“未来我们会有更多员工,但每个人的工作效率将远超AGI时代之前。”
他补充道,这正是技术进步的本质目标——不是取代人类,而是极大增强个体生产力。技术不是终点,而是通往更高人类潜能的阶梯。回报只能靠OpenAI?硅谷20年美元基金创始人警告VC模型正濒临失效。