OpenAI 总裁 Greg Brockman:AI 自我改进、Super App 豪赌、通往 AGI 之路、算力扩张

作者:

宝玉

OpenAI 总裁 Greg Brockman:AI 自我改进、Super App 豪赌、通往 AGI 之路、算力扩张

Greg Brockman 坐进 Big Technology Podcast 的演播室时,OpenAI 刚做完三件大事:砍掉 Sora,收到 1100 亿美元融资,完成下一代模型 Spud 的预训练。砍一个明星产品、拿一笔天价融资、押注一个新模型,三件事同时发生,每一件都需要解释。接下来 90 分钟里,这位 OpenAI 联合创始人兼总裁要完成一项高难度任务:把每一个看似被动的决策重新包装为前瞻性的战略选择。

他做到了吗?大部分时候做到了,但叙事的缝隙里藏着一些值得细看的线索。

Brockman 过去 18 个月主要负责公司的“规模”(Scale)部门,管 GPU 基础设施、数据中心和供应链。这场访谈覆盖的话题跨度极大:从 Sora 为什么被砍,到 Super App 长什么样,到下一代模型能做什么,到 1100 亿美元怎么花,到他为什么给 MAGA Inc 捐了 2500 万美元。

原始视频:https://www.youtube.com/watch?v=J6vYvk7R190

要点速览

  1. 砍掉 Sora 是“聚焦技术主线”还是止血? Brockman 说 Sora 和 GPT 是技术树的不同分支,算力有限只能选一条。但 Sora 日烧百万美元、用户跌破 50 万的现实他没提。
  2. Super App 将合并 ChatGPT、编程 Agent Codex 和浏览器 Atlas 为一个统一应用,预计未来几个月内交付,但这个愿景和微软 365 Copilot 有直接重叠,访谈中没人问这个问题。
  3. 下一代模型 Spud 凝聚了约两年的研究突破,Brockman 称其将同时提升 AI 能力的天花板和地板,但能力描述全是感性的,没有具体指标。
  4. AGI 进度自评 70-80%,但 Brockman 同时说 AGI 的定义“更像是一种氛围”,无法精确定义的东西如何精确量化,这个矛盾他没有解决。
  5. 承认在编程工具的“最后一公里可用性”上曾落后于 Anthropic,声称已追赶上来,第三方数据显示 Anthropic 企业市场份额仍在快速增长。
  6. 回应 Anthropic CEO Dario Amodei 对 OpenAI 基础设施投资“过于激进”的批评:“我不同意。” 但没有回应 Amodei 关于“收入预判偏差一年就可能破产”的具体论证。

砍掉 Sora:技术选择还是商业止血?

Kantrowitz 开场就问:OpenAI 在消费者市场领先,为什么突然把资源从视频生成转走?

Brockman 给出的解释框架和外界猜测相当不同。他说 Sora 的模型和 GPT 系列是“技术树上完全不同的分支”,构建方式根本不同。在算力有限的世界里,同时推进两条技术路线代价极大。他用了一个向量比喻:

随机向量之和为零,对齐方向才能前进。

力量分散就互相抵消,集中才能产生动能。他认为深度学习领域的问题不是机会不够,恰恰是太多,分散投入等于哪个方向都走不远。

这套解释在技术逻辑上自洽,但只讲了故事的一半。据 WSJ 调查和 TechCrunch 报道,Sora 在商业上已经失败:用户量从峰值一百万迅速跌至不足 50 万,每天烧掉约 100 万美元算力成本。据 WSJ 报道,Disney 原计划投资 10 亿美元并将角色授权给 Sora 的交易也随之取消,Disney 在公开宣布前不到一小时才得知消息。关停 Sora 既有技术聚焦的逻辑,也有商业止血的现实压力,Brockman 选择只谈前者

他强调,这不是“从消费者转向企业”,而是必须做选择。他认为当前最重要的两个应用是:一个了解你、与你的目标对齐的个人助手,和一个能替你解决难题的 AI。光是这两件事,OpenAI 现有的算力都不够用。

一个技术细节:ChatGPT 里的图像生成功能不受影响。图像生成基于 GPT 架构,跟文本、语音同属一条技术路线;Sora 用的是扩散模型(diffusion model),是另一棵树上的东西。Sora 研究团队没有解散,而是转向了机器人领域的世界模拟研究。

Kantrowitz 又问:Google DeepMind 的 Demis Hassabis 认为最接近 AGI 的不是文本模型,而是图像生成器,因为它必须理解物体之间的交互和世界运作方式。OpenAI 放弃这条路线,会不会押错赛道?

Brockman 说这是真实的风险:”绝对是的。在这个领域你必须做选择,必须下注。” 但他话锋一转,说 OpenAI 之所以有信心,是因为”已经看到了通往 AGI 的路径”。他举了一个例子:一位物理学家把一个长期未解的问题交给 OpenAI 的模型,12 小时后拿到了解答,那位物理学家说这是他第一次觉得 AI 在”思考”。不过 Brockman 没有透露具体是哪位物理学家和哪个问题,这一案例无法独立验证。【注:公开信息中,数学家 Terence Tao 在 2026 年 3 月发表了一篇由 ChatGPT Pro 完成核心证明的论文,但那属于数学领域,与此处描述不直接对应。】

Sora vs GPT:两条技术路线的命运

Super App:愿景宏大,但谁来回答微软问题?

砍掉了视频生成,OpenAI 把赌注押在了另一个方向。Kantrowitz 问 Super App 到底是什么。

Brockman 说:把 ChatGPT(聊天)、Codex(编程 Agent)和浏览器整合到一个应用里

电脑本该迁就人,而不是人迁就电脑。

他把 Super App 比作笔记本电脑:你的笔记本是私人用还是办公用?两者都是。Super App 也一样,既是个人助理也是工作工具。个人场景包括 ChatGPT 现有的一切用途,加上更深的记忆和上下文能力。ChatGPT 里已经有一个叫 Pulse 的功能(个性化内容推送),每天根据 AI 对你的了解推送内容。

但 Brockman 说用户看到的界面只是“冰山一角”。更重要的是底层技术的统一:过去两年 AI 的发展已从“只看模型”变成“看整个系统”,模型如何获取上下文、如何连接外部世界、能执行什么操作。这些东西 OpenAI 内部曾有多套实现,现在要收归一统,形成一个通用“AI 层”。一般情况下用户不需要专门的金融 AI 或法律 AI,Super App 足够通用。这个愿景如果实现,确实有可能重新定义 AI 产品的形态。

问题在于,微软 365 Copilot 已经在做几乎一模一样的事,把 AI 嵌入工作流、统一入口、连接各种工具。OpenAI 既是微软的模型供应商又要做微软的直接竞品,这个张力怎么化解?Kantrowitz 没问,Brockman 自然也没答。加上 Sora 刚刚证明了 OpenAI 做消费者产品的记录并不光彩,”几个月内交付”的时间线值得打个问号。

Super App 架构蓝图

Codex:从程序员到所有人的路还有多远

Super App 的野心如果要落地,Codex 是关键拼图之一。它最初为软件工程师设计,但 OpenAI 内部已经出现了大量非工程师的自发使用。Brockman 说 Codex 底层就是两样东西:一个通用 Agent 框架(能调用工具)加上一个会写代码的 AI。接上电子表格、Word 文档,就能做知识工作。

具体案例:有人用 Codex 做视频剪辑,AI 自己写了一个 Adobe Premiere 插件来自动分章节;内部通信团队的人把 Codex 接上 Slack 和邮箱来整合反馈。这些案例如果属实,说明 AI 作为“万能胶水”连接不同工具的能力正在成型。但它们都是 Brockman 口述的内部使用场景,没有外部用户验证,也没说是否已公开可用。

Brockman 说,对非程序员来说,Codex 现在的可用性很低,设置中碰到报错,开发者知道怎么处理,普通用户直接懵掉。但他认为最难的部分已经做完了(造出真正聪明的 AI),剩下的是“容易得多”的部分:降低门槛。这个判断是否成立,取决于你怎么定义“难”。对做过消费者产品的人来说,“最后一公里”往往比前面九十九公里还难。

他还提到了 OpenClaw 创始人 Peter Steinberger 加入 OpenAI 的事,作为 Codex 向非程序员扩展的信号。Steinberger 是奥地利开发者,2025 年底开发了一个能自主管理邮箱、订餐、控制智能家居的开源 AI Agent,GitHub 星标达 19.6 万,周活用户 200 万。2026 年 2 月,Altman 宣布他加入 OpenAI 负责“下一代个人 Agent”,这个职位本身就说明 OpenAI 在认真对待“让 AI 走出程序员圈子”这件事。

追赶 Anthropic:承认落后,声称追上

Kantrowitz 问:Anthropic 已经有了 Claude 聊天、Claude Cowork、Claude Code,相当于先做出了自己的 Super App。OpenAI 是不是看到 Anthropic 做了才醒悟过来的?

Brockman 承认 OpenAI 过去在编程领域一直有最好的竞赛成绩,但投入不够的是“最后一公里的可用性”。模型在编程竞赛里很聪明,但它从没见过真实世界里乱糟糟的代码库。

大约去年年中,OpenAI 组建了专门团队来解决这个问题:研究真实世界代码库的各种“脏活”,构建训练环境来模拟那些被奇怪的方式打断的混乱场景。他说此时此刻已经追上了,在正面对比中用户更倾向于选择 OpenAI。但他也说前端体验还落后。

第三方数据呈现的画面并不相同。据 Synergy Research 等机构报道,Anthropic 的企业市场份额从 2023 年的低位升至 2025 年底的约 40%,而 OpenAI 从 50% 降至约 27%。Claude Code 在软件工程师群体中获得了极高的口碑。Brockman 说“已经追上”时到底在比什么,模型能力还是市场份额?他巧妙地把战场限定在了前者

更大的变化在内部。Brockman 说 OpenAI 过去把研究和部署当成”几乎分开的两件事”,现在要整合成一个流程,做研究时就想着产品怎么用。这或许是整段话里最有实质信息量的一句,它暗示 OpenAI 此前的组织架构确实有问题。

企业 AI 市场份额:Anthropic vs OpenAI

“我们赢了”是最可怕的时刻

从产品竞争到内部文化,Kantrowitz 换了个角度。他问,从 2022 年以来 OpenAI 一直领先,现在竞争激烈了,内部氛围有变化吗?

Brockman 讲了一个故事。ChatGPT 发布后的节日派对上,他感受到公司弥漫着“我们赢了”的气氛。那是他最害怕的一刻

不,我们是挑战者,一直都是。

这是科技公司高管的标准话术,估值 3000 亿美元的公司自称挑战者,和 Google 当年说自己是创业公司一样,信不信随你。但他后面补了一句更实在的话:好的时候别信别人说你多好,坏的时候也别信别人说你多差

Spud:感觉对了,但数据在哪?

文化之外,接下来是技术。关于下一代模型 Spud,Brockman 确认它是一个新的预训练基础模型,凝聚了“大约两年的研究成果”。

他先纠正了一个思维框架:重要的不是任何一个模型,而是一整个“进步引擎”(engine of progress)。模型开发分几步:先做预训练,在海量数据上训练基础模型,这是最昂贵的阶段;然后做后训练,通过强化学习让模型学会解决各种问题;最后调整行为和可用性。Spud 是新一轮预训练的成果,后续还会经过大量后训练优化。

至于 Spud 能做什么,Brockman 没有给出任何具体指标。他造了一个概念叫 “big model smell”(大模型的味道),当模型真正够强时,你能“闻到”那种质感。你问它问题,它不会答偏,不需要你反复解释。他说 Spud 将同时提升天花板(解决更开放、时间跨度更长的问题)和地板(日常任务的实用性)

没有 benchmark 分数、没有和竞品的对比、没有具体任务的演示数据。 这种纯感性描述可能出于保密考虑,行业里模型发布前保密是常态。但在竞争对手频繁亮出 benchmark 的当下,光靠“感觉”说服力有限。OpenAI 此前在 GPT-4 发布时也曾刻意回避部分 benchmark 细节,后来靠实际产品表现赢回了话语权。Spud 能不能走同样的路,要看发布后的表现。

2025 年 12 月:拐点叙事

Kantrowitz 问:2025 年 12 月发生了什么?编程 Agent 似乎从理论走向了实用。

Brockman 说那次模型发布让 AI 从“能完成你 20% 的任务”跃升到了“80%”。从“锦上添花”变成了“你必须围绕 AI 重新组织工作流程”。

他分享了一个持续多年的个人测试:让 AI 帮他建一个网站,这个网站他当年学编程时花了几个月才做出来。2025 年大部分时间里需要四五个小时、多轮对话。12 月,一次提示,一次完成。

慢慢地、慢慢地、慢慢地,然后一下子全变了。

这个表达出自海明威《太阳照常升起》,原文说的是“你是怎么破产的”。用来形容 AI 能力的非线性增长,倒也贴切。

另一个案例:一位和他密切合作的工程师做底层系统工程,在 GPT 5.2 时代完全用不了 AI。到了 5.3,给 AI 一份设计文档,它能实现代码、添加监控指标、运行性能分析器、自行优化,产出就是工程师想要的东西。

对于“GPT-5 发布后公众反应有些失望”,Brockman 说每次发布都有两群人:一群觉得天壤之别,另一群用的场景不是智能瓶颈,感受不到差异。真正的转变是人们对 AI 能力的心智模型更新得比技术本身慢

AGI:70-80%,但定义是个“氛围(Vibe)”

Nvidia CEO 黄仁勋最近说“我认为我们已经实现了 AGI”。Kantrowitz 问 Brockman 是否同意。

Brockman 说 AGI 对不同人有不同定义。当前的技术“非常参差不齐”(very jagged):在写代码这类任务上已经超越人类,但某些人类轻松完成的基本任务 AI 仍然做不好。画线画在哪里,“更像是一种氛围和感觉,而不是科学”

他给了一个自我评估:70-80% 到了

这个自相矛盾的表述其实折射了整个行业的困境。如果 AGI 的定义连科学都算不上,更像“氛围”,那 70-80% 是怎么算出来的?每个人都在量化一个他们承认无法精确定义的概念。Huang 的 AGI 定义极窄,他自己也承认 10 万个 Agent 也造不出 Nvidia;Lex Fridman 曾提出“能否创办和运营一家 10 亿美元公司”作为判据。Brockman 比 Huang 谨慎,但陷入了同样的定义困境。

他认为未来几年内 AGI 会实现,AI 将能完成几乎所有你在电脑上做的智力工作,但能力仍然是参差不齐的。

自动化 AI 研究员:让 AI 加速 AI

OpenAI 计划今年秋季推出一个自动化 AI 研究员。

Brockman 把当前阶段称为“起飞”(takeoff),这个词在 AI 安全领域有特定含义,指 AI 进入快速递归自我改进的阶段。他在这个语境下用它,至少说明他清楚这个词的分量。他的意思分两层:技术上,AI 越好就越能加速自身改进;应用上,芯片厂商加大投入、企业在各领域摸索 AI 应用,所有能量在积累。

具体到 AI 研究员,Brockman 的定义是:把 OpenAI 一个研究科学家的完整端到端工作搬到硅片上运行

但他强调这不意味着放手让 AI 自己跑。他打了个比方:就像带初级研究员,放太久不管他就会走上没用的路。高级研究员提供方向和审查,AI 负责执行

Agent 时代,人类的责任不能外包

Kantrowitz 引用了 Brockman 此前说过的话:当你用 AI Agent 做事时,“你变成了一支成千上万 Agent 舰队的 CEO,它们在执行你的目标和愿景,但你并不了解每件事具体怎么解决的。这种新的工作方式可能让你觉得失去了对问题的脉搏感。”

Brockman 说,这是好坏参半的,关键是“承认优势、减轻弱点”。AI Agent 给人巨大的杠杆,但归根到底有一个“负责任的当事人”。你的 Agent 搞砸了网站影响了用户,那不是 Agent 的错,是你的错。

Kantrowitz 问:但“失去脉搏感”和“负责任”怎么兼得?

Brockman 用装修做比方:请总包装修房子,有些细节你确实不用操心,因为你信任专业人士。但如果出了问题,你应该知道。“你不能盲目接受'我可以不管了'。你需要主动保持对问题的把控。”

1100 亿算力豪赌:收入中心还是赌场筹码?

从技术路线和产品愿景回到商业现实。

Brockman 把算力类比为雇销售人员:只要产品能卖出去、有可扩展的销售方式,销售人员越多收入就越高。算力不是成本中心,是收入中心。他讲了 ChatGPT 发布当天的内部对话:

“该买多少算力?”“全部。”“不不不,说真的,该买多少?”“不管我们怎么建,我知道都跟不上需求。”

他说从那以后每一年都被证明是对的。ChatGPT 目前周活用户超过 4 亿,消费者订阅收入持续增长,从需求端看这个判断确实成立。但挑战在于算力采购需要提前 18 到 24 个月锁定,必须精准预判未来。

收入结构方面,消费者订阅目前仍是最大来源,但企业知识工作领域增长极快。他不认为未来收入会简单分为“消费者”和“企业”两类,更像是用户拥有一个数字世界的入口,收入来自这个入口。

Kantrowitz 提到了 Dario Amodei 暗示某些竞争对手在“YOLO 式”烧钱,把“风险旋钮拧得太远”。

Brockman 的回应是:“我不同意。我们一直非常深思熟虑,是最早意识到这一趋势并提前布局的。”

“我不同意”之后他没有回应 Amodei 的核心论点:如果收入预判偏差一年,公司就可能破产。这个问题不是态度能回答的,需要数字。而数字并不完全站在 Brockman 这边:1100 亿融资中只有约 250 亿是确定的即时现金,其余要么是算力(Nvidia 的 300 亿大部分是 GPU)、要么有里程碑条件(Amazon 的 350 亿)。据 The Information 等媒体估计,OpenAI 到 2027 年的年度现金消耗将达 570 亿美元。融资数字虽大,实际跑道可能只有 18-24 个月。相比之下,Anthropic 同样承诺了 500 亿美元基础设施,但严格按收入增长节奏推进。

关于是否还需要做更大规模的预训练,Brockman 的立场明确:改进预训练会让所有下游步骤都更容易。但他也说过去 24 个月有一个重要转变:不再只追求原始能力,开始同时考虑推理效率,目标是找到”智能 × 成本”的最优解。

$1100 亿融资拆解:钱从哪来,够花多久

安全与公众信任

谈到 AI 风险,Brockman 提出了“韧性”(resilience)框架:很多参与者共同开发技术,同时建立社会基础设施来确保技术走向正确。他拿电力做类比:很多人生产电力,电力也有危险,但我们围绕它建立了安全标准、监管、检查员等一整套体系。

关于公众对 AI 的负面态度(YouGov 数据显示认为 AI 对社会负面影响的美国人是认为正面影响的三倍),Brockman 认为关键是向人们展示 AI 如何具体帮助他们。他举了一个医疗案例:一个家庭的孩子出现头痛等症状,医保拒绝了 MRI 检查,他们用 ChatGPT 研究症状后找到了说服保险公司的论据,拿到了 MRI,发现是脑瘤,及时治疗救了孩子一命。他说这类故事“每天都在发生”。

数据中心争议方面,Brockman 声称 OpenAI 在 Abilene 的设施(部署超过 10 万 GPU 的世界最大超算之一)全年用水量“相当于一个家庭”。这个说法令人存疑。作为参照,微软在 2024 年环境报告中披露其全球数据中心年用水量约 70 亿升,Google 的数字也在同一量级。即便 Abilene 设施采用了最先进的空气冷却方案,10 万块 GPU 的散热量也远超一个家庭用水所能处理的范围,且这一说法未经任何独立验证。在电力方面,他承诺 OpenAI 会“自己买单”,不推高当地居民电价,并举了北达科他州的例子说数据中心到来反而帮助降低了电费,这一说法同样未找到第三方验证。

政治捐款:2500 万美元的争议

关于他向 MAGA Inc 捐赠 2500 万美元的争议,Brockman 说他和妻子也给两党超级 PAC 捐了款。他自称是“单一议题捐赠者”,关心的是支持那些“真正拥抱 AI 技术的政治家”。但 MAGA Inc. 是一个广泛支持 Trump 议程的 PAC,不是专门的科技政策组织,“单一议题”的定位与捐款对象之间存在明显张力。Brockman 同时向 Leading the Future(一个促进 AI 发展的两党 PAC)捐了 2500 万美元。2500 万美元是 MAGA Inc. 2025 年下半年收到的最大单笔捐款,这笔捐款在 2026 年初引发了 #QuitGPT 抵制运动。

这场访谈真正透露了什么

拆解 Brockman 在这场访谈中构建的叙事,可以看到 OpenAI 正面对三层压力

OpenAI 的三层压力:产品、表达、规模

第一层是产品压力。 砍 Sora 确实止了血,ChatGPT 仍然是全球用户量最大的 AI 产品,但下一个赌注 Super App 面临的竞争环境比 Sora 更残酷。微软 365 Copilot 在企业端、Anthropic 在开发者端、Google 在消费者端,OpenAI 要在三者的夹击中做一个“统一入口”。Brockman 对此的回应是“几个月内交付”,但 Sora 的前车之鉴说明,有技术不等于能做好产品。

第二层是表达困境。 整场访谈中,Brockman 在被问到最硬的问题时,反复用感性语言代替数据。Spud 的能力靠“闻”,AGI 的进度靠“氛围”,追上 Anthropic 的证据是未公开的内部对比。这反映了 OpenAI 当前的一个结构性矛盾:作为一家刚融完 1100 亿美元的公司,它需要向投资人证明技术领先,但又不能在产品发布前泄露具体指标。于是“感觉”成了唯一安全的表达方式。问题是,感觉不能替代事实,尤其当竞争对手在用 benchmark 和市场份额说话的时候。

第三层是规模风险。 1100 亿美元的融资数字听起来吓人,但拆开看并没有那么安全。Brockman 对 Amodei“YOLO”批评的反驳停留在“我不同意”,始终没有正面回应核心问题:如果需求增长比预期慢一年会怎样?他自己说算力采购需要提前 18-24 个月锁定,这恰好也是分析师估计的 OpenAI 实际跑道。

Brockman 给 AI 怀疑者的建议是“先试试再说”。但 1100 亿美元的赌注正确与否,不是个人试用体验能回答的问题。接下来 6 个月,Spud 是否兑现承诺、Super App 能否在微软和 Anthropic 的夹击中交付,将决定这套叙事究竟是远见还是话术。

原始视频:https://www.youtube.com/watch?v=J6vYvk7R190