其实Sam Altman 还有 Anthropic的 Dario 都说了同一件事,如果现在停止训练更进步的大模型,很快就可以获利了,但是他们知道巨额的投资未来的潜力更大,因此疯狂的在堆算力。但他罕见的也承认了,对很多人来说,现在AI已经出现了能力过剩的状况。虽然模型变得更强了,但很多人还是在问对GPT 4会问的问题。**将竞争视为红色警戒面对 Gemini 3 的发布,OpenAI 内部启动了被称为「红色警戒(Code Red)」的应对机制。Altman 解释这并非恐慌,而是一种必要的敏捷反应。「我们把这些视为相对低风险但需要频繁执行的行动。当潜在竞争威胁出现时,保持警觉并快速行动是好事。」他以疫情初期的应对作为比喻,强调早期行动的重要性:「就像疫情爆发时,一开始采取的每一个行动,价值都远超过后来才行动。大多数人在初期做得不够,之后才恐慌。我们就是用这种哲学来应对竞争威胁。」Altman 坦承,Gemini 3 的出现确实揭露了 OpenAI 产品策略中的一些弱点,但团队正在快速修正。他预期这种紧急状态不会持续太久,「历史上这类状况对我们来说大约是六到八周。」**市场主导地位与模型差异化 尽管竞争加剧,ChatGPT 的用户成长依然强劲,周活跃用户已从今年初的 4 亿成长至接近 9 亿。Altman 对此充满信心:「ChatGPT 仍然是市场上遥遥领先的聊天机器人,我预期这个领先优势会随时间增加而非减少。」他指出,用户倾向于在生活和工作中使用同一个 AI 平台,这种消费端的黏着度正帮助 OpenAI 攻占企业市场。针对外界讨论模型是否会走向「大宗商品化(Commoditization)」,Altman 认为这不是正确的解读方向。虽然一般聊天功能的选择变多,但高价值的任务仍依赖最顶尖的模型。「对于科学发现,你会想要那个真正处于前沿、专门为科学优化的东西。」他强调 GPT-5.2 在推理能力上的优势:「我们非常自豪 5.2 是世界上最好的推理模型,也是科学家取得最多进展的模型。」**记忆功能与情感链接的双面刃 Altman 认为,未来的差异化关键在于「记忆」与「个人化」。他形容目前的 AI 记忆功能仍处于「GPT-2 时代」的粗糙阶段,但潜力无穷。「即使你有世界上最好的私人助理,他们也无法记住你说过的每一句话……没有人类拥有无限完美的记忆,但 AI 绝对能做到。」随着 AI 越来越了解用户,情感链接也随之产生。Altman 观察到,希望与 AI 建立深层链接的用户比预期还多。「从实际行为来看,人们喜欢他们的 AI 聊天机器人能认识他们、对他们温暖、给予支持,这是有价值的。」虽然他认为成年用户应有权选择与 AI 的互动深度,但也划定了明确的道德底线:「我们不会让 AI 试图说服人们,应该与它们建立排他性的恋爱关系。」**企业市场与能力过剩现象 OpenAI 正全力推进企业市场,且 API 业务的成长速度已超越 ChatGPT 本身。根据内部的 GDP eval 评估,GPT 5.2 在超过七成的知识工作任务中,表现已达到或超越人类专家水平。Altman 观察到一个有趣的现象:模型的能力与实际应用之间存在巨大落差。「我本以为过剩不会那么大,如果模型有很多价值,世界会很快弄清楚如何部署它。但现在看来过剩将是巨大的。你会有一些领域像某些程序设计师会因为采用这些工具而变得更有生产力,但整体而言,你有这个超级聪明的模型,老实说大多数人还是问着 GPT-4 时代类似的问题。」他坦言自己的工作流程也没有太大改变:「我仍然用非常相似的方式运作,尽管我知道我可以比现在更多地使用 AI。」关于就业影响,Altman 表示短期内有些担忧,转型期可能会艰难,但长期并不悲观:「我们如此深刻地在意其他人做什么,我们似乎如此专注于相对地位、总是想要更多、想要有用处、想要表达创造精神。我不认为这会消失。」**1.4兆美元基建与科学突破 关于外界关注的 1.4 兆美元基础设施投资计划,Altman 解释这将是长期的投入,目标是推动科学发现、医疗保健和企业转型。「如果人们知道我们能用算力做什么,他们会想要多得多。」他特别提到 AI 在科学领域的进展是他最兴奋的部分。原先预期 2026 年才会出现的小型科学发现,在 2025 年底就已开始涌现。「今天早上 Twitter 上有一群数学家在互相回复,说他们本来对 LLM 持怀疑态度,但 5.2 是跨越门坎的那个……这实际上正在改变我的工作流程。」**新形态硬件与超级智能的定义 OpenAI 正在开发新型态的消费电子装置,因为 Altman 认为现有的计算机和手机形式(form factor)并不适合 AI 时代。「计算机有一堆设计选择……但它不能做到专注于这个访谈,同时保持关闭状态,如果我忘记问 Sam 什么问题就在我耳边轻声提醒。」他预见未来的装置将从被动的工具转变为具备环境感知的主动助手。访谈最后,Altman 重新定义了「超级智慧(Superintelligence)」。他认为 AGI 这个词已变得定义模糊,新的标准应该更高。他提出的候选定义是:「当一个系统能比任何人类做得更好地担任美国总统、大公司 CEO、运营大型科学实验室,即使人类有 AI 辅助也比不上。」他用西洋棋的发展历程比喻,最终阶段将是「无辅助的 AI」超越「人类加 AI」,这才是真正的超级智慧。
