做个预言,AI 大模型的训练资源已经达到了极限,再增加参数将只会把复杂度推高,而不会产生更多的“智能”。所以我的结论是,更多的资源规模的单一模型只会产生弱智化的局面,而不会产生AGI。
从openai的发展中已经得出了结论,gpt1到gpt3的质变在gpt4-gpt5上并没看见,除了个别场景的定向优化如codex以外,再无任何可量化感知。但资源消耗是天量的。可以确定gpt6要么难产,要么是gpt5的换壳,grok5也是一样。将来它们的方向都不是通用AI而是场景细化的解决方案,做细分领域的数据集质量从而完善响应结果。
1、LLM本质不会再有质的变化,不可能像chatgpt,sora,deepseek这些应用出来那样惊艳,而是进入了一个平庸的僵持期。
2、在LLM的Scale law下加大资源的训练只会适得其反,不可能通向AGI。
3、人工智能的向前发展是必然的,但那还很遥远,至少以十年为单位。
4、接最后棒烧钱的AI公司会死得很惨,AI训练硬件军备竞赛已经接近尾声。
5、资源是瓶颈的言论证明LLM的架构已经与搜索引擎完全同化,它需要无数的节点来存储数据,它并非是智能,而是搜索与匹配。
6、我们将在一段时间内处于AI技术的停滞期。从对训练的关注转向应用的集成与优化。
AI最大的机会在于训练与推理的统一,这个问题不解决,根本就没摸到智能的门槛。从真正智能的角度看,训练本身是推理的过程,此二者不可分割,而不是训练完了才有推理,那是一种伪装成推理的统计与概率匹配。人类的训练与推理是一个高效递归函数,而非梯度下降这么简单。
真正通向AGI之路,那必将是一个科学理论全面更新后的结果,人类进入生物仿真的软硬件新时代,而不是现在的X86架构或是几亿个cuda浮点运算核心。现在的LLM其实是在强化存储能力,而刻意地忽略了实时计算的能力。它的搜索返回结果是一个异化的查询过程。
最终,人类在实现真正的“具身智能”时,也将自己的文明推向了一个全新的高度。