【AI越强大,你越需要真正懂点什么】RyanHoliday最近写了一篇长文,

爱生活爱珂珂 2026-02-16 00:01:18

【AI越强大,你越需要真正懂点什么】

Ryan Holiday 最近写了一篇长文,核心论点其实很古老:AI 擅长生成看起来合理的东西,但不擅长生成真正正确的东西。区分这两者的能力,恰恰依赖于那些"据说即将被淘汰"的旧技能。

他不是反技术的卢德分子。他用 ChatGPT 规划希腊旅行、给孩子生成故事。但他发现了一个规律:每次 AI 给出错误答案,他之所以能识别,全靠自己多年积累的知识。

一个例子:他问 ChatGPT 某句话是否出自林肯,AI 信誓旦旦地确认了,还给出了出处。问题是,这句话根本不是林肯说的。如果他不是研究过林肯,他会直接把这个错误写进书里。

另一个例子:AI 告诉他美国海军学院每年有多少学员死亡,数字看起来很权威。但他凭直觉觉得不对,一查,AI 把完全不相关的统计数据张冠李戴了。

有人在回复里说了一句极有穿透力的话:AI 自动化的不是知识,而是"看似合理性"。当流畅的废话生产成本趋近于零,瓶颈就变成了谁来承担"确认正确"的成本。

Holiday 提到他的导师 Robert Greene 年轻时做过一件事:逐字翻译修西底德的《伯罗奔尼撒战争史》。不是为了翻译本身,而是为了训练思维。这个过程花了几个月,痛苦、缓慢、低效。但正是这种"必要的困难"塑造了他后来的写作能力。ChatGPT 三十秒能给你答案,但过程被隐藏了。

这里有一个残酷的悖论:AI 对最不需要它的人最有用。你知道得越多,越能分辨 AI 输出的信号和噪音,它对你的帮助就越大。你知道得越少,越无法判断它是否在骗你。

有人反驳说,Holiday 描述的那些 AI 错误已经过时了,新模型好多了。这话有道理,但恰恰证明了他的核心论点:你需要知道怎么提问,需要知道什么时候答案不对,需要知道该用什么工具。这些都是人的能力。

也有人指出了一个更深的问题:如果辨别 AI 胡说的能力需要广泛阅读、深度研究、批判性思维,而获得这些东西的成本越来越高,那么能辨别真伪的人会变成一个越来越小的群体。这不只是个人选择的问题,而是结构性不平等的问题。

回复里有句话说得好:没有自己的知识基础,你不是在使用 AI,是 AI 在使用你。

AI 是一面镜子,反射的不是真相,而是你辨别真相的能力。如果你有能力,它放大你的能力。如果你没有,它放大你的无知,而且以一种看起来像知识的方式放大。这比单纯的无知更危险。

塞涅卡说过:没有人偶然变得智慧。你不能通过概率获得智慧,而大语言模型从根本上说就是一台概率机器。

机器越来越擅长听起来聪明,所以我们必须真正变得聪明。这不是一个关于技术的论点,这是一个关于人之为人的论点。

x.com/RyanHoliday/status/1933535083988693267

0 阅读:0
爱生活爱珂珂

爱生活爱珂珂

感谢大家的关注