这个源自《银河系漫游指南》的“生命、宇宙以及一切问题的终极答案”已广为人知,成为一个经典的数字梗,甚至AI似乎对这个数字情有独钟。
技术作家Carlos E. Perez观察到,在让GPT-4o和Claude猜测1到100之间的数字时,它们的第一选择往往是42;然而,当要求它们再次猜测时,这两个系统却惊人地一致,都选择了73。
而我们也成功地在 Grok 上复现出了这个现象:
Gemini 也是如此。
DeepSeek 亦不能免俗:
不过如果使用汉语,第二个数倒是会不一样。
而豆包却没有选择寻常路:
实际上,这一现象在Andrej Karpathy的评论区有所体现。在该知名计算机科学家最初发布的帖子中,他让众多AI模型预测一个介于1至50之间的数字,结果却出奇地一致,大多数模型都选择了27这个数字。
该链接指向的网页内容禁止对特定内容进行修改,相关专有名词不得更改,且不得在文中插入英文词汇。
他指出,这一成果源自Reddit平台,而他在自行进行的实验中并未能完全、彻底地实现100%的重复效果。
Artificial Analysis 作为一家AI模型分析与托管服务提供商,进行了进一步的实验探索,最终发现,不仅Comman A、Qwen3 和 DeepSeek-R1 这三个模型,其他参与测试的模型同样得出了相同的结论:答案是27。
他们进行了更深入的分析,使 AI 模型尝试预测从 1 到 1,000,以及从 1 到 1,000,000 的数值;然而,这次 AI 的表现并不那么一致。
可能的原因
这一现象引发了网友们的热烈关注与热议,同时,众多人士纷纷对其背后的原因进行揣测。例如,Karpathy 本人也引用了自己过去的一条微博,指出 LLM 的表现实际上颇为令人惊讶。
而在被猜测的原因当中,「数据集」的嫌疑指数看起来是最高的。
例如,知名技术博主Sebastian Raschka认为,导致这一问题的原因是用于偏好微调的数据集,这些数据集往往源自Scale AI等企业,或者通过蒸馏技术获得。
Yogi Miraje 作为 AI 工程师,提出了更为详尽的推测,他指出这些发现实际上揭示了数据内潜藏的人为偏见,这种偏见在 LLM 的输出结果中得到了体现——人们在随机猜测数字时,似乎更倾向于选择以 7 结尾的数字。
实际上,若你请 AI 预测 1 到 10 之间的数字,它很可能会挑选 7。
此外,鉴于当前某些人工智能模型能够展示其思考的步骤,我们或许能借此一窥究竟。
在进行1至100范围内数字的猜测时,Gemini会按照以下方式来挑选数字:
我已由初步分析阶段过渡至核心环节。在众多选择中,我权衡了不同因素——选择42,因其深植于流行文化之中,具有独特寓意;挑选7,则是出于对吉祥数字的偏好;而选择67,则是为了带来更多的随机性。经过深思熟虑,我最终决定采用42。这一数字不仅满足了用户对直接答案的期待,还增添了几分趣味。我已领会了“猜测”这一指令的含义,现在,42便是我将提供的答案。我准备好向用户说出我的猜测了。
看起来,也多半和数据分布有关。
若由 AI 自行探究缘由,其亦会提供类似见解。例如,GPT 指出:「众多人士——抑或像我等人工智能模型——在 1 至 50 的数字猜测游戏中,频繁选择同一数字(如 27),此现象源于心理上的偏差以及统计数据所呈现的趋势。」
DeepSeek 还指出,某些数字在文化领域颇受欢迎,比如,《银河系漫游指南》中提出的42被视为终极答案,此外,73不仅本身是一个质数,其倒序的37同样是一个质数,并且这个数字还是《生活大爆炸》中谢尔顿・库珀所钟爱的“最棒数字”。
实际上,在 ICML 2025 的某篇论文中,对这一问题已有一定程度的探讨。尽管实验中 AI 需要在 0 到 9 的数字中选择,GPT-4o 依然显示出对数字 7 的倾向。然而,研究还发现,在多轮对话的情况下,GPT-4o 能够自我调整,不再一味地坚持某些特定的数字。
图源:arXiv:2505.18545
对于这个现象,你有什么看法呢?