随着人工智能(AI)技术的飞速发展,越来越多的研究人员开始对大型语言模型(如 ChatGPT)进行深入探讨。近日,亚利桑那州立大学的研究小组在预印本平台 arXiv 上发表了一项引人关注的论文,指出我们对这些 AI 模型的理解可能存在误区。他们认为,这些模型实际上并不会进行真正的思考或推理,而仅仅是在寻找相关性。
论文中,研究者们特别提到,尽管这些 AI 模型在给出答案之前,往往会生成一系列看似合理的中间过程,但这并不意味着它们在进行推理。研究小组强调,这种将 AI 模型行为拟人化的说法,可能会导致公众对其工作机制产生误解。他们指出,大模型的 “思考” 实际上是通过计算寻找数据之间的相关性,而非理解因果关系。
图源备注:图片由AI生成,图片授权服务商Midjourney
为了验证他们的观点,研究人员还提到了一些推理模型,如 DeepSeek R1,虽然在某些任务中表现优异,但这并不证明它们具备人类思考能力。研究表明,在 AI 的输出中,并没有真正的推理过程存在。因此,如果用户将 AI 模型生成的中间输入视作推理过程,可能会对其问题解决能力产生误导性信心。
这项研究提醒我们,在日益依赖 AI 的时代,必须更加谨慎地看待这些技术的能力。随着对大模型能力的认知深化,未来的人工智能研究将可能朝着更具解释性的方向发展,帮助用户更清晰地理解 AI 的实际工作原理。