根据滑铁卢大学的一项新研究,三分之二的受访者认为,像ChatGPT这样的人工智能(AI)工具在某种程度上具有意识,并能够拥有诸如情感和记忆等主观体验。
ChatGPT等大型语言模型(LLMs)在输出内容时,通常会展现出一种对话风格。这些类似人类的能力引发了关于AI是否具有意识的争论。
研究人员表示,如果人们认为AI具有某种程度的意识,那么这最终可能会影响人们与AI工具的互动方式,可能会加强社会联系并增加信任。然而,过度信任也可能导致情感依赖、减少人际交往以及过度依赖AI做出关键决策。
该文章《将意识归因于大型语言模型的民间心理学》发表在《意识神经科学》杂志上。
“尽管大多数专家否认当前的人工智能可能具有意识,但我们的研究表明,对于大多数公众而言,人工智能意识已经成为现实,”滑铁卢大学艺术学院心理学教授克拉拉·科伦巴托博士说。
为了了解公众对AI意识的看法,科伦巴托和她在伦敦大学学院的同事史蒂夫·弗莱明博士对美国的一个分层样本中的300人进行了调查,询问他们是否认为ChatGPT具有意识能力,以及是否具有制定计划、推理和感受情感等其他心理状态的能力,并询问了他们使用该工具的频率。
研究发现,人们使用ChatGPT越频繁,就越有可能将其归因于具有意识——这是一个重要的考虑因素,因为AI工具正日益成为我们日常生活的一部分。
“这些结果表明了语言的力量,因为仅仅通过一次对话,就能让我们认为一个与我们外貌和工作方式截然不同的智能体也可能拥有意识,”科伦巴托说。
“除了情感之外,意识还与道德责任所必需的智力能力相关:制定计划、有意行动和自我控制的能力是我们伦理和法律体系的基本原则。因此,在设计和监管AI以确保其安全使用时,除了专家共识外,这些公众态度也应成为关键考虑因素。”
未来的研究将探讨驱动这些意识归因的更具体因素,以及它们对信任和社会联系的影响,同时还将探讨相同人群在不同时间内的可能变化,以及不同国家和文化中不同人群之间的差异。