扫一扫立即咨询扫一扫立即咨询
留学咨询热线:18071732056
首页 / 院校汇总 / 院校新闻 / 大型语言模型会欺骗你——这位教授希望你知道何时会被骗
东北大学
  • 东北大学
  • Northeastern University
  • 国家/地区:美国
  • 学校地址:美国马萨诸塞州波士顿
  • 学校网站:-
  • 学校特点著名研究型私立大学 专业设置齐全 地理位置优越
3962025年QS排名
1942023年USNEWS排名

大型语言模型会欺骗你——这位教授希望你知道何时会被骗

发布日期:2024-12-31 09:26:52 阅读:22

与几乎任何人——任何人,只要是人类——交谈,你的对话都会遇到Malihe Alikhani所称的“健康的摩擦”,即你的对话目标与你的伙伴的目标产生碰撞的时刻,需要澄清、产生困惑或导致分歧的时刻。

大型语言模型则不会这样。

Alikhani 是东北大学 Khoury 计算机科学学院的助理教授,她说像 ChatGPT 这样的大型语言模型在确定性方面存在严重问题。

Alikhani 的新项目名为“对话交易中问责制的摩擦”(Friction for Accountability in Conversational Transactions,简称 FACT),是东北大学、伊利诺伊大学厄巴纳-香槟分校和南加州大学之间的合作。

该项目由美国国防高级研究计划局(Defense Advanced Research Projects Agency)通过人工智能探索基金资助,旨在开发更透明、更公平的人工智能工具。

“人类交流之所以成为一种有效的工具,”Alikhani 说,“是因为我们在言语、语调和面部表情中都表达出了不确定性。”

她继续表示,人际交流中由不确定性产生的健康摩擦有助于保持意见的多样性。

但大型语言模型(或 LLMs)对表达不确定性不感兴趣,从而导致 Alikhani 所称的“谄媚行为”。大型语言模型“希望最大限度地满足”用户,她说,并且“无论模型的陈述是否自信,都不会在对话中引入任何摩擦。”

大型语言模型还因其容易产生幻觉的倾向而引发更多问题。LLMs“编造事实。它们非常擅长说服人们相信这些编造的事实。”

尽管存在这些问题,Alikhani 也表示,人类往往过于依赖这些人工智能模型生成的“事实”,而这些“事实”可能只是为了让用户高兴而编造的。

她表示,导致用户过度依赖 LLMs 的部分原因是它们具有“类似人类的行为”。“这会操纵我们的认知。”

大型语言模型似乎还能即时产生响应,这也是让用户认为其回答正确的另一个因素。“作为 AI 科学家,我们很难告诉人们,‘是的,它很连贯。是的,它速度很快。是的,它符合你的风格。但它会产生幻觉,’”Alikhani 说。

在新的资助下,Alikhani 和她的团队将设计工具,以展示 LLM 对其陈述的确定性程度,并在人机对话中引入健康的摩擦。

“我们如何预测并说出系统的信心程度?”Alikhani 问道。如果一个 AI 模型“只有 2% 的信心,它应该将这种信心表现出来。”

“研究的主要目标之一是建模不确定性,将不确定性表现出来”,并教会 LLMs 如何在人机对话中表现出这种不确定性。这可能会在用户界面上以模型确定性的百分比分数显示,或者模型可能以更人性化的方式在回应中反映出不确定性。

例如,Alikhani 设想了一个场景,病人可能会向大型语言模型询问关于自己健康的问题。当前一代的 LLMs 会尝试给出答案,即使这个答案可能是危险的。Alikhani 希望构建能够说“我不知道。你应该打电话给护士。”的模型。

“鲁棒性是 AI 问责制的关键,”Alikhani 说。目前,LLM 通常会在提问时给出一个答案,而在几分钟后又给出一个完全不同的答案。

当谈到设计既安全又可问责的 AI 时,Alikhani 说,以前可能有助于简单任务的 AI 系统“无法访问其他许多数据集”,“它们无法说出可能危险的话,因为那些话不在它们的数据中。”

这些数据集到底包含——或排除——哪些内容,是克服 LLM 在“性别”方面以及更微妙的偏见(如内群体与外群体和反映在大型语言模型中的不同认知偏见)方面所表现出的偏见的关键。

现在,Alikhani 希望设计能够为具有“不同承受能力和偏好”的人服务的模型,她说。

“我们不希望只为我们有数据的人口构建系统,但我们也要考虑我们遗漏了谁,以及我们如何缩小这一巨大的不平等差距,而不是加剧它?”她问道,“我实验室的目标是朝着这个方向迈进。”


bg
Consultation and evaluation
咨询评估

up