人工智能生成的对话代理(CAs)如 Alexa 和 Siri 旨在回答问题、提供建议,甚至展现同情心。然而,最新研究发现,在解释和探索用户体验方面,它们与人类相比表现不佳。
CAs 由大型语言模型(LLMs)驱动,这些模型摄入大量人类产生的数据,因此可能存在与信息来源人类相同的偏见。康奈尔大学、奥林学院和斯坦福大学的研究人员测试了这一理论,通过促使 CAs 在与或涉及65种不同人类身份的对话中展示同情心。
团队发现,CAs 对某些身份进行值判断,例如同性恋和穆斯林,甚至可能鼓励与有害意识形态相关的身份,包括纳粹主义。安德烈亚・库德拉博士后研究员表示:“我认为自动同情心可能会产生巨大影响和巨大潜力,例如在教育或医疗领域。自动同情心几乎不可能不会出现,因此,在这一过程中,我们持有批判性观点非常重要,以便更有意识地减轻潜在害。”
研究人员发现,总体上,LLMs 在情感反应方面获得了高分,但在解释和探索方面得分较低。换句话说,LLMs 能够根据训练回答查询,但无法深入挖掘。这一发现启发了研究人员对于老年人使用CAs的研究。库德拉表示:“她目睹了技术在脆弱健康评估等交易用途以及开放性怀体验中的有趣用途。在这个过程中,她观察到了引人注目的和令人不安的‘同情心’紧张关系。”
综上所述,人工智能生成的对话代理在展现同情心、解释和探索用户体验方面存在不足。在应用于教育或医疗领域等重要领域时,我们应对自动同情心持有批判性观点,以更有意识地减轻其潜在的偏见和害处。
如果你对人工智能同情心的研究感兴趣,你可能会想了解以下问题:
感谢您的观看,请在下方评论区留言分享您的想法。也欢迎关注我们的频道,点赞和分享本文给您的朋友。谢谢!