纽约初创公司 Hume AI 最近宣布,他们已经在一轮 B 轮融资中筹集了 5000 万美元。Hume AI 创始人之一,前 Google DeepMind 研究员 Alan Cowen 表示,Hume AI 旨在打造一款能够理解人类情感、适当做出反应并向用户传达情感的人工智能助手。
为什么 AI 需要理解情感?
Hume AI 的理论是,通过开发能够更细致地理解和表达人类情感的 AI 模型,它可以更好地为服务用户。Hume AI 不仅仅想要了解用户「快乐」、「悲伤」、「愤怒」、「害怕」等等通用的人类情绪,而是更微妙、通常是多维的情绪。比如「钦佩」,「崇拜」,「入迷」,「讽刺」,「羞耻」等等,Hume AI 在其网站上总共列出了 53 种不同的情绪。Hume AI 的团队「收集了有史以来最大、最多样化的人类情感表达库。我们谈论的是来自世界各地的一百多万参与者,参与了各种各样的现实生活互动。」
如何从语音变化中检测情绪?
该公司提供的是一款能够检测出用户情绪的语音接口技术,只需使用带有麦克风和听听用户语音、音调、音高、停顿等声音特征的设备,就可以进行互动。Hume AI 利用前 Google DeepMind 研究员 Alan Cowen 等人发表的两篇科学研究论文:「Deep learning reveals what vocal bursts express in different cultures」和「Deep learning reveals what facial expressions mean to people in different cultures」 中的照片和参与者的音频数据训练了自己的深度神经网络,并创建了一个「语音韵律模型」(speech prosody model),用于测量语音的调子、节奏和音色,并整合到 EVI 中。
情感 AI 的应用和约束
Hume AI 提供其 EVI 的 API,允许用户根据其独特的数据集训练自己的 Hume AI 模型,同时还提供「表达测量 API」(Expression Measurement API), 企业客户可以使用该 API 构建应用程序。在表达测量 API 中可以访问的其他属性包括理解面部表情、语音爆发和情感语言——后者测量「转录文本的情感语调,包括 53 个维度」。EVI 可以作为任何应用的界面。开发人员可以使用 Hume AI 的 API 构建个人 AI 助手、代理和可穿戴设备等等,产品可涵盖从 AI 助手到健康管理、从教学辅导到客户服务等各个领域。
但同时,人们可能会对 Hume 的 EVI 产生依赖或以一种不健康的方式沉迷于它的潜力,该技术也可能会被用于一些不好的用途,比如操纵、欺诈等等。该网站还包括一系列「不支持的用例」,例如操纵、欺骗、「优化减少幸福感」(如「心理战争或折磨」)以及「无限制的共情人工智能」。人类还有很长的路要去探索如何用伦理、用法律去约束。
总之,人工智能在情感理解上的突破,将进一步拓宽 AI 的应用领域,例如基于情感理解的智能客服系统,智能教育以及智能医疗等等。不过,如何约束利用人工智能的行为,防止其被用于操纵、欺骗等行为,也将更加重要。
如果您对人工智能有更多的了解或者有任何想法,请在下方评论区与我们分享!感谢阅读。
文章参考:https://venturebeat.com/ai/is-ais-next-big-leap-understanding-emotion-50m-for-hume-says-yes/
本文链接:https://www.24zzc.com/news/171264712866161.html