AI的下一个严重打破是了解情感吗?Hume AI示意是的。
3月27日,一家名为Hume AI的新创公司宣布,他们曾经在一轮B轮融资中筹集了5000万美元。
这家初创公司由前Google DeepMind钻研员Alan Cowen共同创立并负责CEO。
Hume AI与其他人工智能模型提供商和初创公司的区别在于,它专一于创立一款能够了解人类情感、适当做出反响并向用户传播情感的人工智能助手。
这款聊天机器人不只基于文本,还经常使用语音对话作为其接口,经过听取人类用户的语调、音高、进度等声响特色来运作。
Hume AI同时颁布了其名为「共情语音界面」(Empathic Voice Interface)的演示,只有要经常使用带有麦克风的设备,就可以与之启动互动。
为什么AI须要了解情感
Hume AI的通常是,经过开发能够更粗疏地理解和表白人类情感的AI模型,它可以更好地为服务用户。
Hume AI不只仅想要了解用户「快乐」、「悲伤」、「愤怒」、「惧怕」等等通用的人类心情,而是更巧妙、通常是多维的心情。
比如「敬仰」,「崇敬」,「入迷」,「讥刺」,「羞耻」等等,Hume AI在其网站上总共列出了53种不同的心情。
官方地址:(高低滑动检查所有)
情感智能包括从行为中推断用意和偏好的才干。这正是AI界面试图成功的**指标:推断用户想要什么并成功它。因此,在某种意义上,情感智能是AI界面的最关键的要求。
经过语音AI,你可以取得更多对于用户用意和偏好的线索。
这使得咱们的AI在预测人类偏好和结果、知道何时谈话、知道该说什么以及如何以正确的语气谈话方面变得愈加杰出。
Hume AI演示之后,反响十分狂热。
云端和Web运行开发软件公司Vercel的首席口头官Guillermo Rauch就发帖称:「这是迄今为止我见过的最好的人工智能演示之一。」
如何从语音变动中检测心情
在其网站上,Hume指出:「这些模型是基于大规模、试验控制的情感表白数据的人类强度评分上启动训练的。」
第一项钻研包括来自美国、中国、印度、南非和委内瑞拉的16,000名介入者,无心思的是,数据集外面还有一局部是用来记载「语音迸发」或非词汇声响,如笑声和「嗯嗯」等。
第二项钻研包括来自上述五个国度以及埃塞俄比亚的5,833名介入者,他们在计算机上启动了一项考查,在考查中他们剖析了来自4,659个面部表情数据库的高达30个不同的「种子图像」。
介入者被要求模拟他们在电脑上看到的面部表情,并从一个蕴含48种心情的列表中,依照1-100的强度启动评定。
在互动中,Hume AI的EVI说道,Hume的团队「搜集了有史以来最大、最多样化的人类情感表白库。咱们议论的是来自环球各地的一百多万介入者,介入了各种各样的事实生存互动。」
Hume AI应用这两项钻研的照片和介入者的音频数据训练了自己的深度神经网络。
这些数据还用于创立了一个「语音韵律模型」(speech prosody model),用于测量语音的调子、节拍和音色,并整合到EVI中。
情感AI的运行和解放
Hume AI提供其EVI的API,准许用户依据其共同的数据集训练自己的Hume AI模型。
同时还提供「表白测量API」(Expression Measurement API), 企业客户可以经常使用该API构建运行程序。
在表白测量API中可以访问的其余属性包括了解面部表情、语音迸发和情感言语——后者测量「转录文本的情感语调,包括53个维度」。
EVI可以作为任何运行的界面。开发人员可以经常使用Hume AI的API构建团体AI助手、代理和可穿戴设备等等,产品可涵盖从AI助手到肥壮治理、从教学辅导到客户服务等各个畛域。
但同时,人们或者会对Hume的EVI发生依赖或以一种不肥壮的形式沉溺于它的后劲,该技术也或者会被用于一些不好的用途,比如操纵、欺诈等等。
当人工智能应用咱们的情感行为来到达某些指标(比如促成购置、提高介入度或造就习气)时,它或者会学会操纵和应用咱们的情感。
因此,开发人员应该将了解用户情感行为视为人工智能自身的指标,而不是将这些行为仅仅当作到达第三方指标的手腕。
算法用于检测情感线索应该服务于用户肥壮和福祉的指标,包括对意外状况做出适当反响、包全用户免受滥用,并促成用户的情感认知和自主性。
该网站还包括一系列「不支持的用例」,例如操纵、诈骗、「提升缩小幸福感」(如「心思抗争或折磨」)以及「有限度的共情人工智能」。
但这不过泛泛而谈,当AI真的有了情感之后,如何用伦理、用法律去解放,人类还有很长的路要去探求。