人工智能,正在跨越人机情感鸿沟
理解人类情感并不是新近的研究。 早在1997年,麻省理工学院媒体实验室Picard 教授就提出了情感计算的概念。Picard 教授指出,情感计算与情感相关,源于情感或能够对情感施加影响的计算。简单来说,情感计算旨在通过赋予计算机识别、理解和表达人的情感的能力,使得计算机具有更高的智能。 自此,情感计算这一新兴科学领域,开始进入众多信息科学和心理学研究者的视野,从而在世界范围内拉开了人工智能走向人工情感的序幕。 情感计算作为一门综合性技术,是人工智能情感化的关键一步,包括情感的“识别”、“表达”和“决策”。“识别”是让机器准确识人类的情感,并消除不确定性和歧义性;“表达”则是人工智能把情感以合适的信息载体表示出来,如语言、声音、姿态和表情等;“决策”则主要研究如何利用情感机制来进行更好地决策。 识别和表达是情感计算中关键的两个技术环节。情感识别通过对情感信号的特征提取,得到能最大限度地表征人类情感的情感特征数据。据此进行建模,找出情感的外在表象数据与内在情感状态的映射关系,从而将人类当前的内在情感类型识别出来,包括语音情感识别、人脸表情识别和生理信号情感识别等。 人脸表情识别显然是情感识别中关键的一部分。在人类交流过程中,有55%是通过面部表情来完成情感传递的。20 世纪70 年代,美国心理学家Ekman 和Friesen 对现代人脸表情识别做了开创性的工作。 Ekman 定义了人类的6 种基本表情:高兴、生气、吃惊、恐惧、厌恶和悲伤,确定了识别对象的类别;建立了面部动作编码系统(facial action coding system,FACS),使研究者能够按照系统划分的一系列人脸动作单元来描述人脸面部动作,根据人脸运动与表情的关系,检测人脸面部细微表情。 情感识别是目前最有可能的应用。比如,商业公司利用情感识别算法观察消费者在观看广告时的表情,这可以帮助商家预测产品销量的上升、下降或者是保持原状,从而为下一步产品的开发做好准备。 机器除了识别、理解人的情感之外,还需要进行情感的反馈,即机器的情感合成与表达。与人类的情感表达方式类似,机器的情感表达可以通过语音、面部表情和手势等多模态信息进行传递,因此机器的情感合成可分为情感语音合成、面部表情合成和肢体语言合成。 其中,语音是表达情感的主要方式之一。人类总是能够通过他人的语音轻易地判断他人的情感状态。语音的情感主包括语音中所包含的语言内容,声音本身所具有的特征。显然,机器带有情感的语音将使消费者在使用的时候感觉更人性化、更温暖。 从情感计算的决策来看,大量的研究表明,人类在解决某些问题的时候,纯理性的决策过程往往并非最优解。在决策的过程中,情感的加入反而有可能帮助人们找到更优解。因此,在人工智能决策过程中,输入情感变量,或将帮助机器做出更人性化的决策。 微软的研究人员曾在这个问题上给出过答案,他们提出了一种基于周围血管搏动测量(Peripheral Pulse Measurements)的内在奖励的 (编辑:应用网_丽江站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |