让人工智能具有“情商”丨双语阅读
在电脑执行数据处理等“后台”功能的时代,缺乏情商问题不太大。但随着电脑承担数字助理和驾驶等“前台”职责,问题就大了。
拉纳•埃尔•卡利乌比(Rana el Kaliouby)在职业生涯中一直在应对一项日益重要的挑战:计算机不理解人类。她在快速发展的人机互动(HRI)领域工作已有20多年,先是作为剑桥大学(University of Cambridge)和麻省理工学院(MIT)的学者,现在是波士顿人工智能初创企业Affectiva的联合创始人和首席执行官。
“当今的科技拥有很高的认知智商,但没有情商,”她在一次电话采访中表示,“我们面临一场同理心危机。我们需要在更大程度上以人为中心来重新设计技术。”
在电脑只执行数据处理等“后台”功能的时代,问题并不太大。但随着电脑承担更多“前台”职责(例如数字助理和驾驶机器人),这引发了更重大的担忧。电脑日益在很多不同的环境与随机的人类直接互动。
这种需求促使情感人工智能(Emotional AI)快速兴起。这种人工智能旨在通过改善电脑与人类的互动方式,建立对电脑工作方式的信任。然而,一些研究人员已提出担忧:如果企业为了操纵消费者而滥用情感人工智能,那就可能会适得其反,进一步破坏人们对科技的信任。
从本质上说,情感人工智能试图通过读取面部表情、扫描眼球运动、分析音量和探测电子邮件流露出的情绪,对人类情感进行分类和做出回应。它已应用于多个行业,从游戏到广告,从呼叫中心到保险。
日本IT集团富士通(Fujitsu)正将“视线”传感器置入商店模型,由其向近旁的销售人员发送推送通知,就如何为客户提供最佳个性化服务提供建议。
埃森哲(Accenture)最近一份有关这类情感人工智能用途的报告提出,这项技术有望帮助公司深化与消费者的互动。但该报告警告称,使用情感数据存在内在风险,因为它牵扯到极端水平的亲密关系,对许多消费者来说是无形的,可能模棱两可的,而且可能导致难以纠正的错误。
但她坚称,这项技术只有在用户完全知情且同意的情况下才能使用,用户应该永远拥有选择退出的权利。她写道:“正因如此,公众有必要了解这项技术是什么、如何收集数据以及在哪里收集数据,并在如何使用数据方面拥有发言权。”
情感人工智能的主要危险或许是双重的:要么效果不好,导致有害的结果,要么效果太好,为滥用打开大门。使用这项技术的所有人,以及监管这项技术的所有人,都必须确保它恰到好处地为用户效力。
- 标签:人工智能英文中文
- 编辑:刘卓
- 相关文章
-
让人工智能具有“情商”丨双语阅读
在电脑执行数据处理等“后台”功能的时代,缺乏情商问题不太大
-
豆瓣影评聚焦:史上最经典机器人电影排行榜
电影总是给我们以未来世界的遐想,从电影中充满温情,充满人性,接下来带大家一起领略豆瓣高影评机器人电影的风采…
- 了解人工智能推荐你看这几部电影!
- 有几部关于人工智能的电影推荐给你看
- Meta人工智能翻译工具 可即时互译福建话和英语
- 《流浪地球2》影评:人类文明将来最大的挑战是人工智能
- 豆瓣86《人工智能》:“追求永恒和真诚”的交付所在及人性思考