EN [退出]

南方网帐号登录

× 没有帐号?极速注册
南方网>科技>今日聚焦

中国团队开发出情感机器人 人机互动再进一步

2017-05-07 00:00 来源:网易

  据《卫报》报道,科学家们已经开发出了一个“有情感的聊天机器”,预示着人机互动变得毫无阻碍,跨越单纯的功能范畴的时代的来临。

  该由一个中国团队开发的聊天机器人被视作向开发富有情感的高级机器人的目标迈出的重要一步。

  该机器人简称ECM,能够产生真实连贯的答案,同时也能够在对话中表现出情感来,如快乐、悲伤或者厌恶。

  对于这一最新进展,伦敦大学帝国理工学院计算机科学家比约恩·舒勒(Bj?rn Schuller)认为,该研究向打造可阅读对话隐含的情绪和进行共情式回应的个性化助手迈出了“重要的一步”。

  “这迟早会成为出现在日常生活中的下一代智能技术。”他说道。

  该中国团队的研究论文称,在测试过该机器的人当中,61%更喜欢有情感的版本,而非中性版本。让人工输入回复伪装成高级AI的“Wizard of Oz”研究也得出了类似的结果。

  “问题并不在于它们是否受欢迎——它们显然是受欢迎的——而在于它们能够用于哪些应用,不能够用于哪些应用。”舒勒说道。

  清华大学计算机科学家、该论文的合著者黄民烈表示,“我们距离做出能够完全理解用户情感状态的机器还很遥远。这只是解决这一问题的第一次尝试。”

  黄民烈和同事一开始先着手打造一个“情感分类”算法,让它通过摘取自微博的2.3万条内容学习检测人们的情感。那些内容事先由人工进行情感分类,分成悲伤、开心等等。

  接着,该情感分类算法被用来根据情感内容给数百万条社交媒体互动打上标签。这一巨大的数据集成了该聊天机器人学习如何回答问题和如何表达情感的训练基础。

  所产生的程序能够依据用户的偏好切换成五种模式——开心、悲伤、愤怒、厌恶和顺心。例如,用户在对话中输入:“这一天糟糕透顶了。我因为交通拥堵迟到了。”

  在中性模式下,该聊天机器人会回应道,“你迟到了。”其它的几种回复包括:“有时候,生活就是这么糟糕!”(厌恶模式),“我一直在这支持你”(顺心模式),“保持微笑!事情会变好的”(快乐模式)。

  该团队预计,未来,该软件还能够学习在特定的时候用合适的情感来表达。黄民烈说道,“它大体上就是会表现出共情来。”他还说,他们的挑战将会是避免让该聊天机器人使得用户诸如愤怒的负面情绪更加强烈。

  近年来,聊天机器人被广泛拿来试验攻克机器智能问题。名为Eugene Goostman的聊天机器人成功令部分评委相信他们是在跟真人对话——仅仅通过假扮一位只懂一点英语的13岁乌克兰男孩就能做到。微软的聊天机器人Tay本应通过Twitter的互动内容来学习如何聊天,但上线不到24小时,便因为发表了不当的、种族主义的言论而被叫停。

  最新的研究显示,在机器学习技术的驱动下,聊天机器人正开始取得重大的进展。牛津互联网研究所计算机科学家桑德拉·瓦赫特(Sandra Wachter)指出,未来这种算法很可能会变得个性化。“有的人更喜欢鼓励性的话语,有的人则更喜欢咆哮式的讲话。”她说道,“由于情感的复杂,人类往往在如何合适地作出回应上陷入挣扎,因此打造出能够准确解读我们的‘情感代码’的技术会令人印象深刻。”

  随着计算机互动慢慢从呆板不自然变得接近于友好的闲聊,我们可能将会面临新的风险。

  其中一个隐忧是,技术可能会被用来诱使用户分享敏感的个人数据。“孩子可能会跟他们的‘人造朋友’分享自己的想法,然后这种数据可能会被存储下来。”瓦赫特说道,“要是我们发现人们在愤怒、悲伤或者无聊的时候更有可能购买更多的产品,会怎么样呢?检测出这些情感和成功控制它们的能力,对于企业而言可能会是很有意思的工具。”

  另外,用户也有可能变得在情感上依靠计算机,甚至爱上计算机。

  “不过,那些技术也可能会带来很大的益处,比如现有的软件能够教导患有自闭症的儿童进行情感互动和社交互动。”舒勒说,“我们必须要谨慎地平衡好它们的益处和风险,确保能够以最妥当的方式利用它们。”(乐邦)

编辑: 杨智明
相关新闻

网友评论
请登录后进行评论| 0条评论

请文明发言,还可以输入140

您的评论已经发表成功,请等候审核

小提示:您要为您发表的言论后果负责,请各位遵守法纪注意语言文明

微信
QQ空间 微博 0 0
回到首页 回到顶部

网站简介-广告服务-诚聘英才-联系我们-法律声明-友情链接

本网站由南方新闻网版权所有,未经授权禁止复制或建立镜像 广东南方网络信息科技有限公司负责制作维护

违法和不良信息举报电话:87373397 18122015068

ICP备案号:粤B-20050235