了解孩子与社交机器人的关系
杰奎琳·科里·韦斯特隆德(Jacqueline M.Kory Westlund)
嗨,我叫Mox!
这个故事始于2013年,在波士顿的一所幼儿园里,我用笔记本电脑,耳机和麦克风藏在一个小厨房里。 以太网电缆穿过大厅到达教室,那里有17个孩子急切地等待轮到他们与一个蓬松的小型机器人交谈。

“嗨,我叫Mox! 很高兴认识您。”
我的声音调高了,并通过有点落后的网络发送。 我的话语由机器人Mox的扬声器播放,并被其麦克风拾起,并以两秒的延迟回响到我的耳机中。 以适当的速度说话,而忽略了我自己的声音回弹是很棘手的,但是我很快就陷入了困境。
这一天,我们正在幼儿园进行表演。 在我们进行即将进行的实验研究之前,这是我们的先导测试之一。 孩子们轮流告诉机器人他们最喜欢的动物。 机器人(用我的声音)回答了关于每只动物的一个有趣的事实,“你知道水豚是地球上最大的啮齿动物吗?”(是的,一个五岁的孩子最喜欢的动物是水豚。)后来,我们分享了机器人的制造方式,并讨论电动机,电池和3D打印机。 我们向他们展示了用于远程控制机器人的远程操作界面。 所有孩子都尝试触发机器人的面部表情。
然后一个孩子问他是否可以教机器人如何制作纸飞机。

我们刚刚告诉了他们所有这些机器人是如何由人类控制的。 我问:他是否想教我如何制作纸飞机?
不,机器人,他说。
不知何故,他刚刚学到的关于机器人和机器人操作员的知识与他认为机器人是什么样的角色之间存在脱节。
与机器人有关系吗?

自从进行游戏测试以来的几年中,我已经看到数百名儿童与遥控机器人和自动机器人互动。 孩子们和机器人聊天。 他们笑了。 他们提供拥抱,图纸和纸飞机。 一个孩子甚至邀请机器人去他学龄前的年终野餐。
不过,大多数情况下,我已经看到孩子们将机器人视为社交生物。 但不是很喜欢他们对待人的方式。 并不太喜欢他们如何对待宠物,植物或计算机。
这些交互是线索: 这里发生了一些有趣的事情。 儿童将机械属性归因于机器人-他们可以移动,看到,感到挠痒痒-但也归因于心理属性:思考,感到悲伤,需要陪伴。 是的,机器人可能会断裂,它是由人制造的,是的,但是它可能对事物感兴趣。 它可以喜欢故事; 可能很好。 也许,正如一个孩子所建议的那样,如果很难过,我们给它加冰淇淋会更好。

尽管我们的研究型机器人尚未在市场上出售,但研究儿童如何理解机器人不仅仅是一项学术活动。 许多智能技术正在加入我们的家园:Roomba,Jibo,Alexa,Google Home,Kuri,Zenbo等。 在我们的日常生活中,机器人和人工智能就在这里。
我们应该问自己,我们想与他们建立什么样的关系? 因为,正如我们在学习中与孩子们所看到的那样,我们将与他们建立关系。
我们到处都能看到代理商。
我们无法与机器人建立关系的原因之一是,人类已经进化到可以看到无处不在的代理和意图。 如果一个对象以明显的目标导向的方式独立移动,则我们将其解释为代理-即,我们将对象视为代理 。 即使只是几个简单的动画三角形在屏幕上四处移动,我们也会寻找并投射,代理和意图。
如果您考虑进化论,这是有道理的。 是我从眼角发现的动作只是微风中跳舞的几片叶子,还是一只老虎? 我的生存依赖于认为它是老虎。
但是关系不仅仅建立在识别其他主体的基础上。 关系是社会建构。 而且,人类是独一无二的-毫无疑问的-社交生物。 社会是我们生活的经纬。 一切都与我们与他人的互动有关:人,宠物,我们最喜欢的节目或书籍中的人物,甚至我们的植物或汽车。 我们需要伙伴关系和社区才能蓬勃发展。 我们会密切注意社交提示,例如注视,情绪,礼貌,无论这些提示来自人还是机器。
研究人员在过去的25年中一直在研究人类对计算机和机器的反应,就像这些物体是人一样。 甚至还有一本经典的书,由拜伦·里夫斯(Byron Reeves)和克利福德·纳斯(Clifford Nass)于1996年出版,名为《媒体方程式 :人们如何像真实的人和地方一样对待计算机,电视和新媒体》 。 他们的发现包括:人们将个性分配给数字设备,人们礼貌地对待计算机-例如,当他们不得不面对计算机时,他们会更积极地评价计算机。 仅仅告诉人们团队中有一台计算机,就会使他们对它的合作和友善度更高。
自该书以来的研究一次又一次地表明,这些发现仍然成立:人类将机器视为社会存在。 这使我们回到了现在的工作。
设计社交机器人来帮助孩子
我是个人机器人小组的博士研究生。 我们在人机交互(HRI)领域工作。 HRI研究以下问题:人们如何思考机器人并对其做出反应? 我们如何制造可以在生活的不同领域(例如制造业,医疗保健或教育领域)帮助人们的机器人? 我们如何构建自主机器人-包括感知,社交互动和学习算法? 在最广泛的范围内,HRI涵盖了人类与机器人接触并彼此或接近彼此做事的任何事物。

您可能会根据我在这篇文章中分享的轶事而猜测,我正在研究的HRI就是为儿童设计的机器人。
我们小组中目前有许多项目专注于此方面:帮助医院孩子的机器人,帮助孩子学习编程的机器人,促进好奇心和成长心态的机器人,帮助孩子学习语言技能的机器人。
在我的研究中,我一直在问类似的问题:我们可以建立支持儿童早期语言和识字学习的社交机器人吗? 机器人的哪些设计特征会影响儿童的学习-诸如机器人声音的表达能力,机器人的社会应变性,或者是否提供个性化的反馈? 孩子如何看待这些机器人?
机器人会取代老师吗?
当我向人们介绍媒体实验室使用机器人进行儿童教育的工作时,一个常见的问题是:“您是否要替代老师?”
为了缓解担忧:不,我们不是。
(也有一些父母说这很好,但是请您为我们建造一些机器人保姆,好吗,好吗?)
我们不尝试替换教师,原因有两个:
- 我们不想 。
- 即使我们想要,我们也不能。
老师,导师,父母和其他照顾者是不可替代的。 尽管所有的研究似乎都指向“ 机器人可以像人类” 这样的结论,但也有研究表明,儿童从人类导师那里学到的东西比从机器人导师那里学到的更多。 机器人没有人们为适应特定孩子的需求而拥有的全部功能。 他们的感官和知觉有限,特别是在识别儿童语音方面。 他们无法理解自然语言(而且我们离解决潜在的符号接地问题也越来越近了)。 因此,就目前而言,就像科幻小说中我们经常相信的那样(例如,android,cylon,terminators等),机器人不是人类。
即使我们最终达到了机器人确实具备像人类老师和导师那样的所有必要的类似于人类的能力的地步,而且我们不知道将来会走多远甚至不可能,人类仍然那些建造机器人的人。 我们可以决定要建造什么。 在我们的实验室中,我们想要构建可以帮助人类并支持人类繁荣的机器人。 就是说,到目前为止,我们只想构建有用的机器人。 还有更多工作要做,以确保我们构建的所有技术对人类都是有益的,而不是有害的。 这篇文章后面会详细介绍。

我们预计机器人和类似技术的角色是互补的:它们是一种新的教育工具。 像情感教学代理和智能辅导系统一样,它们可以提供新的活动和接触孩子的新方法。 我们在研究中与之交谈的老师对前景感到兴奋。 他们建议该机器人可以提供个性化内容,或将学校学习与家庭学习联系起来。 我们认为,机器人可以补充照料者已经做过的事情,支持他们的努力,并为照料者可能不知道或无法使用的有益行为建立支架或模型。
例如,读书时一种有益的行为是询问对话性问题,即促使孩子思考故事,预测接下来可能发生的事情以及与材料进行更深入互动的问题。 我们小组过去的工作表明,当您将虚拟角色添加到对这种对话式提问进行建模的数字故事书中时,它可以帮助父母了解他们可以问哪些类型的问题,并记住要经常问他们。
在另一个媒体实验室项目中,纳塔利·弗里德(Natalie Freed)–我们团队的一员–用一个机器人进行了简单的词汇学习游戏,孩子们和他们的父母一起玩。 机器人的存在鼓励了交流和讨论。 家长以与游戏的语言学习目标相一致的方式指导和加强孩子的行为。 技术可以促进保育人员之间的互动。
总而言之,在“个人机器人组”中,我们希望我们的机器人能够增强儿童及其家人,朋友和照顾者之间的现有关系。 机器人不是人,也不会替代人。 但是他们将成为机器人。
机器人是朋友-有点?
在我们的研究中,我们听到了很多孩子的故事。 其中一些是虚构的:企鹅和雪人,超级英雄和恶棍的故事,玩捉迷藏的动物和玩球的朋友。 有些是真实的:看起来像摇滚明星的机器人,会提出问题并能听的,在悲伤时可能想要冰淇淋。
这样的故事可以告诉您很多孩子的想法。 我们发现,孩子们不仅会用机器人学习新单词和讲故事,而且他们将机器人视为积极的社交伙伴。
在一项研究中,学龄前儿童用两个DragonBots(绿色和黄色)谈论了他们最喜欢的动物。 一个机器人有反应性:它在适当的时候点了点头并微笑。 另一个同样具有表达力,但不是偶然性的-您可能正在讲话,并且可能正在向后看,或者可能打扰您说“嗯!”,而不是等到您的讲话停顿一下。

孩子们特别注意更有弹性的机器人,花更多的时间在看它。 我们还向孩子们询问了几个问题,以测试他们是否认为机器人是同样可靠的线人。 我们向孩子们展示了一种新动物,并问他们:“您想问问哪个机器人的名字?”孩子们选择了其中一个机器人。 但是随后每个机器人都提供了不同的名称! 因此,我们问:“您相信哪个机器人?”不管最初选择哪种机器人(尽管大多数选择了临时机器人),几乎所有的孩子都相信临时机器人。 这种有针对性的信息搜寻与先前的心理学和教育研究一致,表明儿童在选择提问或背书的人方面具有选择性。 他们使用对话者的非语言社交线索来确定该人的可靠程度或该机器人的可靠程度。
然后,我们进行了其他几项研究,以了解有关使用机器人进行儿童单词学习的知识。 我们发现,在这里,孩子们也注意到了机器人的社交线索。 在与人的互动中,孩子们跟随机器人的目光,注视着机器人的身体姿势,以确定机器人在为哪些物体命名。
我们看了更长的互动。 孩子们不必玩机器人一次,而是要玩七八次。 两个月来,我们观察到孩子们用机器人轮流讲故事。 他们学到了吗? 他们保持订婚或感到无聊吗? 结果令人鼓舞:孩子们喜欢向机器人讲述自己的故事。 他们复制了机器人故事的一部分-借用了角色,设置,甚至是机器人引入的一些新词汇。
我们研究了个性化。 毕竟,如果您拥有技术,则好处之一就是可以为个人定制技术。 如果机器人将其故事“拉平”以匹配孩子当前的语言能力,这会导致更多的学习吗? 如果机器人将其使用的各种激励策略个性化,会增加学习或参与度吗?

结果一次又一次地指向一件事:儿童对这些机器人的回应是社会存在。 表现得更像人类的机器人-更富有表现力,反应灵敏,个性化内容和响应-导致儿童更多的参与和学习; 甚至机器人声音的表达能力也很重要。 当我们将具有真正表达力的机器人与具有平坦,无聊的声音(如经典的文本到语音计算机语音)的机器人进行比较时,我们发现有了表达力的机器人,孩子们会更加投入互动,更能记住故事准确,并且更频繁地使用关键词汇词。
所有这些结果都是有道理的:大量研究表明,这种“高度即时性”的行为对于建立人际关系,教学和交流非常有益。
除了学习,我们还研究了孩子们对机器人的想法和感受。
我们研究了如何将机器人介绍给孩子们:如果您告诉他们这是一台机器,而不是作为朋友介绍,那么孩子们对待机器人的方式有所不同吗? 我们没有看到很多差异。 通常,孩子们对他们面前的社交机器人立即做出了反应。 您可以说“这只是一个机器人,弗兰克”,但是就像我前面提到的那个想教机器人如何制造纸飞机的小男孩一样,他们并没有真正地脱颖而出。
也许他们觉得还不错,但是对他们来说,成为机器人的含义与我们成年人认为成为机器人的含义不同。
在所有研究中,孩子们声称机器人是朋友。 他们知道它不可能像一个人一样生长或进食,但是-正如我前面提到的-他们高兴地将其归因于思考,看到,感到挠痒,高兴或悲伤。 他们分享了故事和个人信息。 他们互相教对方技能。 当然,孩子们知道一个人制造了机器人,也许它可能会损坏,但是机器人是一个很好的,有用的角色,有点像一个人,有点像一台计算机,但实际上也不是。
还有一个孩子邀请机器人去野餐。
对于儿童,我们仍在学习我们成人知道的本体(我们认为是明确的类别)。 是真实的东西还是假装的? 是机器还是人? 也许没关系。 对于孩子来说,某人可能是虚构的,但仍然是朋友。 机器人可以介于其他事物之间。 它可能不是一台机器,不是一个宠物,不是一个朋友,但每个都不是。
但是人机关系并不是真实的!
某些人在谈论与社交机器人的关系时所关心的一个问题是,机器人伪装成一种自己不存在的实体,即可以与我们相互进行情感体验的实体。 就是说,它们是不真实的 (PDF):它们引起了不当且无法回报的情感依恋,信任,关怀和同理心。
但是,为什么必须要互惠互利才能建立重要的,真实的关系?
人们已经对许多非人类的事物产生了深深的依恋。 人们已经建立了不可逆的重要情感和社交关系:宠物,汽车,毛绒动物,喜爱的玩具,安全毯和安抚奶嘴。 书籍,电影和电视节目中的虚构人物。 聊天机器人和虚拟治疗师,智能家居设备和虚拟助手。
一个孩子可能爱他们的狗,并且您可能会清楚地看到,狗“爱”了孩子,但不是像人一样。 我们不怕狗会取代孩子的人际关系。 我们承认,我们与宠物,朋友,父母,兄弟姐妹,汽车以及我们最喜欢的虚构人物的关系都是不同的,而且都是真实的。 然而,默认的假设通常是机器人将取代人际关系。
如果做对了(稍后再讨论),人机关系可能只是另一种不同的关系。
那么我们可以制造关系机器人吗? 我们应该吗?
当我们谈论如何使机器人与孩子建立关系时,我们还必须提出一个大的潜伏问题:
我们应该吗?
社交机器人有很多潜在的好处。 机器人可以帮助孩子学习; 它们可用于治疗,教育和医疗保健。 我们如何确保我们做到“正确”? 我们应该遵循哪些指导原则?
我们如何构建机器人以一种不毛骨悚然,不会教给孩子不良行为的方式来帮助孩子们?
我认为关心 “正确”构建机器人是很好的第一步,因为不是每个人都在乎,而且这取决于我们。 我们人类制造机器人。 如果我们不希望它们令人毛骨悚然,则必须以这种方式设计和构建它们。 如果我们想要社交辅助机器人,而不是霸主机器人,那就在我们这里。

幸运的是,国际上对许多学科的兴趣日益浓厚,以便深入研究将机器人置于人们生活中的道德准则。 例如,负责任的机器人基金会正在考虑有关机器人设计和开发的未来政策。 IEEE标准协会在自主系统的道德考虑方面有一项倡议。 开放机器人伦理计划就重要的伦理问题向相关的利益相关者(如您和我)进行投票,以找出不一定是“专家”的人的想法:机器人应该做出生死决定吗? 您会相信机器人会照顾您的奶奶吗? 在大型机器人技术会议上,有关机器人政策和道德的研讨会越来越多,我本人也参加了。 有关于法律和机器人的整个会议。
拥有多学科兴趣这一事实至关重要。 我们不仅必须关心负责任地建造机器人,而且还必须让很多不同的人参与进来。 我们必须与相关行业的人合作,他们面临着同样的道德困境,因为机器人并不是唯一可能出现问题的技术。
我们还必须让所有相关的利益相关者参与进来-不仅是制造机器人的学者,设计师和工程师,而且人数更多。 我们必须与父母和孩子一起工作。 我们必须与临床医生,治疗师,老师合作。 听起来可能很简单,但是要确保机器人能够帮助并支持他们应该帮助和支持的人们,可能会走很长一段路。
我们必须学习其他行业的错误。 这是一项艰巨的任务,但肯定有很多值得学习的地方。 当我们询问机器人是否会在社会上受到操纵时,我们会看到广告和营销如何处理操纵行为,以及如何避免某些有问题的问题。 我们可以研究其他具有说服力的技术和令人上瘾的游戏。 我们可以学习如何创造积极的行为改变。 也许,正如在一个机器人伦理研讨会上所建议的那样,我们可以创建类似于营养标签或电影分级的“警告标签”,以说明与特定技术进行交互的风险,该技术的功能,甚至推荐“剂量”,作为提高人们对可能的成瘾或负面后果的认识的一种方式。
在管理隐私,安全性和安全性方面,我们可以看到其他监视技术和物联网设备在做错了什么,例如未加密网络流量和未能及时通知用户数据泄露。 制造业已经有“设计安全”的标准,那么我们是否可以为“设计安全”建立类似的标准? 我们可能需要有关可收集哪些数据的新法规,例如,要求获得房屋内访问任何数据的授权书,或类似于HIPAA的个人数据保护。 我们可能需要机器人专家采用类似于其他领域专业人士遵循的道德守则,但是强调隐私,知识产权和透明性。
有很多未解决的问题。 如果您在讨论中对社交机器人的未来感到担忧,我希望我已设法解决了这些问题。 但是,我将第一个告诉您,我们的工作还远远没有完成。 我们还有许多其他挑战需要解决,而开启这种对话是重要的第一步。 使未来的技术和机器人伴侣对人类有益而不是有害,将需要付出努力。
这项工作正在进行中。
继续学习,认真思考,梦想成真
我们还没有学习有关机器人伦理,设计积极技术或儿童与机器人的关系的知识。 在我的论文工作中,我问一些问题,例如儿童如何看待机器人,它们如何与时间联系起来以及他们与他人和事物之间的关系有何不同。 谁知道:实际上,我们可能会发现孩子确实意识到机器人“只是在假装”(无论如何现在还是这样),但是孩子们非常乐意在与这些机器人玩耍时暂停怀疑。
随着越来越多的机器人和智能设备进入我们的生活,我们对它们的态度可能会改变。 也许下一代孩子成长于不同的技术以及与技术的不同关系,他们会认为整个讨论很愚蠢,因为机器人当然会扮演他们所扮演的角色,并尽其所能。 也许当他们长大时,我们也会有适当的法规,道德规范和行业标准。
也许-通过我的工作,以及通过就这些问题展开对话-我们未来的机器人同伴将与我们一起制作纸飞机,参加野餐,并在悲伤时为我们带来冰淇淋。
