您当前的位置: 首页 > 新闻 > 其他

机器人不再百依百顺了,在未来它将会对指令说“不”

来源: 编辑:vbeiyou 时间:2016-09-06 03:44 人阅读
你是否认为机器人听从人类的命令是理所应当的,这似乎才是它们 存在的意义。但换个角度思考一下,若人类的决策有误,机器人是否应该及时制止呢? 就像《超能陆战队》中的一个情节,天才少年阿宏在得知卡拉汉正是害死哥哥的凶手时,愤怒地忘记了初衷,命令大白报仇。而大白拒绝伤害教授,通过播放哥哥生前的视频,让阿宏又恢复了理智。正确的拒绝,挽回了一场悲剧的发生。 a33 现实生活中也会存在对机器人的不恰当指令,比如一名学生让机器人帮她完成所有家庭作业,一个小朋友让机器人把危险物品扔向窗外,一个机器人汽车根据指令在车道上倒车,而后面的路面上却有一只熟睡的小狗。一个简单的命令,如果不加以判断就完全服从,很可能造成难以挽回的严重后果。 很多人会认为听从人类命令是机器人的天职,但仅仅是听从命令,很可能会产生相反的后果。那么,怎样才能让机器人既听从人类的命令,又不会造成不利结果呢? 让自主运行的机器人在行动中可以探测到潜在的危险,并可以试图避免危险,或是直接拒绝命令,在任何情况下都很必要。因此,机器人必须学会说“不”。 位于波士顿的塔夫茨大学正在研发一种控制技术:机器人可以对人类的指令作出简单推断,这将决定机器人是否会按照指令行事,或者因为指令违反了愈显设定的道德规范而拒绝行动。 200000030925126924127142825_950 要让机器人知道什么时候、为什么、如何去拒绝执行任务可不是一项简单的任务。任何一项行为,在不同的情况下会导致不同的结果。就拿扔球来说,在院子里和孩子扔球玩耍没关系,但如果在路边扔球,很可能会砸到过路行人或者车辆,在河边扔球很可能导致球掉进水里丢失,如果在室内扔球则很可能会砸向玻璃。 机器人要理解哪些行为具有危险性,需要大量的背景知识,不仅能自主考虑到行为后果,还能思考出人类发出指令的真实意图。此外,它们还需要了解法律、道德准则甚至是礼节,作为对行为结果的判断准则。 不过,目前的机器人技术还远没有达到这一要求,想让机器人处理这些问题,还有很长的路走。但是有一点已经早被证实:机器人在服从命令之前,它们得首先学会拒绝。  

本站所有文章、数据、图片均来自互联网,一切版权均归源网站或源作者所有。

如果侵犯了你的权益请来信告知我们删除。邮箱:business@qudong.com

标签: 大白