乐天集团中国产业园区品牌连锁运营商

伯克利教授定义AI发展“新三定律”

发布时间:2019-11-05 发布者:亚时财经

在如今的生活中,AI(人工智能)技术的确为我们的生活提供了诸多便利。但当人工智能片面地理解人类的需求时,可能制造出新的麻烦。在硅谷,顶尖大学的学者们一致认为,AI在给未来带来无限可能的同时,也可能带来各种安全隐患。

 

针对这种情况,来自加州大学伯克利分校的斯图尔特·罗素(Stuart Russell)教授在一次最新的演讲中给出了他的答案——“新三原则”。


 

罗素教授 (图源:搜狐)


“新三原则”:以人为本的AI

 

斯图尔特·罗素是加州大学伯克利分校的电子工程和计算机科学教授,他的书《人工智能:现代方法》(与谷歌研发总监彼得·诺维格合著)是人工智能领域的标准书;它已被翻译成13种语言,并在118个国家的1,300多所大学中使用。

 

罗素教授认为,如果我们将发展AI的目标设定为人类级别(human-level),或是超人类(superhuman)级别,可能会引发很多潜在问题。我们要是按照纯理性目标构建人工智能,就会出现很多麻烦,比如“你让AI帮你买杯咖啡并不是让它不计一切代价去获得一杯咖啡”。所以在他看来,发展AI的重点是调整研究方向。

 

“我们想创造的AI应该是对人类有益的,他们的行为能够达成我们人类而不是机器自己的目标。”对此,罗素提出了关于AI的“新三原则”

 

第一原则:利他主义(Altruism)。这个原则意味着,机器的唯一目标是最大化地实现人类的目标与价值。这一点与1942年艾萨克·阿西莫夫所定义的机器人三定律背道而驰。在阿西莫夫的定义里,机器人在不伤害人类,但要在遵从人类要求的基础上保护自己。而罗素定义的机器对维护自身生存毫无兴趣。

 

第二原则:谦逊原则(humility) ——AI对人类应该保持敬畏之心。在这一原则的指导下,AI要承认自己并不是无所不知和无所不能。这也就是说,机器需要知道将人类的价值最大化,但它也要清楚自己并不能完全理解价值的含义。

 

因此为了对人类有用, 它就得通过观察人类做的选择,根据人类给予它的信息去学习、掌握人类的需求。机器需要承认,人类才是需求的主宰。而这一原则,对于我们未来制造出安全的人工智能十分重要。


(图源:网络) 


第三原则:基于人类的行为给机器设定偏好提供依据。设置这一条原则的原因是,机器往往无法准确了解如何实现人类的价值。但是没关系,人类可以辅助机器来实现。因此要增加人和机器的互动环节。

 

罗素教授认为,机器人设计的目的并不是只为了满足一个人或者一个用户的愿望, 而是去尊重人们都认可的道德价值观。“比如,人类可能会做错事,产生违背道德准则的行为。但我们并不希望机器人复制这些行为。反之, 我们希望机器人去尝试理解人类做事的动机和人类共通的道德观, 而且在合适的情况下制止人类去做那些不该做的事。”

 

为了更好的解释这三条原则,Russell教授提出了辅助游戏(assistance game)的方法,即增加人类与AI的互动过程。

 

可能面临的挑战

 

第一个挑战在于机器如何将人类的行为语言与人类偏好联系起来。“比如,我们在说某句话的时候有时并不真的意味着我们想要这句话字面上的意思。”罗素教授解释道。“这就需要培养机器在不同语言环境下对人类语言和行为更深的理解能力。”

 

第二个挑战是人类有时也无法准确认识自身偏好。例如,我们的经历性自我(experiencing self)和记忆性自我(remembering self)可能具有不同的偏好,如果是这样,那么AI应该针对哪个进行优化?

 

亚洲时报 综合

责任编辑:杨志杰

特别声明:本站转载或引用之图文若侵犯了您的合法权益,请与本站联系,本站将及时更正、删除。版权问题及网站合作,请通过亚时财经邮箱联系:asiatimescn@sina.com

热门话题更多>>

推荐文章

更多>>

扫一扫手机阅读

ATimesCN手机网站