导航菜单

基于人工智能的机器在21世纪实际上做得更多

教Siri说“请”和“谢谢”可能意味着与人工智能共存和机器人启示之间的区别。由于基于人工智能的机器在21世纪实际上做得更多,如体力劳动和军事援助,研究人员认为他们可能需要学习如何与人交往,以避免涉及人类的不道德和有害情况。

海军研究办公室正与佐治亚理工学院的研究人员合作,使用一种名为“吉诃德系统”的软件程序,对人类道德机器人进行编程。

“我们正在尝试用这个研究项目来教授如何教授机器人和人工智能系统的正确行为,”Quixote的研究员兼佐治亚理工学院娱乐智能实验室主任Mark Reidl说 。“人类学习我们所谓的社会规范和社会习俗 - 当我们走出社会并且我们必须互相交流时,这些小规则使我们不会揉肘。这些都是简单的事情,比如在我们从商店拿走它们之前学会排队或支付费用 - 我们认为这是理所当然的事情,但事实上,很难教一个机器人。“

问题变成了如何将礼仪,如排队等候或打招呼,变成硬代码。这是一个看似复杂的问题的简单答案:故事时间。

Reidl和其他研究人员采用自然语言程序故事并将其插入到Quixote中,然后将其转换为信号,根据他们选择如何像故事的主角一样行动来“奖励”或“惩罚”AI。

“机器人实际上认为它在玩一个小游戏,”雷德尔说。“每当它做一个正确或类似于故事的事情时它会获得+10分,每次它做出不同的事情时会得到-1或-5分。它只是试图获得尽可能多的积分。“

加时赛,Reidl说人工智能开始记住哪些行动会让他们获得奖励,并学会避免那些会带走积分的人,最终像人类一样学习反复试验。

海军研究办公室和像Reidl这样的研究人员正在研究道德训练的AI可以拥有军事应用的方式,包括与人类一起执行任务的可能性。

“将会有一些机器人同伴在那里从事特定任务和目标的团队,我们希望他们了解我们的思维方式以及我们[人类]团队合作的方式,以便他们能够不要经常踩到我们的脚,“雷德尔说。

Reidl认为道德机器人可以帮助快速发展的训练模拟器。

现在,当我们构建越来越复杂的虚拟训练模拟时,我们可能想要模拟整个社会或整个城镇涉及平民,”Reidl说。“能够教会计算机如何在国外成为一名平民,这是创建这些虚拟模拟的一种快速方式,然后我们可以通过这种方式运行各种假设情景。”

就目前而言,将Quixote节目编入机器人的故事比任何关于Mother Goose的故事更接近指令,但通过将社交线索反向设计为奖励信号,机器人正在学习自我编程。

“事实证明,故事是编码社会规范和社会习俗的好方法,”雷德尔说。“每当我们讲述一个故事时,我们都会理解社会的运作方式。随着时间的推移,就像人类从反复试验中学习一样,它会学到它应该做的事情会得到更多的赞美和奖励,如果它应该做的事情提供惩罚。它开始模仿故事中的主角,模仿我们。“

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。