人工智能、机器人等这些高科技的东西也会犯错,你知道吗?据悉,最近谷歌的研究人员发表了一篇名为“人工智能安全问题具体分析”的报告,让我们看到了机器人们在适应性、协调性上出现的问题。
该报告表示比如清洁机器人应该拥有更好的避害性能,而不应该用一个潮湿的拖把来擦拭有插座的地面。
机器人需要通过智能算法来学习,并且不断更新和向前探索,而与软件不同的是,不断尝试新事物的机器人甚至有可能成为一名杀人犯。因此谷歌的研究人员想出了下面的这五个问题:
避免负面影响:我们如何才能确保一个AI系统不会为了达到目的而对环境造成负面影响,比如清洁机器人为了更快的完成清洁任务而撞倒一个花瓶;
避免被黑客控制:我们都希望机器人不要被目的不纯的黑客控制,比如清洁机器人不管任何材质而一味的清理,造成对环境的破坏;
弹性监督:我们如何才能有效的确保在各个方面对AI系统进行客观的评估?比如当人们要求机器人总是反复执行同一项任务,机器人是否会感到厌倦?
安全的探索:如何确保一个AI系统在探索的同时不会带来消极的影响。比如清洁机器人应该知道避害,而不应该用一个潮湿的拖把来擦拭有插座的地面。
适应性:我们如何确保一个AI系统拥有更高效的识别能力,在非常规的环境下也能拥有适应能力?
研究者担心的并非是机器人引发的革命,而是由于草率的设计而带来的现实问题。过多的事故容易让人们丧失对合理自动化系统的信任感。
细节决定成败。机器人的时代尚未真正到来,但是,如何针对机器人能够强化其主动化系统的安全性是研究人员需要关注的问题。