人工智能吗?美反导系统直接打爆2架自己战斗机
科幻小说常常警示我们,要那些我们无法掌控的智能机械。事实上,我们真正需要害怕的,是那些需要我们控制但我们还没能力把握的智能机器。
从爱国者导弹到特斯拉汽车,再到Airbus喷气式飞机,自动化系统如今已造成不少人员伤亡。它们并没有恶意,只是在灾难到来之前,我们没能及时把设备从“被动”切换到“主动控制”而已。
究竟什么时候该提起?有时候,一天里有23小时59分钟都是无需在意的,唯独那么1分钟是致命的关键。2003年,自动化的爱国者导弹防御系统出现失误,击毁了两架友机。这一切发生的太快,以至于我们还没来得及,就已经结束了。
人们总爱通过自动化设备自己的不足,殊不知这是把自己推向了另一个深渊。法航447便是人工智能和人类智慧共同导致的一场灾难,在这次事件中,人们就没能成功接下智能设备递出的指挥棒。除此之外,还有一种情况也会产生难以想象的后果,那就是自动化系统没有在必要时候卸下控制权,而人类也反应迟钝地设备的安排。
打个比方,最近新出的步枪自动瞄准系统能帮助士兵成功击中目标,然而,一旦系统失去控制,我们又习惯性地相信瞄准设备的判断,会不会有可能出现误伤甚至误杀的情况呢?
不要妄想装备人工智能后,就可以不用大脑了。我们是人工智能的主人,不是它们的奴隶。愚蠢的头脑配上高级的自动化系统,只会产生的灾难。我们需要的是相互信任、依赖的人工智能机器。在使用人工智能的同时,我们还得人的参与度,保持人的创造性和判断力,这样方能减少犯错的可能性。
人工智能有它的局限性:它的一切思维和做出的判断,都必须基于专家库的数据,即使是拥有了强大学习和推理能力的人工智能,它最初的原始架构也是人类赋予的。简而言之,本质上是先有人脑的思维在前,才有人工智能的思维在后。从目前的技术来看,人工智能获得所谓进化的能力是不可想象的。
图灵测试是判断电脑是否具有人工智能最权威的测试:在测试人与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。在问过一些问题后,如果测试人不能确认被测试者30%的答复哪个是人的回答、哪个是机器的回答,那么这台机器就通过了测试,并被认为具有人工智能。而在最近几年的图灵测试中,人类确实有越来越不占优势的趋势。2000年,有机器人在5分钟的聊天中让30%的人相信它是人类;2008年,一台得分最高的机器让3名测试人相信它是人类;2012年,俄罗斯专家设计的“叶甫根尼”电脑程序,其29.2%的回答均成功“骗过”了测试人,取得了仅差0.8%便可通过图灵测试的成绩。机器人已经聪明到足以在“图灵测试”中主导对话,并且显示出和人一样的幽默感。“他”甚至会用调侃的方式暗示测试人自己就是一台机器,以至于多疑的测试人认定这是一名志愿者故意的行为,最终上了机器人的,将其评定为“人类”。
针对在“图灵测试”中的人工智能越来越“类人”,甚至某些时候表现得比人类还聪明的趋势,黄其智表示:这也只意味着人工智能背后的专家库系统越来越和精密,而并非机器人有了自发产生的智慧。它的幽默感也好,思维能力也好,本质上都是对其背后编程程序的执行而已。(gmm)
- 标签:如何编写人工智能系统
- 编辑:刘卓
- 相关文章