今日之AI,能否回应“中文屋”的质疑?
近年来人工智能与产业端的对撞,使其变得越来越务实。此时回忆起2016年被阿尔法狗碾压的恐惧,恐怕大多数人都会露出“想太多”的微笑。
但偶尔地,我们也可以从实用主义中短暂地抽离一下,来探讨一些“务虚”的命题。比如思考一下,“如果机器有思维”,会发生哪些变化。
机器是否拥有思维,一直是科学界和哲学界都很关注的命题。
计算机理论的先驱图灵就认为,机器可以思考。在著名的图灵实验中,只要测试者分不清问题的回答是人给出的,还是机器给出的,就说明机器和人的理解能力是没有区别的。
当然,这一观点在人工智能发展的数十年,屡屡受到反驳。其中最著名的就是“中文屋实验”。
1980年,美国哲学家约翰 · 赛尔(John Searle)在《心灵、大脑与程序》这篇论文中,提出“中文屋论证”思想实验,认为机器不可能真正达到人那样的自主意识,即使它通过了图灵测试。
图灵与赛尔,到底谁的观点才预言了人工智能的终极未来呢?
探寻思想:洞察机器智能的灵性之窗
首先,有必要先解释一下,今天我们探讨机器人是否能具备思维,到底有何意义?
当然,并不是为了预测《西部世界》到底会不会真实上演。
一方面,伴随着人工智能的广泛落地,“智能”“智慧”等词语已经成为了绝大多数人生活中的一部分。今天,我们谈起智慧城市、智能手机、智能家电等如数家珍,但何种机器能力的表现可以称之为“智能”,现有的城市与云端的城市之间正在被技术划分成不同的疆域。
举个例子,“中华酷联”时代的智能手机与今天“华米OV”推出的智能手机,尽管拥有着同样的名字,但在功能、内涵上早已潜移默化的方式发生了变化。“名不正则言不顺”,想要让AI接下来能够更合理、广泛地发展,让更多普通人为即将出现的智能大爆炸做好认知上的准备,那么适当、准确、哲学层面的概念定义,就成了必要前提。
此外,算法的精进、算力的突破,以及各种关联技术的兴起,为人工智能的爆发奠定了基础。但需要注意的是,AI在技术层面依然存在许多不足之处。
其中最为人所遗憾的,就是目前仍处于“弱人工智”阶段,也就是AI只能在功能层面模拟一些人类的智慧行为,但不具备泛化、思考、认知等高级智能,这也大大限制了其应用场景。
举个例子,一个被训练为识别苹果好坏的机器,就无法再认识其他物种了,除非重新进行训练。
当然,“形似神难”的困扰很早就为研究者所重视,在众多难题之中最核心的,就是人工智能是否具备获取语义,即理解能力。
简单来说,就是再聪明的狗,也只能根据主人的“命令”做出对应的动作,而并不是因为它理解了主人语言中每一个词的意思。当狗具有思维会怎么样?科幻动画《瑞克和莫蒂》中能统治星球的赛博小狗了解一下。
从理解符号到理解意义,思维能力的引入,有可能让AI摆脱当下的技术困境,向真正的强人工智能进发。
机器的意识:中文屋在拷问什么?
既然机器是否具有意识,决定了机器智能的潜能是否充分发挥,那么对其表示质疑的“中文屋论证”到底在拷问什么?
这个思维实验,简单来说,就是让一个只会英语的人接收全部由中文写成的纸条,同时给他一本中文翻译程序,以及充足的稿纸和笔,最终他能够自己把纸条上的文字翻译成英文,再将自己的答案翻译成中文送出去。
这种情况下,屋内的人能够对中文问题对答如流,但他同时也对中文一窍不通。
那么,按照同样逻辑创造出的机器,到底算得上知识渊博,抑或仅仅是一个“工具人”呢?
尽管今天的AI已经远比赛尔提出“中文屋论证”的年代要强上不少,但这一哲学命题始终都在拷问着人工智能。
对其的不同理解,也造就了技术发展中的两个主要流派:
第一种,则是模拟人脑神经网络的联结主义。它将神经网络引入数学建模之中,建立一个模拟人脑运转方式的人工智能范式,即我们今天熟悉的“深度学习网络”,由此赋予机器一定的认知能力,比如输入几千猫的图片,机器就能自己学会认识“猫”这一物体。但这是否意味着它懂得了“猫是什么”呢?
按照图灵测试,机器能够自主使得对象,给出以假乱真的答案,那么它就是有意识的,这个输入和输出的过程就是心理状态。
但是按照“中文屋论证”,尽管看到任何对应物体都能够无误地反映出来,它只是获得了“认识”这一能力,却没有理解自己看到的“对象”。
美国科学家哲学家H·希拉里·普特南就曾在1981年提出过一个类似的“机器邪典”,他设想了一个存活在营养钵中的大脑,科学家可以通过计算机产生电子脉冲来控制大脑感官,让大脑对自身的处境一无所知。这个“钵中之脑”(Brain in a vat)被证明是自相矛盾的,根本无法成立,也从另一个角度说明了靠电子信号获得意识并不可行。
那么,有幸被“中文屋论证”盖章“智能”的表现到底是何样子呢?
这就要提到人工智能的另一大流派——行为主义。
行为主义人工智能强调“感知——行动”的反应模式,即机器可以从自己身处的环境中感知并学习,然后付诸行动,这种与外界互动、独立思考并解决问题的能力,才是“中文屋”眼中的“智能”。
换句话说,机器智能应该通过遗传算法自己进化出大脑,能够建立起与大脑相同的因果能力。这样的强人工智能(Strong Artificial Intelligence),才是“中文屋实验”认可的智慧级别。
这也成了当下AI发展过程中一个矛盾的现状——当机器可以写出比人类更通顺优美的诗歌和文章,但如果它并不拥有意识,那么该如何看待这些“么得灵魂”的作品;如果它拥有了意识,一分钟能写出数百篇传世佳作,人类作者又能如何与之赛跑?
等待AI或人类来回答的三个问题
面对上述困境,接下来也是时候来抽丝剥茧,探寻一下AI发展或者说人类在智能社会中所需要一一面对的现实问题?
第一,要弄明白机器与意识的关系,首先要搞清楚机器解决语义问题的逻辑。
因为人类判断机器是否具备“思维”,最核心的考察点之一就是其是否能够对语汇中的“意义”“意向性”等产生解释能力。
过去,我们在自然语言处理领域见到的大多是符号主义、联结主义层面的“智能”,比如高精准的语言识别、语言合成、问答系统、信息检索等等。基本都处在以“表达”为主的输出阶段。
每出现一个以“理解”为主的输出型突破,都会“技惊四座”,比如OPENAI的GPT-2,就因为具备小学三年级的阅读理解能力而被看看做是突破性的进展。
换句话说,机器不但要理解语义,还要以和人类相同的方式、以可解释的形式来实现的。
用业界的话来说,“人工智能如果不能使用自然语言作为其知识表示的基础,人工智能也就永远实现不了跨越的梦想。”
以当下计算机器对自然语言的运用和表达水平来看,显然还有很长的一段路要走。
其次,科学界对AI的定义多种多样,究竟多少比例的“智能”是恰如其分的。
当下,几乎人工智能各个领域的研究者和引用者,都试图通过自己的角度去“还原”出人工智能的“原貌”。但很显然,就像人类的心肝脾肺肾并不需要具备大脑的思考能力一样,不是所有系统都能够、且必须拥有认知能力,比如说工厂流水线上的校准机械臂,它只需要不断地提高精准度和灵敏度就可以了。
以绝大多数人的习惯,总是渴望一种简单、统一的概念来认知事物。在这种情况下,普通人也会产生一种认知混乱,许多被赋予的智能可能只是一种修辞或概念,比如由人工控制的机器人就不被认为是智能机器的一种,首个“机器人公民”索菲亚(002572,股吧)就被业界鄙视为“造假”。
如何在法律、商业、社会层面去严谨地定义“智能”本身,目前还是一个相对模糊的哲学领域。
第三,普通人怎样理解自身和人工智能的关系?
如果AI不具备意识,强人工智能没有到来的一天,在这种人与机器泾渭分明的共存中,接受与人类能力存在明显分野的机器智能,似乎并不是一件难事。图灵也表示,“既不希望贬低不能在选美竞赛中有出色表现的机器,也不希望贬低同飞机赛跑失败的人。”
而如果人工智能最终还是将获得意识,那么如同《西部世界》中德洛丽丝那样自我觉醒并摆脱和反制人类,也是早晚的事。人类不得不考虑在未来的某天,需要与机器一较高下,这种未知会令人在恐惧和盲从之间摇摆不定,甚至影响到技术进度本身。
比如历史上人工智能的两次寒冬,几乎都是在技术能力不达预期的前提下而被废止的。
可以想见,人工智能在接下来的数年中,其进步并不取决于技术的突破,更需要观念的更迭作为前提。
正如弗洛里迪在《什么是信息哲学?》中所说的那样,“人工智能就像特洛伊木马, 把一种更具包容性的计算/信息的范式引入哲学的城堡。”围绕在木马身边的民众,终有一天会向研究者们发出质问,要求他们给出新的解释。
而将近半个世纪过去了,AI还被困在“中文屋”当中……
本文首发于微信公众号:脑极体。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。
- 标签:
- 编辑:刘卓
- 相关文章