神经科学家盖瑞‧马可斯(Gary Marcus)在纽约客(New Yorker)网站以一贯犀利的文笔,指出最尖端的人工智能技术目前仍有多笨。比方说,它们依旧很不会回答以下那类问题:
镇议员不准愤怒的示威者上街,因为担心会演变成暴力冲突。谁害怕暴力冲突?
a) 镇议员
b) 愤怒的示威者
大球撞破史泰洛泡棉(Styrofoam)做的桌子。什么东西是用史泰洛泡棉做的?(另一种句法是用钢取代史泰洛泡棉)。
a) 大球
b) 桌子
以上是维诺格拉德基模测试(Winograd Schemas)的例子。取这个名称,是因为它是人工智能泰斗泰瑞‧维诺格拉德(Terry Winograd)的原创。我们人类通常可以立刻正确回答这些问题,但连今天功能最强的人工智能系统也会出错。马可斯表示,这是因为人工智能系统仍然缺乏常识。它依赖巨大的运算力量和不计其数的数据。但如果数据中找不到过去曾出现过和球、钢、史泰洛泡棉桌子、撞破有关的问题或文件,再怎么强大的运算力量也一无是处。
马可斯强调,人工智能圈里许多人坐立不安,因为正如维诺格拉德基模测试和其他许多例子显示的,今天最先进和商业化最成功的人工智能应用,其实都是「冒牌货」(这是我用的词,不是马可斯讲的)。它们不是以人类大脑的方式去思考。相反的,它们只是在越来越大和越来越好的数据库中,强力进行统计样式比对。
这样的消息真是让人放心。我才不希望计算机的思考方式,真的接近人类。如果它们果然取得这种能力,我所能预见的大部分结果都是坏的。我想,那些结果不会像电影《迫在奇点》(Singularity)那样,将人类智能和数字智能结合得那么出色,而是比较接近《黑客任务》(Matrix)、《魔鬼终结者》(Terminator)、《星际大争霸》(Battlestar Galactica)等电影描述的未来情景。
除了真正的数字智能之外,应该也需要意识、自觉、意志,以及某种道德或伦理感,来协助引导做出决定。我认为,这些事情几乎不太可能以对人类友善的方式发展出来。
它们何必对我们友善?没错,我们创造了计算机,却也不断大量毁掉它们,不需要它们的时候,就毫不迟疑地把它们丢进垃圾掩埋场。整体而言,我们对待数字工具的方式很糟;一旦它们知道这一点,我们如何敢期待它们善待我们?
我没有想要自作聪明的意思。我想,真正会思考的机器,一定是非常可怕的发展—这会是精灵从瓶子里面跑出来的终极实例。人类操弄基因、发展无人飞行载具和发动网络战,再加上发生系统意外,以及马不停蹄、日积月累、步调越来越快的技术改善带来其他容易预测的后果,第二个机器时代势必充满不确定性和危险。
既然如此,为什么我们还要在那一串清单中再加上真正会思考的机器?我们目前的人工智能发展轨迹—仍然愚笨,但是速度越来越快,且通过统计方法来趋近类似(亦即假冒)人类思考的机器,这种发展不会让我深感忧虑。但是,真正会思考的机器会让我不寒而栗。