从此走进深度人生 Deepoo net, deep life.

图灵:计算机器与智能

1. 模仿游戏

我建议考虑这样一个问题∶“机器能够思考么?”要回答这个问题,我们需要先给出“机器”和“思考”的定义。我们可以用尽可能接近它们普通用法的方式定义这些词语。但是这种方式是危险的。如果使用这种方式,我们很可能会用盖勒普调查那样的统计方式来得出“机器能够思考么”这个问题的结论及其意义。显然,这是荒谬的。因此,我没有尝试给出一个定义,而是提出了另外一个问题。这个问题和原问题紧密相关,而且通过并不含糊的词语给出。

这个新的问题可以通过一个游戏来描述,不妨称之为“模仿游戏”。需要三个人来玩这个游戏。一个男人(A),一个女人(B)和一个询问人(C)男女皆可。询问人呆在一个与另外两人隔离的屋子里。游戏的目标是询问人判断出外面的人哪个是男人,哪个是女人。询问人用标签X,Y代表外面的两个人,游戏结束时,他要说出“X是A,Y是B”或者“X是B,Y是 A”。询问人C允许向 A和B提出下面这样的问题∶

C∶ X,请告诉我你头发的长度。

现在假如X实际是A,那么A必须回答。A在游戏中的目标是努力使C做出错误的判断。他的回答可以是∶

“我的头发乌黑发亮,最长的一缕大概九英寸(约23厘米)长。”

为了排除声音帮助询问者得出结论,问题的答案可以写出来,打出来更好。理想的安排是使得两个屋子有远程打印通讯。也可以通过中间人传递答案。而 B在这个游戏中的任务是努力帮助询问者获得正确的答案。她的最优策略可能就是给出正确答案。她可以在她的答案中加入“我是女的,别听他的。”这样的词语。但是男人A同样也能做出相似的评论。所以这并不能提供更多的帮助。

现在我们提出这样一个问题,“如果用一个机器担当A的角色”,将会发生什么情况?同与两个人玩这个游戏相比,询问者判断错误的频率是否发生变化?这个问题取代了原先的“机器能够思考么?”这个问题。

2. 对新问题的评析

你可能会问∶“新问题的答案是什么?”。同样也可能问∶“这个新问题真的有研究价值么?”我们先解决第二个问题,因此不会进入一个无限的循环。

这个新问题的优势在于它把一个人的体力和智力完全区分开来。没有任何工程师或化学家宣称能够生产出和人的皮肤完全相同的物质。在未来的某天,这可能成为现实。但是尽管这样的发明是可能的,对于将人的皮肤赋给一个“思维机器”来让它更像人这件事来说,并不能提供更大的帮助。我们设置问题的方式考虑到了这个问题。因为我们让询问者无法看到,接触到或听到其它的游戏者。新的评判标准的其它优势在下面的样例问题和回答中显示了出来。

样例问题:

问∶请写一首以 Forth Brige(1890年建成于英国,开创现代桥梁建造的先河)为主题的诗。

A∶我无能为力,我从来都不能写诗。

问∶ 34957 加 70764 等于多少?

A∶(停了三十秒钟后给出答案)105621。

问:你玩国际象棋么?

A∶玩。

问∶我的王在 K1,没有别的棋子了,你只有王在K6,车在R1。该你走,你走哪步?

答∶(十五秒钟的停顿后)车移动到 R8,将军。

这种问答形式几乎适用于我们想要包括的人类行为的一切形式。我们不希望因为一个机器不能在选美比赛中胜出就认为它无能;正如我们不能因为一个人不能在和飞机赛跑的比赛中胜出就认为他无能一样。我们的游戏设定让这些无能变得无关紧要。只要参与者认为合适,他们可以吹牛。可以把自己描述成魅力无限,强壮无比,英勇无畏。而询问人无法要求他们做实际的展示。

对这个游戏的批评可能是∶机器在游戏的成败中占有了过多的比重。如果一个人试图假装成一个机器的话,他肯定是一个蹩脚的演员。他会由于算术方面的缓慢和不准确立即暴露。机器会不会解决了一些应该是思考的问题,其解决方式却和人的方式相差甚远?这个反对意见确实很棘手。但是,至少我们可以说,尽管如此,机器可以被设计得可以很好的玩这个模仿者游戏。我们不需要对这个问题过分担心。

有一种情况是机器在玩模仿者游戏时的最佳策略是做别的事而不是模仿人的行为。这种情况是可能的。但是我认为这样的情况并没有付出多大的努力。不管怎样,本文并不试图研究这个游戏的理论。我们假定机器的最优策略是努力提供和人一样的答案。

3. 游戏中的机器

在1.模仿游戏中提出的问题只有当我们确定“机器”这个词的意义的时候才是确定的。自然,我们希望一切工程科技都允许使用在我们的机器上。我们同样希望有这样一个可能∶一个或一组工程师制造出一个可以工作,但是其工作方式却不能被它的建造者很好的描述,因为他们使用了一个基于试验的方法来设计它。最后,我们希望把通过生育诞生的人从“机器”的概念中排除出去。要让定义同时满足这三个要求是困难的。例如,你可能会要求这些工程师都是同一个性别,但是这实际上也是无法满足要求。因为通过单个人的一个(举例)皮肤细胞产生一个完整的个体不是完全不可能的。这将是生物科技的具有划时代意义的突破。但是我们并不希望把它称为“建造了一个思维机器”。这就要求我们放弃允许一切的科技的打算。我们更愿意这样,因为目前“思维机器”的研究热点集中在一种特殊的,通常被称为“电子计算机”或“数字计算机”的机器上。因此,我们仅仅允许“数字计算机”参加我们的游戏。

第一眼看上去,这个限制过于严格。事实上并非如此。首先我们需要简要的了解一下这些计算机及其它们的一些性质。

你可能会说∶万一数字计算机不能如我所愿,即不能在游戏中有所表现,把机器完全用数字计算机代替就只能令人失望,会像我们为“思考”定的评判标准一样。

目前已经有许多数字计算机在工作,人们可能要问:“为什么不拿一台直接作实验?很容易就能满足游戏的要求。同时用许多的询问者参加游戏,然后统计出判断正确的概率”。对这个问题的简要回答就是∶我们并不是要问是不是所有的数字计算机都能在游戏中表现良好,也不是要问现在的计算机中有没有机器能够通过实验。而是要问∶是否存在一台想象中的机器能够通过游戏。这仅仅是一个简要回答,后面将从另一个角度考虑这个问题。

4.数字计算机

数字计算机可以被解释成能够执行一切计算人员能够进行的操作。一个计算人员应该严格遵守规则;在一切细节上,都没有一丝偏离的权力。我们可以假设这些规则写在一本书上。每次被分配新的任务的时候,将会改变执行步骤。他有无限的纸进行计算,他可以用“算盘”进行乘法和加法运算,这并不重要。

如果使用上述解释定义数字计算机,我们可能陷入循环定义。为防止这种情况发生,我们列出期望结果得出的方式。一个数字计算机通常由一下三个部分组成:

(i)存储器

(ii)执行单元

(iii)控制器

存储器用来存贮信息,对应于计算员的纸。纸上既记录了他的计算过程,也记录了他所遵循的计算步骤。同样,如果计算员进行心算的话,一部分存储器将对应于他的记忆。

执行单元是一次计算中单个操作进行的场所。操作对象随着机器的不同而不同。通常一个相当长的操作可能是∶“3540675445乘以7076345687”,但是一些机器可能仅能够执行“写下0”这一类的简单操作。

上面曾经提到计算员的“记录操作步骤的书”由机器中的一部分存储器代替。不妨把它们称为“指令列表”。控制器的职能就是保证这些指令按照正确的顺序得到正确的执行。控制器的设计使得这成为可能。

存储器上的信息通常被分为许多的小包存放。例如,在一个机器中,一个包由十个十进制数组成。每个存储信息的包都以某种系统的方式分配了数字。一个典型的指令可以是∶“把存放在6890的数加上存放在4302的数相加并把结果存入后一个存储位置。”

显然,机器中的指令不会用英语标示。这个指令更有可能用6809430217这样的形式来表示。这里,17指定在可以对这两个数进行的所有操作中的哪个被执行。这里的操作如上所示是“进行加法操作…”请注意,这里的指令共占用了10个数字因此正好可以放在一个存储空间中,非常方便。控制器保证指令按照它们的存储顺序被执行,但是偶尔可能碰到下面的指令∶

“现在执行存储在5606的指令,并从那里继续执行。”或者是∶“如果4505位置是0,那么执行存储在6707的指令,否则继续”。

后面这种指令非常重要,因为它使得我们能够反复执行一段指令直到满足一些条件。要达到这个目的,在每次执行时不要改变指令,而是一遍一遍的执行相同的指令。可以用家庭生活情况做一个类比∶如果妈妈想让汤姆每天上学时都到修鞋匠那里看看她的鞋是不是修好了。妈妈可以每天都告诉他一遍。另一种方式是,在一个汤姆每天上学都能看到的地方贴个便条告诉他到鞋匠那里去看一下,当汤姆拿回鞋的时候,撕掉那个便条。

读者必须接受计算机可以而且事实上正是按照我们所提出的原则建造的。这些计算机几乎能够完全模仿一个计算员。

上面我们提到的计算员要遵守的写在书上的步骤实际上仅仅是一个设想。一个实际的计算员总是能够记得他们需要做什么。如果一个人想让机器模仿计算员执行复杂的操作,他必须告诉计算机要做什么,并把结果翻译成某种形式的指令表。这种构造指令表的行为通常被称为“编程”。“给一个机器编程使之执行操作A”意味着把合适的指令表放入机器以使它能够执行A。

一个数字计算机的一个有趣变化是让其成为“带有随机元素的数字计算机”它们有特定的指令进行拼色子或者别的等价电子过程。例如其中一个是“拼色子并把结果存入1000”。有些时候这样的机器被描述为具有自由意志(尽管作者自己并不使用这个表述)。通常并不能通过观察判断出一个机器有没有随机元素。因为一个相似的效果可以通过依据圆周率的小数部分进行选择来产生。

绝大多数的数字计算机具有有限的存储空间,让一个计算机获得无限的存储空间并不存在理论困难。当然,在任何时候都只有有限的部分被使用。同样,只有有限的存储空间被建造。不过我们可以想象越来越多的存储空间可以根据要求添加。这样的计算机具有特殊的理论价值,将被称为无限容量计算机。

有关计算机设想的很早就产生了。1828至1839年担任剑桥大学的Lucasian数学教授的 Charles Babbage(查尔斯·巴贝奇)设想了这样的机器,并称之为分析机。但是并没有完成它。尽管 Babbage有了所有的关键思想,他的机器在那个时代却没有吸引人的前景。它能够达到的运算速度肯定比一个计算员要快但是仅相当于曼彻斯特机的百分之一,而曼彻斯图机也是现代计算机中相当慢的一个。分析机的存储全部由用轮子和卡片组成的机械实现。

事实上,全部由机械实现的 Babbage 分析机帮助我们破除了一个迷信。通常我们对现代计算机是电子的这个事实给予相当的重视。同样,神经系统也是基于电的。因为Babbage的机器是没有使用电,而所以的数字计算机在某种意义上都是等价的。我们就会明白使用是否使用电理论上并不重要性。当然,当需要高的运算速度的时候,需要使用电气结构。因此,我们就会发现在这些地方使用电是理所当然的。在神经系统中,化学过程至少和电过程同样重要。某些计算机的存储器主要基于声学原理。计算机和神经系统都使用电仅仅是表面的相似。如果我们希望寻找这样的相似,倒不如对函数进行数学分析。

5. 数字计算机的通用性

上一部分给出的数字计算机可以被归类为“离散状态机”。这类机器可以从一个确定状态向另一个状态突然跳变。为了不会有混淆这些状态的可能,它们之间要有足够的差别。严格的说,这样的机器是不存在的。一切事件实际上都是连续的。但是有许多种机器能够被看作离散状态机器。例如在照明系统中的开关,我们可以把开关看成只有开和关两个状态。它们之间肯定有转换过程,但是在绝大多数情况下可以忽略它们。作为离散状态机器的例子,我们可以考虑一个每秒嘀喑120度的轮子,这个轮子可能因一个杠杆的阻挡而停下来,在轮子上有一个发光的灯。这个机器可以被抽象的描述为下面的形式。机器的内部状态通过轮子的位置来描述可以是q1,q2和q3(输入信号是i0或i1杠杆的位置)。任何时候的内部状态可以根据上一次状态和输入信号由下表描述∶

输出信号可以用下表描述,它是唯一能够被外部观测的内部状态指示器。

这个例子是一个理想的离散状态机。只要它们的状态是有限的,它们就可以用这样的表格描述。

可以看出,只要给出初始状态和输入信号,所有的未来状态都是可以预测的。这让我们想起了拉格朗日的观点。那就是,只要给出宇宙中任意时刻所有粒子的位置和速度,就能够预知未来的所有状态。我们考虑的预测和拉格朗日相比较更接近于实用性。因为”宇宙是一个整体”的系统,所以只要初始条件的一个很小的误差,就会引起系统在一段时间以后变得完全不同。某个时刻一个电子位置的亿万分之一厘米的偏移,将决定一个人会在雪崩中死去还是逃生。我们称为”离散状态机”的机械系统的一个核心性质就是,这样的现象并会发生。即使是考虑一个实际的物理系统,而不是理想机器,只要知道了某个时刻足够精确的状态信息,就可以足够精确的预测未来的一切状态。

正如我们所提到的,数字计算机属于离散状态机。但是这样的机器所能够达到的状态通常是相当大的。例如,现在在曼彻斯特工作的机器可以有2的165000次方个状态,也就是大约是10的5000次方。而在上面的嘀喀轮的例子中,仅有三个状态。找到有如此多状态的原因并不困难。计算机具有一个存储器,对应于计算员的纸。这些存储器中应该能够写入任何能够写入计算员所用纸上的符号。为了简单起见,假设仅仅实用从0到9的数字作为符号。忽略手写体的差别。假如计算机具有100张每张50行,每行 30个数字的存储空间。那么状态的数目就会是10的100×50×30次方即10的1500次方。这大约是三个曼彻斯特机状态的总和。状态数的基为2的对数通常被称为机器的“存储大小”。因此曼彻斯特机的存储大小是165000而上面例子中轮子的存储大小是1.6。如果两个机器加在一起,他们的存储大小应该是原来存储大小的和。因此我们可以说“曼彻斯特机具有64个磁带存储器每个存储器的大小是2560,还有8个电子管,每个容量为1280。各种各样存储器加在一起大约是300个,总共174380”。

只要给出对应于离散状态机器的表格,就能够预测出机器将会做什么。这样的计算当然能够通过电子计算机进行。只要执行的足够快,电子计算机就能够模拟任何离散状态机的行为。这样,模范者游戏就变成机器作被问者B,善于模拟的计算机作A,那么询问者就不能区分它们。当然,数字计算机必须有足够的存储空间,运行的足够快。而且它在模范不同的机器之前必须被重新编程。

数字计算机可以模拟任意离散状态机器的性质被表述为“他们是通用机器”。具有这样性质机器的存在带来的一个重要结果就是,不考虑速度,我们并不需要设计出不同的新机器来执行不同的问题。它们都可以用一个数字计算机来实现,只要根据没种情况进行适当的编程。可以看出,这表明所有的数字计算机在某种意义上是相互等价的。

现在重新考虑在第三部分末尾提出的问题。暂时把问题“机器能够思考么?”用“是否存在假想中的机器能够在模范游戏中表现良好”代替。如果我们愿意,我们还可以问“是否存在能够表现良好的离散状态机”,但是由于通用性,我们可以看出这两个问题都等价于“让我们把注意力集中在一个数字计算机C上。如果我们可以让它具有足够大的存储空间,足够快的计算速度,而且对它进行适当的编程。C扮演模仿游戏中A的角色,人扮演B的角色,C能不能在这个游戏中表现良好?”

6. 主要问题的对立观点

现在,我们认为基础已经打好,并准备就“机器能否思维?”这个问题继续进行辩论…… 我们不能全盘摒弃最初的那个问题形式,因为在考虑代换是否恰当这个问题时,会有不同的意见,因此,我们至少必须考虑这方面必须说些什么。我想要是我先就这个问题阐述一个自己的看法,那么,读者就会觉得问题会更简单一点。首先让我们来看看这个问题的更确切的形式。我认为在50年的时间里,计算机的信息存储量可达到大约10的9次方,这样的话,计算机在模拟游戏中就会很顺利,一般的提问者在5分钟提问后,能准确鉴别的概率不会高于70%。原来那个“机器能够思维吗?”的问题我认为没有什么意义,不值得讨论。然而,我认为本世纪末,由于词汇用法会有较大的变化,普遍的学术见解也会改变,那时候人们又能重新谈思维机器而不会自相矛盾。我还认为,如果掩盖这些看法,决不会带来任何益处。人们普遍认为,科学家进行科学研究工作,总是从可靠的事实到可靠的事实,从来不受任何未经验证的假设的影响。这种看法实际上是错的。假如能清楚地划分哪些是经过证实的事实,而哪些又是未经验证的假设,那也没有什么害处。假设往往是非常重要的,因为它们为研究暗示了有益的研究方向。

我现在谈谈与我的看法相对立的观点。

(1)来自神学的反对意见。

思维是人的不朽灵魂的一种功能。上帝赋予每一个男人和女人以一颗不朽的灵魂,但从未将它赋予任何其他的动物或机器。因此,动物或者机器不能思维。

尽管我不能接受这种看法,但我试图用神学的语言来回答这个问题。如果将动物和人划为一个类别,我认为这个观点更有说服力;因为,在我看来,生物与非生物之间的差别远远要比人和其他动物之间的差别大得多。如果这种正统的观点出现在其他宗教社会里,它的主观武断性就更加明显了。伊斯兰教认为妇女没有灵魂,基督教对此有何感想?但是,现在暂不管这一点,让我们回到问题的焦点上来。在我看来,上面所引的论点对上帝威力的万能性有很大的限制。上帝对有些事情也是无能为力,比如,无疑他不能让1等于2;但是,我们难道不应该相信,要是上帝觉得合适,他完全可以赋予一头大象以灵魂吗?我们可以希望,上帝可以通过自己的威力造成变种,由于变种,大象有了一个较发达的大脑,可以用来满足灵魂的需求。同一形式的论点也可以用来解释机器。只是看上去也许有点不一样,因为”轻信”就不那么容易了。但这其实只能说明,我们认为上帝不太可能觉得这些环境适合于授予灵魂。关于环境问题我们将在本文的其余部分进行讨论。在企图制造这样的机器时,我们不应该无礼地墓夺上帝创造灵魂的权力,就像不应该剥夺我们生儿盲女的权力那样;在两种情况下,我们其实都是上帝意志的工具,为他所创造的灵魂提供住所。

然而,这仅仅是猜想而已。不管能用神学的论据来证明什么,我仍不以为然。过去已经证明这样的论据是痛洞百出的。在伽利略的时代,就有人提出,“太阳一动不动地悬着……整天都不慌不忙,不想落下”(Joshua x. 13)以及“他为大地奠定基础,叫它永远不动摇”(Psalm cv. 5)这些经文正好用来驳斥哥白尼的理论。从我们今天的知识来看,就觉得提出这种理论是徒劳的。过去没有这样的知识,情况便大不一样了。

(2)所谓“鸵鸟政策”式的异议。

鸵鸟被逼得走投无路时,会将头埋进沙子里,以为这样别人就看不见自己了;殊不知,自己的屁股露在外面更加引人注目。事实上鸵鸟的两条腿很长,奔跑得很快,其奔跑速度足以摆脱敌人的攻击。鸵鸟政策是指政府或人们忽视、不敢正视一种风险存在的行为。

“机器思维后果太令人恐惧了。但愿机器永远不会有思维。”这种观点不如上面的说法那样直言不讳。但它对我们许多人都有影响。我们都倾向于认为人类的某个微妙的方面比其他生物要优越。要是能证明人一定是高一等的,那再好不过了,因为那样的话,他高居一切之上的地位就不会有危险了。神学的论点那样流行,很明显是与这种情绪密切有关。这种看法在知识分子中会更普遍,因为他们比其他人更尊重思维能力,因此也就对人类思维能力的优越性更加深信不疑。

我认为这个论点不怎么重要,不值得一驳。安慰一下也许更合乎情理;这种安慰也许能在灵魂轮回说中找到。

(3)来自数学的异议。

在数学逻辑里有一些结论,可以用来证明离散状态的机器的能力有一定限度。这些结论中最著名的是哥德尔定理,此定理声称,在任何一个足够有力的逻辑系统里,都能形成陈述,而所作陈述在本系统范围之内既不能被证明是对的,也不能被证明是错的,除非这个系统本身就不一致。丘奇、克利恩、罗瑟和图林等人也有别的在某些方面同哥德尔定理很相似的结论。图林的结论更容易考虑,因为它直接涉及机器,而其他人的结论相对来说是间接的∶比方说,如要使用哥德尔定理,我们还需要某些附加手段,通过机器来描述逻辑系统,而要描述机器还需要再通过逻辑系统。这个结论涉及一种机器,它实质上是一台万能的数字计算机。即使是这样一台机器,它对有些事情也是无能为力的。如果计算机被设计成能在模似游戏中回答问题的话,那么对有些问题它是无法给予正确答覆的,而对另一些问题,不管你给它多长时间,它也答不上来。当然,尽管这台机器回答不了许多问题,但另一台机器却能给予满意的解答。我们现在只假定,对这些问题只要回答“是”或者“不是”就行了,不会出现像“你认为毕加索怎么样?”这类的问题。我们知道机器必定无法回答的问题是下述这类问题∶“这台机器有以下特点…… 这台机器会不会对任何问题作出‘是’的回答?”这里省略的是对某台标准形式机器的的描述…… 如果所描述的机器与那台被提问的机器具有某些相对简单的联系,那么,我们就能知道,答案不是错了,就是压根儿没有答案。这就是数学的结论,此结论认定机器能力有限,而人类智能则没有这种局限性。

如果想对这个论点作一简要的答覆,我们就能指出,尽管它已经证明任何一台特定的机器都是能力有限的,但它并没有任何证据说,人类智能就没有这种局限性。但我认为这个论点不能就这么轻易了结。每当其中一台机器遇到一个合适的问题,并作出我们明知是错的回答时,我们无疑会产生一种优越感。这种优越感难道不会是错觉吗?这种感觉无疑是真实的,但我觉得这并没有多大意义。我们自己平时也经常对问题作出错误的回答,因此,就没有权利因机器犯了错误而沾活自喜;当然,我们对付一台机器当然易如反掌,但我们无法同时对付所有的机器而且不出差错。一句话,有可能人比一台特定的机器聪明,但也有可能别的机器更聪明,如此等等。

我认为,那些持数学异议的人大多数愿意接受模似游戏作为讨论的基点。而持前两种反对意见的人不大会对什么标准问题感兴趣。

(4)来自意识的论点。

这个论点在斐逊教授1949年的李斯德演说中阐述得很明确,我摘引了其中的一段话∶“若要我们承认机器与大脑是一样的,除非机器能够因为感受了思想与感情,而不是符号的偶然涂抹写出十四行诗或协奏曲来。”也就是说,它不仅写了,而且也应知道自己确实这样做了。任何机器都感觉不到(不只是属于简易发明之类的人工信号)成功的喜悦,也不会因困难而沮丧,因受奉承而沾沾自喜,因犯错误而闷闷不乐,因见异性而神魂颠倒,也不会因欲望得不到满足而暴跳如雷或一蹶不振。

这个论点看上去否定了我们测试的有效性。按照这种观点的最极端形式,你若要肯定一台机器是否能思维,唯一的途径就是成为那台机器并且去感受自己的思维活动。这样的话,他就能够向众人描述他自己的感觉,当然,没有人会知道这些话是不是实话。同样,依照这个观点,要想知道某人是否在思维,唯一的途径就是成为那个特定的人。这实际是唯我论的观点。这也许是符合逻辑的,但若真是这样,那思想交流就太困难了。A会说,“A在想,而B不在想。”而B会说,“B在想,而A不在想。”我们犯不着为这个观点争执不休,我们不如客客气气地认为大家都在想。

我肯定悲逊教授不愿意采纳这样一个极端的唯我论的观点。他倒有可能愿意把这个模似游戏当作一个测试。模拟游戏(省略了游戏者B)在实际中经常采用“口试”形式,来鉴定某人的真的理解了,还仅仅是“鹦鹉学舌”,让我们看一看这种“口试”的情形∶

提问者∶ 你的十四行诗的第一行是这样的,“我欲比君为夏日,如何?”要是将“夏日”改成“春日”,是不是也可以,或许会更好?

见证人∶ 这样一改便不合韵了。

提问者∶改为“冬日”怎么样? 这样也会合韵。

见证人∶是没问题。但是有谁愿意将自己比作冬日呢?

提问者∶你认为匹克威克先生会使你联想起圣诞节吗?

见证人∶在一定程度上,会的。

提问者∶但是圣诞节是在冬天,我认为匹克威克先生对这个比喻不会在意。

见证人∶我在想你也许在开玩笑。冬日的意思是指某一个典型的冬日,而不像圣诞节那样特殊的一天。

这里不再赘引。如果那台写十四行诗的机器在这场“口试”中能够这样对菩,杰斐教授会作何感想呢?我不知道他是不是会认为,机器只是在“机械地通过发信号”而作出这些答复;但是,如果这些答复如上面所引那样令人满意,前后一致,我认为他不会再把机器当作“一个属于简易发明之类的人工信号”。所谓“属于简易发明的人工信号”指的是一架机器的一些设计功能,可以用来播放一个人念十四行诗的录音,只要拨动键钮,你随时都可以听到这段录音。

综上所述,我认为大部分支持来自意识的异议的人都可以经过劝说而放弃原来的主张,不致于陷入唯我论的困境。这些人因此也就有可能愿意接受我们的测试。

我并不想给大家留下这样一个印象,即我认为意识并没有什么神秘之处。比方说。要想确定意识在人体中的位置,就是一个谜。但是,如果我们没有解决这些链,还是能够回答这个与本文有关的问题的。

(5)来自种种能力限制的论证。

这些论证一般是这样一种说法∶“我担保,你可以使机器干任何你刚才提到的事情,可你永远也不能使一台机器有X类的行为”。这类行为包括许多特征。我在这里援引一例∶

要和蔼、机灵、美丽、友好…… 富于首创精神、富于幽默感、善于明辨是非、会犯错误…… 会坠入情网,喜欢草莓和奶油…… 能使别人钟情于它,通达世故…… 措词得当,长于反思…… 像人一样行为多姿多彩,富于创新……

说这些话一般都用不着证明。我认为这些话都是以科学归纳的原则为基础的。一个人在他一生中看到过成百上千台机器。他由所见所闻得出一些普遍的结论。它们形态丑陋,应用范围狭窄,只要范围略有变动,它们就束手无策。此外,它们的行为方式也非常单一,等等,等等。他很自然地认为,这就是机器大体上的必备特征。大部分机器的能力限制与机器储存里太小有关(我在设想,储存里这个概念可以通过某种方式进行扩充,它不仅仅包括离散状态的机器,也包括其他机器。因为目前讨论还不需要讲究数学的准确性,所以定义准确问题并不要紧)。数年前,由于数字计算机在社会上还鲜为人知,要是你光说其特征而不提其构造,那么,你们就会以为你在信口开河。我想这也是因为人们使用了科学归纳原则的结果。当然,人们在使用这个原则时,大都是无意识的。一个小孩一朝被火烫,十年怕烛台,我认为他这就是在使用科学归纳(当然,我也可以用许多别的方式来解释这一现象)。人类的行为和习惯看上去不适合运用科学归纳。如果你想获得可信赖的结果,你就要对时空的大部分进行研究。要不然的话,我们会(就像许多说英语的儿童那样)以为世界上所有的人都讲英语,再去学法语真是傻透了。

然而,关于我们刚才提到的许多能力限制,还要特别说几句,说机器没有能力享受草莓和奶油,这种说法会使读者觉得有点轻率。我们有可能使机器喜欢这些美味,但任何强迫这样做的企图都是愚蠢的。值得重视的是,这种能力限制对解释其他能力限制也有影响。比如,难以使人与机器之间形成那种像白人与白人之间,或是黑人与黑人之间的友好情感。

认为“机器不会出差错”这种想法有点令人费解。我们不禁要反问∶“它们出了错就更糟了吗?”让我们站在同情的立场上,看看这究竟是什么意思。我想我们可以用模拟游戏来解释这种说法,有人声称,在游戏中提问者可以向被试问几道算术题来分辨是哪个机器,哪个是人,因为机器在回答算术题时总是丝毫不差。这种说法未免太轻率了。(带模拟游戏程序的)机器并没有准备给算术题以正确的答案。它会故意算错,以蒙骗提问者。机器在做算术题时,由于对要出现什么样的错误作出了不妥当的决定,因而显示了机械的故障。我们对这种观点作这样的理解,其实也不太富有同情心。但是,我们对这个问题限于篇幅不可能进一步讨论。在我看来,这个观点的根源在于混淆了两个不同性质的错误。这两个错误我们称之为“功能错误”和“结论错误”。功能错误是由某些机械或电器故障引起的,这些故障导致机器不能够按照指令工作。在进行哲学讨论时,我们很容易忽视发生这种错误的可能性;这样的话,我们实际上是在谈论“抽象的机器”。而这些抽象的机器与其说是实在的物体倒不如说是数学的虚构。从定义上讲,我们完全可以这么说∶“机器从不出差错”。当某一意思与来自机器的输出信号联在一起时,就会产生结论的错误。比方说,机器能够自动打出数学方程或英语句子。当机器打出一个错误的命题时,我们就认为这台机器犯了结论错误。很明显,找不到丝毫理由说,机器从不犯这类错误。一台机器有可能别的什么也不能做,只会连续打出“0=1”。举这样一个例子也许太过分了,我们可以换一个例子∶机器会想办法通过科学归纳来得出结论。这种办法有时无疑会导致错误的结果。

有人说,机器不能成为它自己思维的主体。如果我们能证明机器的某些思维是有某些主题的话,我们就能驳回这种说法。尽管如此,“机器活动的主题”确实有点意义,至少对于研究它的人来说是这样的。比如,如果一台机器试图解x^2 – 40x – 11=0这个方程式,我们不禁会认为,这时,这个方式本身就是机器主题的一部分。从这种意义上说,机器无疑能够成为它自己的主题。这对编排它自己的程序,对预测因本身结构变化带来的后果都会有所帮助。机器能够通过观察自己行为的结果,修改自己的程序,以便更有效地达到某种目的。这并不是乌托邦式的空想,而是不久的将来可能办到的事。

有人批评说,机器的行为比较单一。这也就是说,机器不能够有很大的存储能力。直到最近,达到1000字节的存储里都很罕见。

我们现在这里考虑一些反对意见实际上是都是来自意识的那个异议的改头换面。通常,如果我们坚持认为,一台机器有能力做完其中的一件事,并对机器所能采用的方法进行描述。那么,不会给别人多深印象。人们会认为机器所使用的方法(不管是什么方法,总是机械性的)实在太低级了。请参见前面所引悲逊演讲中括号内的话。

(6)洛夫莱斯夫人(爱达,程序员)的异议。

洛夫莱斯夫人的回忆录中曾对巴比奇的分析引擎作过详尽的记述。她这样写道∶“分析引擎没有任何意图要想创作什么东西。它能做我们知道该怎样去指挥它做的任何事”。(重点为她所知)哈特里引用了这段话,并补充道∶“这并不是说,就不可能制造能’独立思考’的电子设备,(用生物学的话说)在这种设备里,我们能够引起可以用来作为‘学习’基础的条件反射。从最近的一些发展情况看,这种设想从原则上说是不是有可能,已经引起人们的极大兴趣和关注。但是,当时制造的那些机器并不具备这些特点。”

在这点上我完全同意哈特里的看法,我们会注意到,他并没有断言当时的机器还不具备这个特点,他倒是指出了,洛夫莱斯夫人所能获得的证明还不足以使她相信这些机器已具备了这个特点。从某种意义上讲,这些机器已具备了这个特点,这是极有可能的,因为,我们可以设想某些离散机器有这个特点。分析机实际上是一台万能数字计算机。因而,如果它的存储能力和速度达到一定水准,我们就能通过适当的程序使它模仿我们讨论的机器。也许伯爵夫人或巴贝奇都没有想到这一点。无论怎么说,他们不必能提什么要求,便提什么要求。

洛夫莱斯夫人的异议还有另外一种说法,即机器“永远也不能创新”。这种说法可以用一句谚语“世上无新事”抵挡一阵。谁能保证,他的“独创性成就”就不是接受教育的结果,就不是因循著名的普遍原则的结果?这种异议还有另一个稍稍好一点的说法,即机器永远也不能“使我们惊奇”。这种说法有点直截了当,我能够针锋相对地加以反驳。机器经常令我吃惊。这主要是由于我对机器能做什么估算甚少,更确切地说是由于即使我做了估算,也匆匆忙忙,马马虎虎。我也许这样对自己说∶“我认为此处的电压应与彼处相同;不管怎么样,就当是一样吧。”我自然经常出错,结果我大吃一惊,因为一俟实验完成,这些假设早被忘得一干二净了。我对自己的这些错误开诚布公,但在我证实了所惊讶的事时,人们也不会认为我在信口开河。

我的回答并不会使批评者就此缄口沉默,他也许会这样做,所谓大吃一惊都是因为我自己富于想象力的心理活动,与机器本身毫不相干。这样,我们重又回到来自意识的那个论证上去,而背离了吃惊不吃惊的话题。我们不得不认为这种论证方式是封闭式的,但是,也许值得一提的是,要将某物认作会使人惊奇的,则需要许多“富于想象力的心理活动”,不管这件令人吃惊的事件是由一个人、一本书、一台机器还是任何别的东西引起的。

我认为,那种认为机器不会令人吃惊的观点是由这样一个为哲学家和数学家特别容易犯的错误引起的。它是这样一个假设,即心灵一接受了某个事实,由此事实所引起的一切后果都会同时涌入心灵。在许多情况下,这种假设十分有用,但是,人们会情不自禁地忘了这是个错误的假设。如果照这样做的话,其必然结果就是认为,仅仅从数据和普遍原则得出结论会豪无效力可言。

(7)来自神经系统连续性的论证。

众所周知,神经系统不像离散状态的机器。若是关于撞击神经原的神经脉冲规模的信息有误,那么关于外冲脉冲的规模的信息就会有很大误差。既然这样,就可以论证∶我们不可能用一个离散状态系统去模仿神经系统的行为。

离散状态机器同连续机器肯定不大一样,这一点没什么问题。但是,如果我们严格遵循模拟游戏的条件,提问者就不可能从这个差别得到任何有利之处。如果我们考察一下其他一些更简单的连续机器,有些话就能够说得更明白。一台微分分析机就足以胜任了(微分分析机是一种用作非离散状态计算的机器)。有些这样的机器能打出答案来,所以可以参加模拟游戏。一台数字计算机不可能猜准微分分析机对一个问题究竟作何答覆,但是,它倒是有能力给出正确回答的。比如,如果你要它回答π的值是多少(实际上约等于3.1416),它就会在3.12,3.13,3.14,3.15,3.16之间作随机选择,其选择概率依次分别为(比方说)0.05,0.15,0.55,0.19,0.06。这样的话,提问者就很难分辨哪个是微分分析机,哪个是数字计算机。

(8)来自行为变通性的论证。

我们不可能总结出一套规则来囊括一个人在所有可想象的环境中的行为。比方说,我们可以有这样一条规则∶行人见到红灯止步,见到绿灯行走,但是,由于某种错误,红绿灯同时亮了,那该怎么办?我们也许会这样决定,为安全起见最好止步。但是,这个决定还会有其他问题。要想总结出一套可行囊括一切人类行为的规则,哪怕是有关红绿灯的规则,看来都是不大可能的。对这些看法我全费同。

从这一点可以得出,我们不能成为机器。我试图重新进行论证,但又恐怕做不好。似乎可以这么说∶“如果每一个人都有一套行动规则来制约他的生活,那么,人同机器就会相差无几了。但实际上不存在这种规则,因此,人不能成为机器”。这里,不周延的中项十分刺眼。我想谁也没有这样去论证过,但我相信实际上用的就是这样的论证。有人将“行为规则”和“行为规律”混为一谈,因此使这个问题有点模糊不清。所谓“行为规则”我指的是像“见到红灯止步”这样的规则。对这类规则你能服从,并能意识到。所谓“行为规律”我指的是自然律,若用在人体上的话,就像“如果你拧他,他就会叫喊”这样的规律。如果我们将上面所引证中的“制约他的生活的行为规律”改为“他用以制约自己生活的行为规律”,那么,这个论证中的不周延的中项就不再是不可克服的了,因为,我们相信,不仅是,用行为规律来制约生活意味着人就是某种机器(尽管这种机器并不一定就是一台离散状态的机器),而且反过来说,如果是这样一台机器的话,那么,它就是由这种规律来制约的。然而,我们很难像否认完整的行为规则那样轻易地否认完整的行为规律。只有通过科学的观察,才能发现这种规律;无论在何种情况下,都不能说∶“我们找得够久了,这种规律实际上不存在”。

我们可以找到有力的证据,证明这种说法是不正确的。因为,假定存在这种规律,我们肯定能够找到。对一台离散状态的机器来说,我们极有可能通过观察找到规律,预测其未来的行为,这要有一个合理的极限,比方说,在1000年之内。但事情并非如此,我曾在曼彻斯特计算机内输入了一个程序,这个程序用1000存储单元,这样,这个16位数的计算机就可以在两秒钟内作出回答。我绝对不相信任何人能仅从这些回答中充分了解这个程序,并预测对未试值的回答。

(9)来自超感官知觉的论证。

我想读者都很熟悉超感官知觉的说法,熟悉它的四种方式即心灵感应、千里眼、先知和精神运动的意义。这些令人不安的现象似乎在与一般的科学观念作对。我们多么想怀疑它们!不幸的是统计的证据使人至少对心灵感应不得不信。人们很难重新调整自己已有的观念以接受这些新事物,我们一旦接受了这些事物,就离相信鬼怪精灵为期不远了。朝这个方向前进的第一步是相信我们的身体除了按照已知的物理学规律运动外,还按照未知的、但相近的规律运动。

这个论点在我看来十分有力。我们可以这样回答,许多科学理论尽管同超感知觉有冲突,但实际上还是可行的;事实上,我们要是对这些现象置之不理,依然能活得很好。这是一种甚为冷莫的安慰,恐怕思维这个现象与超感知觉有着特殊的联系。

基于超感知觉的更具体的论证大致如下∶“让我做一个模拟游戏,让一个善于接受心灵感应的人和一台数字计算机作为证人。提问者可以想象‘我右手中的那张牌是哪个花色?’这样的问题。具有心灵感或千里眼的被问者在400张牌中可以答对130张。而机器只能随机猜对约104张,因此提问者就能作出正确的鉴定了”。这里有一个有趣的可能性。假使这台数字计算机有一个随机数字生成程序,那么,我们很自然就能用这个程序来决定给予什么回答。但是,这个随机数字生成程序又处在提问者的精神运动的能力作用范围之内。有了精神运动,计算机猜对的次数比概率计算还要高,因此,提问者就无法作出正确的鉴别了。而另一方面,提问者也能通过千里眼,不用提问就清对。有了超感知觉,什么样的事都会发生。如果允许心灵感应介入模拟游戏,我们就有必要严格规定测试方式。现在这情景就好比在模拟游戏中,提问者在自言自语,一个被问者正贴墙侧耳倾听。要是将被问者置入一间“防心灵感应室”,就能满足所有要求。

7. 学习机器

读者可能会错误的认为我并没有令人信服的正面论证。否则,我就不花费那么多精力来反驳对方的观点。其实并非如此,下面我将给出这样的证据。

先回到 Lavelace夫人(爱伦)的反对意见。她认为机器只能按我们的指示做事。你可以说,人给机器“注入”一个想法,机器以某种方式反应,最后又重新静止。就像一个被锤子敲击的钢琴弦一样。另一个比喻就是一个低于临界体积的原子堆∶输入的想法就像从原子堆外部轰击的中子。这些中子会引起一些反应但是最后将逐渐消失。但是,如果原子堆的大小变的足够大的时候,中子产生的反应很可能会持续的增加,直到原子堆解体。思维中是否存在这样的现象呢?机器中呢?这样的现象在人脑中应该是存在的。绝大多数思想都处于“亚临界”状态,对应于处于亚临界体积的反应堆。一个想法进入这样的思想中,平均下来只会产生少于一个的想法。有一小部分思想处于超临界状态,进入其中的想法将会产生越来越多的想法,最终成为一个完整的“理论”。动物的头脑显然是处于亚临界状态的。由于这种相似性,我们不得不问∶“一个机器能不能成为超临界的?”

“洋葱皮”的比喻很有用。研究思维的或脑的功能的时候,我们发现一些操作完全可以用纯机械的方式解释。它们并不对应于一个真正的思维,所以把它们像洋葱皮一样剥除。但是这时,我们发现仍然有新的机械思维需要录除,一直这样下去。用这样的方式,我们是否能够达到真正的思维,或者最终发现皮里面什么也没有了?如果是后一种情况,那么整个思维都是机械的(但它不是一个离散状态机,我们已经做了说明)。

与其说上面两段是有力的证明,倒不如称之为“为了产生信仰的背诵”。第六部分开始时提出观点的真正令人满意的证明,只能等到本世纪末出现能够通过实验的机器出现。但是我们此时此刻能够拿出什么呢?如果实验将来会成功,现在应该采取哪些步骤呢?正如我所解释的那样,程序的编写是关键。工程设计上的进步也是需要的,但是看上去让它们满足要求是完全能够实现的。估计大脑的存储能力在 10的10次方到10的15次方之间。我倾向于比较小的数字,因为我认为只有一个很小的部分被用来进行高级的思考。其余的大部分可能用来保存视觉影像。如果进行模仿者游戏需要的存储容量超过 10的9次方,是令人惊讶的。请注意英国大百科全书的容量为2×10的九次方。即使立足于目前的技术,10的7次方的存储容量也是非常实际的。也许根本就不需要增加机器的执行速度。一部分模拟神经细胞的现代机器的速度比神经细胞快1000倍。这提供了一个“安全余量”,用来补偿各个方面产生的速度损失。剩下的主要问题就是找到给这些机器编程的方法,以使它们能够完成游戏。现在我一天大概能编 1000字节的程序,所以如果大约60个工人在未来50年稳定的工作,并且没有东西扔进回收站,就能完成这个工作。看上去需要更快速的方法。

在模仿一个成人思维的时候,我们必须考虑它是怎样达到当前状态的。可以发现以下三点∶

(a 思维的初始状态,也就是出生时的状态;

(b 它所接受的教育;

(c 它所经历的,不能被称为教育的事情。

除了尝试设计一个成人思维的,为什么不试试设计儿童一样的思维。如果它接受正确的教育,它就可能成长为一个成人的大脑。一个儿童的大脑大概就像一个刚从文具店买来的笔记本。只有简单的机制,和许多空白的纸张。(机制和字在我们看来几乎是同义的)我们希望儿童脑中的机制足够少以使它很容易的被编程·我们可以假设对机器进行教育的工作量和教育一个人类儿童基本相当。这样,问题被分为两个部分。设计一个儿童程序和对它进行教育。这两者联系紧密。我们不可能一步就找到一个好的模拟儿童的机器。必须通过对它进行实验教学来研究它的学习效果。然后试验另一个程序并判断是否更好。

显然这个过程和进化是有联系的。因为∶

[儿童模拟机的结构 = 遗传物质]

[儿童模拟机的变化 = 变异]

[实验者的决定 = 自然选择]

这个过程应该比进化快的多。只留下最适应者是一个较慢的度量优势过程。通过结合智能的实验将会加快这一过程。另一个重要的事实是并不需要局限于随机的变异。如果能够发现一些缺陷产生的原因,就可能发现通过何种变异可以改进它。教育机器和教育儿童的过程不大可能完全相同。例如,它没有腿,因此就不会被要求去给煤球炉加煤。它也可能没有眼睛。不管聪明的工程师采取何种方法克服这些缺陷,只要这样的机器被送进人类的学校,其他的学生肯定会嘲笑它。它必须得到专门地指导。我们不需要太注意腿眼等等器官。海伦·勒女士的例子表明只要老师和学生能够以某种方式进行双向的交流,教育就能进行。

惩罚和奖励通常是教学的一部分。在这些原则下,就可以建造或编写简单的儿童机器。如果某个行动后很立刻遭到惩罚,机器要能做到不再重复这样的行动;而接受奖励的时候,产生这个奖励的行动以后更有可能发生。我对一个这样的儿童机器进行了一些实验,而且成功的教会了它一些东西。但是教育方法有一些不正规,因此这样的实验还不能称为成功。惩罚和奖励最好能作为机器教育过程的一部分。概略的说,如果老师没有其他的方式和学生交流,教给学生的信息不会超过奖励和惩罚所给信息的总和。一个儿童学要学会说“Casabianca”,一定会经历一个痛苦的过程。如果只能通过”二十个问题”的方法才能发现一个词,每一个“No”都将是一个打击。因此应该寻找其他的“非感情”的交流渠道。如果能够找到,通过惩罚和奖励就能让机器学会以某种语言给出的命令。这些命令通过“非感情”的渠道传输。这种语言的使用将会大大降低需要进行惩罚和奖励的次数。

对于什么样的复杂程度更适合儿童机器可能有不同的看法。可能会有人主张尽可能的简单以保持通用性。另一种方式是嵌入一个完整的逻辑接口系统。在后一种情况下,大多数存储空间将被用来存储定义和命题。这些命题可能具有各种各样的形式。例如,确定的事实,推测,数学上证明的定理,权威给出的判断,具有逻辑形式却没有确定值的表达式等等。一些命题可以被称为“命令”。机器应该能够在命令是确定的时候立即自动执行合适的动作。例如,如果老师对机器说“现在做你的家庭作业”。这将使“老师说现在做你的家庭作业”成为确定的事实。另一个事实可能是“老师说的一切都是对的”。这两个结合到一起将使“现在做家庭作业”成为确定的事实。而根据机器的建造规则,这意味着立即开始写家庭作业。效果还是令人满意的。机器的推理过程并不需要像这样遵守严格的逻辑。例如可能并没有类型体系。但这并不意味着出现类型谬误的几率会比我们从悬崖摔下的几率高。合理的命令(在系统内部表达,并不是系统规则的一部分),比如不要使用一个种类除非它是老师提到种类的一个子类就和“不要他接近边缘”具有相似的效果。

一个没有四肢的机器人需要遵守的指令集中在智力层面,就像上面做家庭作业的例子那样。在这些指令中,最重要的是规定逻辑系统的规则以什么样的顺序执行。因为在使用这个系统的每个步骤中,都会有许多不同的步骤供选择,在遵守逻辑系统的规则的情况下,选择任意一个都是允许的。如何进行选择将区分聪明的推理者和一个傻瓜,而不是区分出一个推理是正确还是谬误。产生这样的命令的陈述可能是“当提到苏格拉底的时候,使用芭芭拉的三段论”者,如果有一个方法被证明比另外的方法快,不要使用慢的方法。这些陈述可能来自权威,以可能来自机器本身,例如通过科学推理得到的。一些读者可能会感到学习机器的想法有些矛盾。怎样能够改变机器遵守的规则呢?这些规则应该完全决定机器应该做出何种反应,不管他的经历是什么,不管发生了什么变化,因此应该是时不变的。确实是这样。而对这个矛盾的解释是,在学习过程中改变的规则并不是永远不变的,这样的规则仅仅在一个短时间内起作用。读者可以用美国的宪法进行类比。

学习机器的一个重要特点是它的老师通常不关心其内部发生了什么变化,尽管老师能够在一定程度上预测他学生的行为。当被教育的机器是经过试验证实的好设计或编程的时候,更应该如此。这一点和使用机器进行计算形成鲜明的对比。在后一种情况下,我们需要清楚的明白在任意时刻机器的计算状态。要达到这个目标需要付出艰苦的努力。这样,机器只能按我们的要求做事的观点就会显得很奇怪。我们输入机器的大部分程序将引起机器执行一些我们无法完全了解的事,或者一些我们认为完全是随机的事。智能行为应该和完全服从命令的行为方式有区别,而这种区别也不能太大,不应该产生随机的行为或无限循环。通过教学的方式使我们的机器能够进行模仿着游戏的一个重要结果是∶“人类的不可靠”的特点很可能被相当自然的忽略,也就是不需要专门的辅导。通过学习得到的行为并不应该是百分之百的,确定的结果;否则,这些过程就不会被忘记。

在一个学习机器中加入随机元素应该是明智的。一个随机的元素在我们寻找一些问题的答案时是相当有用的。例如我们想找到一个介于50和100的数,它等于各个数字的和的二次方。我们可以从51,52开始一直试下去直到找到满足条件的数。另一个方法是随机的选数直到找到满足条件的数。这个方法的缺点是一个数可能重复试两次,但是当有多解的时候,这一点变得并不重要了。系统化的方法的一个缺点是可能存在很大一段数中并不存在解,但我们需要先验证它。现在的学习过程可以看成寻找一个行为规则满足老师的要求(或一些其他的标准)。因为可能存在大里的可能解,随机的方法可能比系统的方法更好。请注意,这和进化过程是相似的。但是系统化的方法并不是不可能的。如何能够跟踪不同的基因组合而不产生重复呢?

我们可能希望机器能和人在所有的纯智力领域竞争。但是首先从哪里开始呢?这也是一个困难的决定。许多人可能会说一个抽象的行为,例如下国际象棋可能是最好的选择。也可能需要给机器最好的传感器。然后教它听懂英语。这将和教一个正常的小孩一样。它应该被指出并命名等等。我并不知道正确的答案,但是我想这些方法都应该试试。

我们的目光所及,只是不远的前方,但是可以看到,那里有大量需要去做的工作。

We can only see a short distance ahead, but we can see plenty there that needs to be done.


评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注