人工智能全传※
作者: 迈克尔·伍尔德里奇
第一部分 人工智能是什么※
-如果所有的判定问题都是可以解决的,就意味着任何判定问题都可以通过设计一个专用的图灵机来解决。
想法: 最难的是如何解释这个问题
-图灵机,以及它的物理表现形式计算机,它们只是遵循各种指令的机器而已。
-人工智能的进步意味着让计算机能够越来越多地完成图1中所列举的任务,这些任务难以完成的原因通常有两种。第一种是我们虽然知道理论上有某种可以解决问题的方法,但实际上却行不通,因为它需要太过漫长的运算时间,占用太高的内存,像象棋和围棋这样的棋类游戏就属于这一类。第二种是我们不知道解决问题的方法是什么(例如人脸识别),要解决这类问题,我们需要一些全新的东西(例如机器学习)。几乎所有当代的人工智能研究都关注着这两类问题之一。
-图灵的杰出之处是避开了所有存在争议的问题,直指计算机程序是否“真正”拥有智能(或者意识以及其他说法)、程序是否真正有“思维”(或者意识、自主意识什么的)并不是重点,重点在于它能够做到“乱真”,即让测试者无法分辨出程序和真人。这里的关键词在于“无法分辨”。
-开发能够进行有意义对话的程序是一门严肃的研究课题,但绝大多数所谓的互联网聊天机器人都只是使用了关键字联想的脚本而已,再辅以一些类似反问、提出通用问题之类的小伎俩
-我们本身“思考”的方式就是用符号或者文字流程化了,在决定做什么之前,我们可能会跟自己来一场心灵对话,讨论各种方案的利弊,最终决定执行某一种。符号人工智能渴望捕捉这一切
第二部分 我们是怎么走到这一步的※
-我们还会接触到一个抽象的数学理论——计算复杂性,这是在20世纪60年代末到70年代初建立并发展起来的理论,用以解释为什么人工智能所面临的诸多问题从本质上来说难以解决。
-这种联合体——学术界、工业界、政府和军方联合,是美国在第二次世界大战后几十年里计算机技术发展的特色,也是美国在未来60年内确立人工智能领域国际领先地位的核心。
-机器学习跟人类学习是完全不同的,它的学习指的是解析和预测数据
-很长一段时间以来,让计算机理解自然语言的主要方法是试图为自然语言加以精准的定义和明确的规则,就像我们定义计算机语言一样。而事实证明,这是不可能的。自然语言太过灵活、模糊和易变,无法用这种方式严格定义,而语言在日常生活中的使用方式更是阻碍了对其进行精确定义的尝试。
-答案是使用一种名叫搜索的技术。在这一点上,我得首先澄清,在人工智能领域使用“搜索”一词时,并非指打开谷歌或者百度对网站进行搜索。人工智能领域的搜索,是一种基本的问题解决技术,它涉及让系统全盘考虑所有进程。任何像下棋一样的程序都是基于搜索技术的,汽车上的卫星导航系统也是。它一次又一次地出现在诸多领域,是人工智能技术的基石之一。
-穷举搜索的方式不仅能保证在问题可解的时候寻找到问题的解,还能保证寻找到问题的最优解。另外,作为计算机的算法,穷举搜索非常简单——编写一个程序来实现它非常容易。
-搜索树这种迅速、荒唐的增长速度导致了无法想象的问题,我们称之为组合爆炸,它是人工智能所面临的最重要的实际问题,因为搜索技术在人工智能领域使用得非常广泛[25]。如果你能够寻找到一个快速并且万无一失的办法解决搜索树的难题——发明一种方法,既能达成穷举搜索的目标,又无须占用这么恐怖的资源——恭喜你,你将青史留名,并且让许多人工智能目前所面临的困难迎刃而解。可我不得不遗憾地说,你做不到。我们没办法回避组合爆炸的问题,只能想办法处理它。
-一种是以某种方式集中搜索。其中一种典型的方式是并非逐级建立完整的搜索树,而是沿着其中一个分支构建搜索树。这种方式被称为深度优先搜索。通过深度优先搜索,我们沿着一个分支往下扩展,直到得到解决方案或者确信无法得到解决方案。如果遇到困难(比如类似图4中最左边的分支,又回到一个已经出现过的状态),那么我们就停止在该分支上的扩展,返回到上一级,选择另外的分支。
-深度搜索的主要优点在于不用存储整个搜索树,只需要存储当前正在处理的分支即可。但它有一个很大的缺陷:如果选择了错误的分支进行探索,可能会在错误的路上越走越远,永远找不到解决方案。所以,要想使用深度优先搜索,首先我们得确认哪个分支最值得搜索。这时候,我们就需要启发式搜索来帮忙了。
-塞缪尔跳棋程序的关键点在于给棋盘的各个位置赋予不同的权重,用以评估对选手而言位置“好”的程度:从直觉来说,某些“好”的位置可能让某位选手更容易取得胜利,而一些“坏”的位置则会导致失败。
-如果你发现自己要解决的问题是NP完全问题,这就意味着传统意义上的计算机技术在解决该问题上是行不通的:从精准的数学意义来说,你的问题太难了。
-但当NP完全问题无解的概念开始普及以后,社会各界才慢慢明白,人工智能所面临的问题有多艰难。
第三章 知识就是力量※
-研究人员大概用了5年的时间对MYCIN的知识库进行编码和补充,在它的最终版本里,知识库已经包含了数百条规则。
想法: 不是百万?
-过去34年来人工智能领域一直致力于摆脱的事实——其实是,要获取如此庞大的知识库,没有一种优雅、轻松的方式。相反,大部分工作(至少在初期)必须经过人类判断以后手工输入。
想法: 这可是 1990 年写的!牛逼
-科研界,包括科研投资的悖论之一就是,有时候,宏伟的目标会掩盖其荒谬的本质。
-矛盾在生活中无处不在。问题在于,我们试图用逻辑去处理它不该处理的领域——在数学中,如果遇见矛盾,就意味着你犯了错。
想法: 人的认知是不精确的,这恰恰是智能的体现,而机器过于精确。
第四章 机器人与其合理性※
-虽然基于行为的人工智能在某些问题上(主要是机器人技术)取得了极大成功,但它并没有为人工智能提供灵丹妙药。一旦基础行为数量太多,就很难设计出行为系统,因为理解各个行为之间可能存在的相互作用会变得非常困难。
-Siri的构想是一个基于软件的智能体,用户可以用自然语言与之交互,并且代替用户执行简单的任务。其他大众市场的应用商迅速跟进:亚马逊的Alexa、微软的Cortana和谷歌助手都实现了类似的功能。他们都将开发起源追溯到基于智能体的人工智能,当然,实际上它们不可能是20世纪90年代出现的,因为当时的硬件不足以支持它们运行。至少在2010年后,移动设备的计算能力才足以支持。
想法: 彼时的人工智能体,现在被称为人工智障。需求在不断提高。几十年前的人如果用CHATGPT估计会被被吓一跳。另外,十分无法理解apple模型本地化的策略:必然在培育下一个人工智障
-到了20世纪90年代,构建能代表我们理性行事的人工智能的智能体范式——这里的理性来自冯·诺依曼和摩根斯坦的理性抉择模型——已经成为人工智能的新正统学说,时至今日仍然如此。如果说有任何共同的主题将当代人工智能的各个分支结合起来,那就是这个。在当今几乎所有的人工智能系统中,都有一个数字收益模型,代表用户的偏好,并且系统将根据这个模型努力使预期效用最大化——代表用户理性决策。
-贝叶斯推断的重要性在于为我们提供了处理不完美数据的正确方法:我们既不丢弃数据,也不全盘相信它是正确的。我们利用它来更新机器人的信念库,通过概率来确定信念库的正确性。
-也许可以预见,纳什均衡很难计算。寻找有效的方法来计算纳什均衡仍然是当今人工智能的一个主要课题。
想法: 这是否就是当前各个大模型无法以互相问答的方式进行训练以提高自身能力的原因?
第五章 深度突破※
-图14展示了罗森布拉特的感知器模型,中间的方块代表神经元本身,左边指向方块的箭头代表神经元的输入(对应神经元的突触连接),右边的箭头代表神经元的输出(对应轴突)。在感知器模型中,每一个输入都跟一个被称为权重的数字关联,在图14中,与输入1相关的权重为w1,与输入2相关的权重为w2,与输入3相关的权重为w3。神经元的每一个输入都呈激活和未激活两种状态,如果一个输入被激活,它就会通过相应的权重“刺激”神经元。最后,每一个神经元都有一个触发阈值,由另一个数字表示(在图14中,触发阈值用T表示)。感知器的运作模式是神经元受到的刺激超过了触发阈值T,那么它就会“启动”,这就意味着它的输出被触发。换句话说,我们把激活的输入的权重加在一起,如果总权重超过阈值T,则神经元产生一个输出。

-训练一个神经网络需要用某种方式找到适当的权重值。通常的寻找方式是在每次训练以后调整权重值,试图让网络产生正确的输入到输出的映射。
想法: 权重值是神经网络的核心
-到了2016年,先进的神经网络已经拥有大约100万个神经元了(这个数量和蜜蜂的大脑大致相同)
-在20世纪80年代出现的高度连接神经网络中,每个神经元可能与其他神经元产生150个连接。到了撰写本书的时候,最先进的神经网络中的神经元,已经和猫的大脑神经元连接数相当了。而人类的神经元平均拥有10 000个连接。
-数据库中特定类别的图像并非人工分类的,也不是因为看上去很相似所以列入分类——恰恰相反,举个例子,飞盘类的图片唯一的共同点是它包含飞盘。其中某些图像是一个人朝另一个人扔飞盘,也有图像是静止在桌面上的飞盘,没有任何人影。每张图片都不一样——除了它们都包含飞盘这个要素。
想法: 我记得好像是人工参与分类的,有时大家在点选图像验证码的时候,就是在帮数据库人工核实这些数据?(存疑)
-深度学习和神经网络取得了成功,但它们也存在一些众所周知的缺点。
首先,它们所体现的智慧是不透明的。神经网络所获取的知识体现在神经元之间相互连接的权重值上,到目前为止,我们还没有办法解析这些知识。一个深度学习的程序可以告诉你在X光扫描图片中哪里有肿瘤,但它无法证明它的诊断是正确无误的。一个拒绝为客户提供银行贷款的深度学习程序无法告诉你它拒绝客户的原因。
-深度学习和神经网络取得了成功,但它们也存在一些众所周知的缺点。
首先,它们所体现的智慧是不透明的。神经网络所获取的知识体现在神经元之间相互连接的权重值上,到目前为止,我们还没有办法解析这些知识。一个深度学习的程序可以告诉你在X光扫描图片中哪里有肿瘤,但它无法证明它的诊断是正确无误的。一个拒绝为客户提供银行贷款的深度学习程序无法告诉你它拒绝客户的原因。
想法: 这里面都是各种权重值,无法直接解释。
-通俗地说,如果奖励反馈在相关行动执行后很长时间才出现,就会给强化学习带来困难:这就是前文我们讨论过的信用分配问题,即你可能不清楚是哪些行为导致了奖励的发生。
第三部分 我们将去向何处※
-人类专家的判断奉若圭臬,实在是太过天真的想法。每个人都会有缺陷,即使是最勤奋、最有经验的医生,也会有感到疲惫或情绪化的时候。而且,不管我们怎么努力去克服,都难免或多或少带有偏见以及经验主义。另外,我们人类并不太擅长做理性决策,而机器可以做出与人类专家同等水准的判断,医疗卫生行业的挑战或者说机遇,应该是将机器的这种能力用最佳的方式利用起来。我的信念是,人工智能的作用并不是取代人类的医疗卫生专业人员,而是用来增强他们的能力,让他们从某些烦琐的工作中解脱出来,更专注于专业领域中真正困难的部分;以及,提供另一种角度的观点以供参考,让他们的思考更加全面。
-如果汽车变得安全,它们就不再需要如此昂贵和沉重的保护底盘,这将再次降低汽车的价格和油耗。
-与无人驾驶汽车技术工程师交谈会发现,他们认为这项技术的关键难点在于如何应对突发事件。我们可以训练汽车应对大多数可能出现的危险,但当汽车遇见一种与训练中任何事件都不同的情况,会发生什么呢?
-无人驾驶汽车没有直觉这种奢侈的东西——在可以预见的未来,它们也不会拥有。
第七章 杞人忧天——我们想象中的人工智能会出什么错※
-奇点临近,其背后的关键思想是,人类创造技术的增速正在加快,技术的力量正在以指数级的速度扩张……在几十年内,以信息为基础的技术将涵盖所有人类的知识和技能领域,最终包括人类大脑自身的模式识别能力、解决问题的技能,以及情感和道德。
-假设你聚集了1000个爱因斯坦的克隆体,它们的集体智慧会是爱因斯坦的1000倍吗?事实上,我怀疑它们的集体智慧远远无法达到这个数字。再说一次,虽然1000个爱因斯坦克隆体可以比1个爱因斯坦更迅速地完成一些事情,但并不代表它们就变得更聪明了。
想法: 很有意思的说法。
-核连锁反应实际上是一个非常简单的机制,连中学生都可以理解它。
想法: 呵呵,贝尔不等式是个非常简单的不等式。连中学生都能推导出来😓
-我们是否需要法律——甚至国际公约来控制人工智能的发展,就像我们应用核能一样?不过,我认为引入一般的法律来管理人工智能的使用没有可行性,这就有点像试图通过立法来管理数学应用一样滑稽。
想法: 像电影里说的那样,现在开始就要求所有人工智能统一“不触碰奇点的约束标准”?
-系统能够做到不断地思考它涉及的每个人所有可能的行为,并且思考自己是否有相关行为能够阻止他们受到伤害吗?这也是不可行的。
想法: 人可以大约么,机器必须精确?
-递归式自我改善:对于设计中能够进行递归式自我改进(自动提高它们的智力,然后利用改进后的智力进一步提高自己)或者自我复制,可能会导致人工智能智力快速提升或者复制品迅速增加的人工智能系统,必须遵守严格的安全和控制措施。
想法: 这个牛
-解释义务主要是指,比如一个人工智能系统做了一个对某人有重大影响的决策,那么这个人有权要求系统对这个决策进行解释。但是怎么样才算是解释,这就是个难题了,在不同的环境下有不同的答案,而现在的机器学习程序无法提供解释。
想法: 机器学习无法解释
-我们不可能一次说清自己的偏好,所以通常我们所做的是对意愿和偏好进行概述,而概述和全面的叙述之间总会存在差距,人工智能又该如何弥合这些差距呢?
想法: 现在的大模型能理解上下文,是多大的进步
-解决这些问题的核心都是让计算机理解我们真正想要的是什么。逆向强化学习就是针对这一问题展开的,我们在第五章了解了常规的强化学习:智能体在某种环境中行动,并获得奖励。强化学习的目的是找到一个行动过程,最大限度地获取奖励。在逆向强化学习中,我们首先确定了“理想”的行为(即人类会怎么做),然后再制定人工智能软件能获得的相关奖励。简言之,我们是将人类的行为视为理想行为的典范。
第八章 现实中的人工智能会导致什么问题※
-我们将从就业和失业开始:人工智能将取代我们工作,这值得我们思考人工智能的存在和发展将如何改变人们的工作结构,以及人工智能担任的职能和人类之间存在异化的可能性。这反过来促使我们思考人工智能技术的应用对人权的影响,还有致命性自主武器出现的可能性。然后我们将考虑算法偏见的问题,以及人工智能缺乏多样性的问题,还有假新闻和假人工智能现象。
-报告令人震惊地预测:在不久的将来,美国会有高达47%的工作岗位受到人工智能和相关自动化技术的影响。
-新技术主要改变的是我们的工作性质。大多数人不会被人工智能系统取代,反之,使用人工智能工具可以让我们在工作中变得更高效、更优秀。
-但现在,长期雇佣关系已经越来越少见,取而代之的是短期工作、计件工作和临时工作——这就是零工经济。
-亚马逊的软件会计算出最高效的配送货物步行线路,指导工人装满手推车,然后通过手持卫星导航设备屏幕的指示,指导工人从一个货架走到另一个货架。即使路线如此高效,依然有许多需要步行的地方……“你就像个机器一样,不过是人形的,”亚马逊的工人说,“如果你乐意的话,可以管这叫作人类自动化。”
想法: 想到了美团骑手
-机器学习决策并非十全十美,它们难免会做出一些明显毫无意义的决策。而当前机器学习还有一个令人沮丧的现状,就是很难确认它什么时候的决策会出错。因此,在给人们带来重大影响的决策方面,盲目遵循人工智能的建议是非常不明智的。
-机器学习决策并非十全十美,它们难免会做出一些明显毫无意义的决策。而当前机器学习还有一个令人沮丧的现状,就是很难确认它什么时候的决策会出错。因此,在给人们带来重大影响的决策方面,盲目遵循人工智能的建议是非常不明智的。
想法: 大模型的幻觉
-遥控无人机本身就引发了各种严重的伦理争议,例如,由于控制无人机的驾驶员没有亲身涉险,他们可能会采取一些实际在场的情况下不会采取的行为。而且,最重要的是,人们不会像自己亲临现场那样认真对待行为的后果。
-为什么人们要反对能够精准杀人的自主武器,而不反对这样随意杀戮的常规武器轰炸?我想,答案是我们应该同时反对它们。但实际上,常规轰炸确实没有像自主武器那样引起这么多的道德争议。
想法: 司空见惯了
-因为机器最重要也是单一的获取信息途径是数据,偏见就是通过数据引入的。机器学习程序使用数据进行训练,如果数据本身就存在偏差,那么程序也将学习数据中隐含的偏见,而训练数据本身就可能存在不同程度的偏差。
-机器学习的特点是“黑盒”:它无法用人类能够理解的方式解释或者说明它的决策。
-不会得到多渠道的、公正的信息,他将深陷于自己的社交气泡中,对自己的世界也会存在偏见,并且偏见还会因此得到加强:这被称为证实性偏见。
-如果我们每个人都以完全不同的方式看待世界,又会发生什么呢?人工智能可能会让这些假设成为现实。
想法: 算法阻碍咯认识全面的世界
-如果我们每个人都居住在自己特有的、由人工智能驱动的数字世界里,那么建立在共同价值观和原则之上的社会将面临真正的危险。社交媒体上的假新闻,只是一个开始。
第九章 通往有意识的机器之路※
-深度学习可能是通用人工智能的一个重要组成部分,但它绝不是唯一的组成部分。
想法: 深度学习没有意识
-因为人类思维和意识这种现象——它们是如何进化的,如何工作的,甚至它们是如何在我们的行为中扮演控制角色的——对我们而言,就像在赫歇尔时代为太阳提供能量的物理机制,是完全神秘的。这些问题我们不知道答案,连寻求答案的方式都不太清楚。目前,我们只有一些线索,以及大量的猜测。事实上,如果这些问题有了明确的、令人满意的答案,我们就能够从科学意义上理解宇宙的起源和命运。正是这种根本性的缺乏使得强人工智能离我们如此遥远——我们都不知道该从什么地方着手。
想法: 我们还不知道意识是什么呢
-我也提到过好多次“意识”“思想”和“自我意识”之类的术语,但事实上,我们都不知道它们具体是什么东西。看上去这些概念都很容易理解——毕竟我们都拥有它们——但我们没有办法用科学的方式来定义或者衡量它们。
-你所经历的那种感觉,就是感受性的实例。
想法: 可能是激素,情感、感受触发的激素的释放比如说内啡肽,多巴胺让人愉悦
-内格尔提出的测试是对上述实体思考问题“成为一个X是什么样的感觉”。如果我们认为成为一个X是有感受的(这里的X可能是人,可能是猩猩),那么内格尔就认为,这个智能体X是有意识的。
-如果希尔勒的观点是正确的,那就意味着理解这种能力——强人工智能所需要的能力——是不能够通过遵循步骤执行命令产生的。因此,用传统计算机是无法实现强人工智能的。如果认可这一点,这个简单的论点将扼杀人工智能的宏伟梦想。不管你的程序看上去拥有多么出色的理解力,这都只是一种错觉:在程序的背后,没有半点理解可言。
-远古的祖先并没有像我们这样享受全方位的意识体验,我们也不太可能像后代那样享受到更为全方位的意识体验。进化发展的过程没有终结。
后记※
-本质上讲,人工智能触及了两个人类最基本的问题:人类生存的意义,以及身为智人的我们是否独一无二。
-半个多世纪以来,人们对人工智能的研究从未间断,在此期间,研究人员一而再、再而三地发表声明,宣称做出了重大突破,智能机器的宏伟梦想触手可及。结果呢,这一切全都被证明是无可救药的盲目乐观。人工智能就在虚假繁荣和过度萧条之间起起落落,甚至因而臭名昭著——在过去40年中,至少出现过三次这样的循环。延伸到过去60年里,人工智能领域受到了好几次严重冲击,几乎将它就此毁灭。然而,每一次毁灭以后,它都坚强地再起。如果你认为科学就是从无知到开悟的有序发展,那你应该感到震惊。
-人工智能的故事开始于第二次世界大战之后第一台计算机的诞生,我将带你经历所有人工智能的繁盛周期,从“黄金年代”开始,那是一段肆无忌惮的乐观年代,那段时间似乎所有的战线都取得了飞快的进步。接下来是“知识时代”,那时候的构想是让机器获取我们人类所拥有的一切知识。然后是“行为时代”,那时候人们坚决主张机器人是人工智能的核心。再往后是现在的“深度学习时代”。
-我希望引导大家关注真正值得关注的领域,并尽可能清晰地指出我们究竟应该害怕什么,又没必要担心什么。
想法: 所有这些需要“担心”的例子,都不是人工智能本身的问题,而是人使用人工智能方式的问题。出问题的还是人。
词汇表※
-不可判定问题:从精确的数学意义上来讲,某个问题无法用计算机(或者更确切地说,图灵机)来解决,即为不可判定问题。
-机器学习:智能系统的核心功能之一。机器学习程序学习输入和输出之间的关联,而不需要明确告诉它按照怎样的步骤去执行。神经网络和深度学习是机器学习的常用方法。
-深度学习:21世纪出现的推动机器学习研究兴起的突破性技术。其特点是使用更深层次结构、互联性更高的神经网络,以及更庞大、更精心策划的训练数据和一些新技术。
-深度优先搜索:一种用于解决问题的搜索技术,在深度优先搜索中,并非逐层展开搜索树,而是沿着搜索树的一个分支向深度展开。