.:. 草榴社區 » 技術討論區 » 尤瓦尔·赫拉利:人类遇到根本问题是信息问题
本頁主題: 尤瓦尔·赫拉利:人类遇到根本问题是信息问题字體大小 寬屏顯示 只看樓主 最新點評 熱門評論 時間順序
慈禧太后


級別:聖騎士 ( 11 )
發帖:490
威望:159 點
金錢:8955 USD
貢獻:30000 點
註冊:2022-02-17

尤瓦尔·赫拉利:人类遇到根本问题是信息问题

人类把自己这个物种命名为智人──有智慧的人类。但我们究竟配不配得上这个称号,实在还有待商榷。

过去万年间,我们智人确实积攒了巨大的力量,光是要列出人类所有的发现、发明和征服的事物,没有厚厚的几本书根本就装不下。然而,有力量并不等于有智慧,经过10万年的发现、发明与征服,人类已经把自己推向了一场生存危机。由于滥用各种力量,人类已然处于生态崩溃的边缘。人类现在还忙着创造像人工智能这样的新技术,但这些技术有可能逃脱人类的掌控,反过来奴役或消灭人类。然而,人类非但没有团结起来应对这些存亡挑战,还让国际紧张局势不断升温,全球合作更加困难,各国大量储备末日武器,一场新的世界大战正在逼近。

是什么在失控?

如果我们智人真那么聪明,为什么还会走上自我毁灭的道路?

从更深的层次而言,虽然人类累积了海量信息,从DNA分子到遥远的星系,无所不包,却仍然无法回答生命中最重大的问题:我们究竟是谁?我们应该追求什么?什么才是所谓美好的生活,我们又该怎样过上这样的生活?

虽然我们掌握了大批信息,却还是像远古的祖先,容易受到幻想与错觉的迷惑。即使是现代社会,偶尔也会出现群众大规模失去理智的情形,例如纳粹主义。

人类如今比石器时代拥有了更多的信息和力量,这一点毋庸置疑,但我们对于是否真的更了解自己,更了解自己在宇宙中的角色,却远远没那么确定。

所以,为什么人类那么会积攒信息与力量,但在智慧的获取上却又如此不成功?纵观历史,许多文化传统都提到,人类本性中的某些致命缺陷会让人类追求自己根本不知道如何驾驭的力量。

希腊神话里就提到有个男孩叫法厄同,发现自己原来是太阳神赫里阿斯的儿子。法厄同为了证明自己是神祇之后,希望能享有一日特权,驾太阳神的四马金车出游。赫里阿斯警告法厄同,拉着四马金车的天马绝非凡人所能驾驭,但经不起法厄同再三坚持,赫里阿斯终于让步,让法厄同得意地驾车飞上天空,但天马也不出意外地失控了。于是,太阳偏离了轨道,植被被烤焦,无数生物惨死,大地眼看不保。最后宙斯出手,一道闪电击中了法厄同,这个自负的人类如同流星从空中坠落,就连自己也在燃烧。诸神终于让天空恢复了秩序,世界也免于被毁灭。

时间过了两千多年,工业革命迈出了第一步,机器开始在许多工作上取代了人力,歌德也写出了类似的警世寓言,名为《魔法师学徒》。歌德的这首叙事诗(后来由迪士尼改编制作成一部广为人知的动画片,主角正是米老鼠),讲述了一位年迈的魔法师,出门的时候把工作坊交给一位小学徒,让他处理一些去河边打水之类的杂务。小学徒想偷懒,就擅自施展了魔法师的一条咒语,让一把扫帚帮他打水。但小学徒还没学过怎样叫扫帚停下来,结果水越打越多,整个工作坊快被淹没了。情急之下,小学徒拿斧头把魔法扫帚砍成了两段,却发现一把扫帚变成了两把,两把扫帚一起打水灌向工作坊。等到魔法师终于回来时,小学徒向他求救:“我召唤了魔法精灵,却无法让它停下来。”魔法师立刻解除了咒语,阻击了大水。这给小学徒(也就是给人类)的教训再清楚不过了:永远别去召唤自己控制不了的力量。

法厄同与小学徒的故事,能让21世纪的我们得到什么教训?人类显然没听进去这些警告,除了让地球气候失衡,还召唤了数十亿的魔法扫帚、无人机、聊天机器人和其他各种算法精灵,这些精灵不但可能会失控,还可能让各种意想不到的结果如大水滚滚而至。

那我们该怎么办呢?这些故事并没有给出真正的答案,似乎就只能等着某个神祇或者魔法师出面收拾残局。但这种想法极其危险,等于鼓励我们放任自流,转而去相信那些神祇或魔法师。更糟的是,这些故事并没有让我们意识到,神祇或魔法师本身就是人类的发明,与四马金车、魔法扫帚和算法并没什么两样。

创造出强大的事物,却带来意想不到的后果,这个现象并非始于蒸汽机或人工智能的发明,而是始于宗教。先知与神学家召唤出强大的神灵,这些神灵本该给人间带来欢乐与慈爱,但有时留下的却是一片血海。

不管是法厄同的神话故事还是歌德的叙事诗,之所以无法提供有用的建议,是因为它们都误解了人类获取力量的方式。这两则故事都讲述了某个人获取了巨大的力量,但随后因为傲慢与贪婪而走上歧途。这样得出的结论就是,因为个体心理缺陷导致了权力滥用。但这样的分析实在太过粗糙,而且忽略了一个重要方面:力量从来就不是个人努力的结果,人类的力量总是源于大批人的合作。

因此,真正造成人类滥用力量的原因并不在于个人的心理。毕竟,除了贪婪、傲慢与残忍,人类还有慈爱、谦逊、快乐与同情。确实,如果去看那些最糟糕的人类,会看到贪婪与残忍大行其道,恶人滥用力量。但究竟是什么让人类社会选择把力量交付给那些最糟糕的人?比如在1933年,大多数德国人并非精神失常,但为什么他们会投票给希特勒?

人类之所以喜欢召唤自己控制不了的力量,问题不在于个人的心理,而在于人类在大规模合作时的一种特性。

我在《智人之上》这本书想提出的一个主要论点就是:虽然人类能建立大规模合作网络,以此获取巨大的力量,但这些网络的建构方式注定了这些力量的运用常常并不明智。因此,人类遇到的问题归根结底是个网络问题。讲得更明确一点,这是个信息问题。

信息是维持网络联结的黏合剂。数万年来,智人正是靠着发明与传播各种虚构故事、幻想和大量的错觉──内容可能关于神祇、魔法扫帚、人工智能和许多其他事物──来打造并维持诸多的大规模网络。虽然个人通常了解的都是关于自己与世界的真理与真相,但大规模网络却会使用各种虚构故事与幻想将成员联结在一起并创造秩序。

我们不该以为这些网络的基础因为都只是些虚构妄想就注定会失败崩溃。想要避免这些网络的最终成功,我们自己将不得不付出艰苦的努力。

我们从未真正理解信息网络

我们之所以很难看清这些虚构妄想的网络究竟拥有多大的力量,是因为我们对于大规模信息网络(无论其信息是真实还是虚构)的运作方式有一种整体上的误解,我称之为“天真的信息观”。如果说法厄同神话与《魔法师学徒》这样的寓言故事呈现了一种对个人心理的悲观看法,那么天真的信息观对大规模人类网络的看法则显然太过乐观。

天真的信息观认为,通过收集与处理比个人多得多的信息,大规模网络能更好地了解医学、物理学、经济学等诸多领域,于是这样的网络不但力量强大,还无比明智。

举例来说,通过收集更多关于病原体的信息,制药公司与医疗保健服务机构就能找出更多疾病的病因,从而研发出更强大的药物,并就药物的使用做出更明智的选择。

这种观点认为,有了足够多的信息,就能得到真理与真相;有了真理与真相,就能得到力量与智慧。相较之下,无知似乎无法通向任何地方。虽然在某些历史上的危急时刻,基于妄想或欺瞒而形成的网络偶尔会出现,但长期看,这些网络必然会败给那些真实且可信的网络。

如果医疗保健服务机构无视病原体的信息,或者制药公司刻意散播不实信息,到头来肯定都会输给那些更聪明地利用信息的对手。因此,天真的信息观就会相信,那些基于妄想的网络肯定只是异常,而大规模网络通常都值得信赖,肯定能明智地运用其力量。

图片

当然,天真的信息观也承认,在从信息到真理与真相这条路上,有很多事情可能会出问题。比如我们在收集与处理信息的时候可能会犯下一些无心的错误,可能有些坏人会出于贪婪与仇恨而想隐藏重要事实或试图欺瞒。因此,有些时候信息并非导向真理与真相,反而导向错误。比如信息不完整、分析有错误,或有人刻意散布虚假信息,都可能让人误入歧途,于是就连专家也可能对某种疾病的真正成因产生误判。

然而,天真的信息观会认为,面对收集与处理信息时遇到的大多数问题,解决办法就是收集与处理更多的信息。错误本来就不可能完全避免,而在大多数情况下,如果能获取更多信息,确实能让准确率有所提高。

如果想找出一场流行病的起因,一位医生想从单一患者身上得到答案,其成功率显然比不上几千位医生收集几百万患者的数据做出的判断。如果这群医生密谋隐瞒真相,只要让公众和调查记者都能自由地取得相关医疗信息,这一隐瞒行为终将会败露。从这种观点看来,信息网络越大,就能越接近真理与真相。

当然,就算我们准确地分析了信息,发现了重要事实,也无法保证我们因此得到力量之后能够明智地加以运用。

一说到明智,大部分人会认为就是能“做出正确的决定”,但所谓“正确”是有价值判断的,不同的个人、文化或意识形态就会有不同的想法。比如,科学家发现了新的病原体之后,一种想法可能是研发疫苗来保护人类,但如果这位科学家(或是其统治者)抱持着种族主义的意识形态,一心认为某些种族就是劣等民族,应该被消灭,那么这项新的医学发现就可能被用来研发生物武器,以此夺走数百万人的生命。

即使在这种情境下,天真的信息观也会认为,只要有更多信息,至少还是能解决部分问题的。天真的信息观认为,只要仔细检查就会发现,人之所以会有不同的价值观,要么是因为信息缺乏,要么是有人在刻意传播虚假信息。根据这种观点,之所以会有种族主义者,只是因为这些人得到的信息还不充分,对生物学与历史事实了解得还不够。这些人误以为在生物学上真的能把人分成不同的“种族”,他们被各种虚假的阴谋论洗脑了。

因此,要想解决种族主义问题,就是要向公众提供更多关于生物学与历史的事实。虽然这可能得花些时间,但在这种自由的信息市场上,真理与真相迟早都能胜出。

当然,天真的信息观其实还涉及更多细节与思考,并不是以上几段文字就能解释的,但其核心原则就是:信息本质上是件好事,我们拥有的信息越多越好。只要有足够的信息和足够的时间,我们就一定能找出各种事件的真相(从病毒感染到种族主义偏见),不但让人类的力量得以提升,就连智慧也能成长,进而能更明智地利用这种力量。

这种天真的信息观为发展更强大的信息科技提供了理由,而这种观点也成为计算机与网络时代半官方意识形态。1989年6月,就在柏林墙倒塌与铁幕被冲破的前几个月,罗纳德·里根宣告,“极权主义的歌利亚很快就会被微晶片的大卫打倒”,同时提到“最大的老大哥在面对通信科技时已越来越无助……信息就是现代社会的氧气……能够越过顶部装了刺网的高墙,能够飘过通了电、设了各种陷阱的边界。电子束如同微风,仿佛穿越蕾丝一般吹过铁幕”。2009年11月,时任美国总统奥巴马到访上海,也表达了同样的看法,他向中国东道主表示:“我非常相信技术的作用,非常重视开放性。在信息流动方面,我认为信息流通越自由,社会就变得越强。”

创业者与企业也常常对资讯科技抱持着同样乐观的看法。早在1858年,《新英格兰人》就有一篇社论谈到电报这项发明:“既然已经创造出这样的工具,让全世界所有国家的思想得以交流,过去的偏见与敌意必将无以为继。”在经过将近两个世纪以及两次世界大战之后,马克·扎克伯格则表示,脸书的目标“是帮助大众分享更多信息,好让世界变得更加开放,以及促进人与人之间的理解”。

著名未来学家、创业家雷·库兹韦尔2024年出版的新书《奇点已更为临近》回顾了信息技术的发展史,并得出结论:“现实情况就是,随着科技指数级的改进,生活的几乎所有方面都在变得更好。”书中回顾了人类历史上的重大发展,列举了印刷术的发明等例子,认为信息技术从本质上倾向于产生“一种良性循环,让人类福祉的几乎所有方面都得到改进,包括识字、教育、财富、卫生、健康、民主和减少暴力”。

最能够简洁表达出这种天真信息观的,或许就是谷歌的使命宣言:“整合全球信息,使人人皆可访问并从中受益。”面对歌德的警告,谷歌显然认为虽然一个学徒偷走老师的魔法咒语可能造成灾难,但如果很多学徒能够自由获取世界上所有的信息,这些学徒不但能创造出人人受益的魔法扫帚,还能学会明智地使用这股力量。

重新审视人工智能对人的意义

这里必须强调,很多时候,拥有更多的信息确实能让人更加了解世界,更明智地运用手中的力量。以儿童死亡率的大幅下降为例,歌德是全家7个孩子里的老大,但只有他和妹妹柯妮莉亚庆祝了7岁生日。其他孩子多半因病夭折,赫尔曼·雅各布6岁时死于疾病,凯瑟琳娜·伊丽莎白活到4岁,约翰妮·玛丽亚活到2岁,乔治·阿道夫只活了8个月,还有一个弟弟来不及取名便胎死腹中。最后柯妮莉亚在26岁病逝,全家这一代只剩歌德一人。

歌德自己后来也生了5个孩子,但除了长子奥古斯特,其余的孩子都在出生后两周内夭折。夭折的原因很可能是歌德和妻子克里斯典娜的血型不兼容,让她在第一次成功怀孕后,体内出现了对抗胎儿血型的抗体。这种病被称为Rh血型不合溶血病,目前已能有效治疗,死亡率不到2%,但在18世纪90年代,这种疾病平均死亡率高达50%,等于给歌德后来的4个孩子都判了死刑。

18世纪末,歌德家族堪称德国的富裕家庭,但他家这两代的儿童存活率只有可怜的25%,12个孩子中只有3个活到成年。这个可怕的统计数字并非个例,歌德在1797年写下《魔法师学徒》时,估计德国儿童只有大约50% 能活到15岁,而且当时全球大多数地区的情况大概也是如此。到 2020年,全球儿童有95.6%能活到15岁,这个数字在德国更是高达 99.5%。之所以能有这项重大的成就,当然是因为收集、分析和共享了关于血型等要素的大批医学数据。所以就这个案例而言,天真的信息观其实说得没错。

然而,天真的信息观并未见到事情的全貌,现代历史可不只是儿童死亡率降低而已。在近几个世代里,信息生产的数量与速度都经历了前所未有的最大增长。现在任何一部智能手机储存的信息量都能超越古代的整座亚历山大图书馆,还能让用户实时与世界各地几十亿人建立联系。然而,随着这些信息以惊人的速度传播,人类却比过去任何时候都更接近自我毁灭。

人类坐拥大量数据(或许也正是这个原因),却还是在不断向大气排放温室气体,污染河海,砍伐森林,破坏栖息地,让无数物种灭绝,甚至还危及自己这个物种的生态基础。人类还在生产着越来越强大的大规模杀伤性武器,从热核弹到末日病毒,无所不包。人类领导者的手中并不是没有关于这些危险的信息,但他们非但没去合作寻找解决方案,反而让大家越来越接近一场全球战争。

这个时候,坐拥更多信息是会让事情变好还是变得更糟?我们很快就会知道。目前,许多企业与政府都在争先恐后地研发人类历史上最强大的信息技术——人工智能。一些知名企业家,比如美国投资人马克·安德森,相信人工智能最后能够解决人类所有的问题。2023年6月6日,安德森发表了《为何人工智能能拯救世界》一文,文中充满了大胆的言论,比如,“我要告诉大家这项重要的好消息:人工智能非但不会毁灭世界,而且还可能拯救世界”“人工智能能让我们关心的一切变得更好”。他最后总结道:“人工智能的发展与普及,非但不是我们该担心的风险,反而是我们对自己、对孩子、对未来该承担的道德义务。”

雷·库兹韦尔也同意这种说法,他在《奇点已更为临近》一书中表示:“人工智能这项关键技术,将让人类得以应对各种迫在眉睫的挑战,包括克服疾病、贫穷、环境退化,以及人类的所有弱点。而我们就该负起道德上的责任,实现新技术的承诺。”库兹韦尔很清楚这项技术的潜在危险,也对这些危险进行了详尽的分析,但他相信这些危险都可以被成功缓解。15

但其他人就没那么相信了。除了哲学家与社会科学家,许多重要的人工智能专家与企业家(例如约书亚·本吉奥、杰弗里·辛顿、山姆·奥特曼、埃隆·马斯克、穆斯塔法·苏莱曼)都警告公众:人工智能可能会摧毁人类文明。本吉奥、辛顿与许多其他专家在2024年共同撰写的一篇文章中指出:“不受控制的人工智能发展,最后可能造成大规模的生命损失与生物圈伤害,以及人类的边缘化甚至灭绝。”一项2023年的研究调查了2778名人工智能研究者,结果显示,有超过1/3的人认为,先进的人工智能有至少10%的可能会造成等同于人类灭绝一样可怕的结果。2023年,包括中国/美国与英国在内的近30个国家和欧盟签署了关于人工智能的《布莱切利宣言》,其中就承认:“这些人工智能模型所具备的最重要的功能可能会造成严重的甚至是灾难性的伤害,无论是有意的还是无意的。”虽然以上使用的是这种仿佛描述世界末日的语词,但专家与政府并不是让人联想到那些好莱坞电影的画面,好像有机器人造反,在街上奔跑射杀人类。这种情节一来实在不太可能发生,二来只会让人们忽略真正的危险。专家真正要警告的是另外两种情况。

第一,人工智能的力量可能会大幅加剧人类既有的冲突,让人类形成内斗。正如20世纪冷战时期的铁幕分隔出几个彼此敌对的势力,21世纪的硅幕(不再是铁丝网,而是由硅基芯片和计算机代码组成的)也可能区隔出不同的敌对势力,引发一场新的全球冲突。这场人工智能军备竞赛将会制造出更具破坏性的武器,于是即使只是一个小小的火花,也可能引发灾难性的大火。

第二,硅幕所分隔的或许不是彼此敌对的人类,而是一边为所有人类,另一边为我们新的人工智能霸主。不论在哪里生活,我们都可能被一张看不透的算法大网束缚,控制着我们的生活,重塑着我们的政治与文化,甚至是去改造我们的身体与思想,但人类却再也无法理解这些控制着我们的力量,更别说加以阻止了。如果21世纪真会有某个极权主义网络成功征服世界,其背后的掌控者可能并不是人类的独裁者,而是某种非人类智慧。有些人以为,如果人类将会迎来极权主义噩梦,主要来源应该是俄罗斯或后民主时代的美国等国,但这是对极权主义威胁的一种误解。事实上,不管是俄罗斯人、美国人还是其他人,真正面对的可能是由非人类智慧引发的极权威胁。

有鉴于这种危险的严重性,人工智能应该引起全人类的共同关注。虽然不是每个人都能成为人工智能专家,但我们都该记得,人工智能是历史上第一个能够自行做决策、创造新想法的技术。人类过去的所有发明,都只是在为人类赋予更强大的力量:过去的新工具无论多么强大,使用的决定权都握在人类手中。刀和炸弹并不会决定要杀死谁,它们只是不会思考的工具,没有处理信息、做出独立决策时所必需的智能。相较之下,人工智能能够自行处理信息,因此也就能够代替人类做出决策。人工智能不是工具,而是能够做出决策的行为者。

由于能够掌握信息,人工智能就能在各种领域独立产生新的想法,从音乐到医学无所不包。在过去,留声机能播放人类谱写的音乐,显微镜能显现人体细胞的秘密,但留声机无法谱写新的乐曲,显微镜也无法合成新的药物。但人工智能能够自行创造艺术,找出新的科学发现。接下来的几十年里,人工智能甚至可能创造出新的生命形式,方式可能是编写遗传密码,也可能是发明某种非生物的代码,从而赋予非生物实体生命。

就算是在当下,这场人工智能革命还在萌芽阶段,计算机也做出了各种影响人类的决定:要不要核准某人的贷款,要不要雇用某人来工作,要不要把某人送进监狱。这种趋势只会愈演愈烈、越来越快,让我们越来越难以掌控自己的生活。

我们真的能相信计算机算法会做出明智的决定,并创造一个更美好的世界吗?这个赌注可比相信魔法扫帚会打水要冒更大的风险,而且这里赌上的不只是人类的生命。人工智能不但可能改变人类这个物种的历史进程,还可能改变所有生命形式的演化历程。


赞(17)
DMCA / ABUSE REPORT | TOP Posted: 09-29 09:36 發表評論
.:. 草榴社區 » 技術討論區


電腦版 手機版 客戶端 DMCA
用時 0.01(s) x3, 10-30 17:30