查看原文
其他

凯特·克劳福德:《人工智能的地图集:权力、政治和人工智能的地球成本》(2021)

陈荣钢译 译窟 2022-07-27

人工智能的地图集:权力、政治和人工智能的地球成本
Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence
 
作者:凯特·克劳福德(Kate Crawford,微软研究院)
译者:陈荣钢
 
来源:同名著作(耶鲁大学出版社,2021)导论

全世界最聪明的马
 
19世纪末,欧洲人被一匹叫汉斯(Hans)的马迷住了。“聪明的汉斯”不啻为一个奇迹——它能解答数学问题,读懂时间,认识日历上的日期,区分音调,拼出单词和句子。人们蜂拥而至,观看这匹德国种马用蹄子敲出复杂问题的正确答案。
 
“2加3是多少?”汉斯会用蹄子轻轻地在地上敲击五下。“今天是星期几?”汉斯会用蹄子依次敲击字母板,并拼出正确的答案。汉斯甚至掌握了更复杂的问题,例如,“我心里有一个数字。我减去9,余下3。这个数字是多少?”到1904年,聪明的汉斯成为国际名星,《纽约时报》将其称为“柏林的神奇之马”,“除了说话,它几乎什么都能做”。
 
汉斯的训练师是一位名叫威廉·冯·奥斯滕(Wilhelm von Oste)的退休数学教师,长期以来,他一直对动物的智能感到着迷。冯·奥斯滕曾试图教小猫和小熊数数,但都失败了,直到他开始训练马,才获得成功。
 
他首先教汉斯数数。他握住马腿,给汉斯看一个数字,然后在马蹄上敲击正确的次数。很快,汉斯就能准确地敲出简单的数字。接下来,冯·奥斯滕引入了一块写有字母的黑板,这样汉斯就可以为黑板上的每个字母敲打一个数字。经过两年的训练,冯·奥斯滕对这头动物掌握高级智能的程度感到震惊。于是,他带着汉斯上路了,四处证明动物有推理能力,也让汉斯红极一时。

“聪明的汉斯”

 
但很多人保持怀疑。德国教育部门成立了一个调查委员会,以检验冯·奥斯滕的科学主张。委员会由心理学家、哲学家卡尔·斯图姆夫(Carl Stumpf,1848-1936)和他的助手奥斯卡·芬斯特(Oskar Pfungst,1874-1932)领导,委员会成员还包括一名马戏团经理、一名退休教师、一名动物学家、一名兽医和一名骑兵军官。
 
然而,在对汉斯进行了广泛的研究之后,无论是在训练师在场还是不在场的情况下,这匹马都能正确作答,而且委员会没有找到任何欺骗的证据。芬斯特后来写道,汉斯在“成千上万名观众、马迷、一流的技巧训练师面前表演。在几个月的观察过程中,没有一个人能够发现提问者和马之间有任何形式的常规暗号。”
 
该委员会发现,汉斯所学的方法更像是“在小学里教孩子”,而不是动物训练,而且“值得进行科学研究”。不过,斯图姆夫和芬斯特仍然心存疑虑。有一个发现特别困扰着他们——当提问者不知道答案或站得很远时,汉斯很少给出正确的答案。这导致斯图姆夫和芬斯特思考是否有某种无意的信号在向汉斯提供答案。
 
1911年,芬斯特在他的著作中说,他们的直觉是正确的,提问者的姿势、呼吸和面部表情会在汉斯接近正确答案的瞬间发生微妙的变化,促使汉斯在那里停下来。后来,芬斯特在人类实验中测试了这一假设,并证实了他的结果。这一发现最让他着迷的是,提问者一般都没有意识到他们在为马提供指引。
 
提问者无意间的引导让汉斯回答正确。这匹马被训练来产生它的主人想要看到的结果,但观众觉得这并不是他们想象中的非凡智能。
 
从很多角度来,“聪明的汉斯”的故事都很吸引人,夹杂着欲望(desire)、幻觉(illusion)和行动(action)之间的关系,关乎奇观(spectacles)的重要性,关乎我们如何将非人类拟人化(anthropomorphize),关乎偏见的产生。这是智能的政治。
 
汉斯在心理学中为一种特殊类型的概念陷阱设计了一个术语,即“聪明的汉斯”效应或“观察者—期望”效应,用来描述实验者无意的暗示对实验对象的影响。汉斯和冯·奥斯滕之间的关系指出了偏见进入系统的复杂机制,并且人们总是与他们研究的现象纠缠在一起。如今,汉斯的故事被用在机器学习(machine learning)中,成为一个警告性的提醒。一个在训练中表现出色的系统在面对世界上的新数据时,也可能做出糟糕的预测。
 
这本书研究一个核心问题——智能是如何被“制造”出来的,而这又会产生什么样的陷阱?
 
乍一看,“聪明的汉斯”的故事是一个关于一个人如何通过训练一匹马来遵循提示并模仿人类认知来构建智能的故事。但在另一个层面上,我们看到,制造智能的实践相当广泛。智能的制造离不开学术界、学校、科学、公众和军队的共同确证。此外还离不开市场——围绕冯·奥斯滕和他那匹了不起的马,情感和经济投资推动了巡回演出、报刊故事和讲座。官僚机构被召集起来评估、测试这匹马的能力。金融、文化和科学利益集团在构建汉斯的智能方面发挥了作用,各有利益所求。
 
我们可以看到两种不同的神话在起作用。第一种神话是,非人类系统(无论是计算机还是马)都是人类思维的模拟物。这种观点认为,只要有足够的训练或足够的资源,就可以从头开始创造出类似于人类的智能,而无需解决人类在更广泛的生态环境中的具体象征和关系。第二种神话是,智能是独立存在的东西,好像它是自然的事物,与社会、文化、历史和政治力量截然不同。事实上,几个世纪以来,智能的概念已经造成了硬伤,并被用来为从奴隶制到优生学的统治关系辩护。
 
这些神话在人工智能(AI)领域尤其强烈。自20世纪中期以来,人类智能可以被机器形式化(formalised)和复制(reproduced),这种信念不言而喻。正如汉斯的智能被认为像人类一样,人们像培养小学生一样精心训练人工智能系统,那么该系统也能拥有虽然简单但类似人类的智能形式。
 
1950年,阿兰·图灵(Alan Turing)预言:“在本世纪末,词语的使用和普遍的教育观点将发生很大的变化,人们将能够谈论机器的思维而不被反驳。”1958年,数学家冯·诺伊曼(John von Neumann)声称,人类的神经系统“表面上是数字化的”系统。麻省理工学院(MIT)教授马文·明斯基(Marvin Minsky)曾在回答“机器是否能思考”的问题时说:“机器当然能思考。我们能思考,因为我们是‘肉身机器’。”
 
但并不是每个人都信服这一套。早期的人工智能发明者、第一个聊天机器人程序(被称为ELIZA)的缔造者约瑟夫·维森鲍姆(Joseph Weizenbaum,1923-2008)认为,如果将人类视为单纯的信息处理系统,那么这是过于简化的智能概念了,这种观念让人工智能科学家创造出“像孩子那样”学习的机器。

第一个聊天机器人程序ELIZA

 

这一直是人工智能历史上的核心争议之一。1961年,麻省理工学院举办了一个具有里程碑意义的系列讲座(Management and the Computer of the Future)。参加讲座的计算机科学家阵容强大——包括格蕾丝·赫柏(Grace Hopper)、约瑟夫·利克莱德(J. C. R. Licklider)、马文·明斯基、艾伦·纽厄尔(Allen Newell)、司马贺(Herbert Simon)和诺伯特·维纳(Norbert Wiener),他们讨论了数字计算方面的前沿进展。会议结束时,约翰·麦卡锡(John McCarthy)大胆论证,人类和机器任务之间的差异性仅仅是幻觉,只不过,有一些复杂的人类任务需要更多时间被形式化并由机器来处理罢了。
 
然而,哲学教授休伯特·德莱弗斯(Hubert Dreyfus)提出反驳,他担心聚在一起的工程师们“甚至没有考虑到大脑可能以与计算机完全不同的方式处理信息”。在后来的著作《计算机不能做什么》(What Computers Can’t Do)中,德莱弗斯指出,人类的智能和专业知识在很大程度上依赖于许多无意识和潜意识的过程,但计算机要求所有过程和数据都是明确的、形式化的。因此,计算机必须抽象、消除或预估智能之中的非形式层面,因为它无法像人类那样处理有关信息。
 
20世纪60年代以来,人工智能领域发生了很多变化,包括从符号系统到最近机器学习技术的炒作浪潮的转变。在许多方面,早年“人工智能能做什么”的争论已经被遗忘,怀疑的态度已经逐渐消散。自2000年代中期以来,人工智能作为学术界和工业界的一个领域已经迅速扩大。现在,少数强大的技术公司在全球范围内部署了人工智能系统,他们的系统再次被誉为可与人类智能相媲美的产物,甚至优于人类的智能。
 
然而,“聪明的汉斯”的故事也提醒我们,我们对智能的思考或认识是多么狭隘。汉斯在一个非常有限的范围内被训练出来,以模仿完成加减法和单词拼写的任务。这反映了我们对马或人所能做的事情的有限性。汉斯在物种间交流、公共表演和耐心方面表现卓著,但这并不见得是智能。
 
作家兼软件工程师艾伦·乌尔曼(Ellen Ullman)认为,这种把思维和计算机划等号的信念“感染了几十年来计算机和认知科学领域的思想”,为该领域带来了一种原罪。这是人工智能中笛卡尔二元论的意识形态——人工智能被狭义地理解为非实体的智能,脱离了与物质世界的一切关系。
 
什么是人工智能?既不人工,也不智能
 
让我们问一个具有迷惑性的简单问题——什么是人工智能?如果你问街上的人,他们可能会提到苹果的Siri,亚马逊的云服务,特斯拉的汽车,或谷歌的搜索算法。如果你问深度学习的专家,他们可能会给你一个技术性的回答,告诉你神经网络如何被组织成几十个层,如何接收标记的数据,被分配权重和阈值,并能以尚不能完全解释的方式对数据进行分类。
 
1978年,唐纳德·米奇(Donald Michie)教授在讨论专家系统(expert system,早期人工智能的一个重要分支,它可以看作是一类具有专门知识和经验的计算机智能程序系统)时,将人工智能描述为知识的提炼:“可以产生的可靠性和编纂能力远远超过了人类专家所达到的最高水平。”斯图尔特·罗素(Stuart Russell)和彼得·诺维格(Peter Norvig)在一本很受欢迎的教科书中指出,人工智能是理解和构建智能实体的一种尝试。他们声称: “智能主要与理性行为有关。”“理想状况下,一个拥有智能的行动者能在特定情况下采取最好的行动。”
 
定义人工智能的每一种方式都为理解、衡量、评价和管理人工智能设定了框架。如果人工智能系统被认为比任何人类专家都更具有可重复性或理性,能够采取“最佳可能的行动”,那么就表明,我们应该相信它们能够在公共卫生、教育和刑事司法方面做出重大决定。当具体的算法技术成为唯一的焦点时,就只有持续的技术进步这一件重要的事了,却没有考虑到这些方法的计算成本,也没有思考对这颗星球的深远影响。
 
在这本书中,我认为人工智能既不人工,也不智能。相反,人工智能既是身体的,也是物质的,由自然资源、燃料、人类劳动、基础设施、物流、历史和分类方法构成。人工智能系统不是自主的、理性的,也不能在没有计算密集型的大型数据集或预定义规则、奖励的训练下辨别任何东西。
 
事实上,我们所知的人工智能完全依赖于一套更广泛的政治和社会结构。基于大规模建立人工智能所需的资本以及它优化人工智能系统的方式,人工智能最终都被设计为服务于现有的主导利益。在这个意义上,人工智能是一种权力。
 
在这本书中,我们将从最广泛的意义上探讨人工智能如何产生,讨论塑造它的经济、政治、文化和历史力量。一旦我们将人工智能与这些更广泛的结构和社会系统联系起来,我们就可以摆脱纯粹技术概念的人工智能。在一个基本层面上,人工智能是技术和社会实践、机构和基础设施、政治和文化的综合体。人工智能系统既反映又产生社会关系和对世界的理解。
 
值得注意的是,“人工智能”这个词在计算机科学界可能会造成不适感。几十年来,这个短语时而新潮,时而过时,它更多用于市场营销,而不是为研究人员所用。在技术文献中,“机器学习”是一个更常被使用的短语。不过,“人工智能”的术语经常在基金申请中受到青睐,要么风险资本家带着支票簿而来,要么研究人员为一项新的科学成果寻求媒体关注。
 
因此,这个术语既被使用又被拒绝,使其含义不断变化。为了我的目的,我用“人工智能”来谈论包括政治、劳动、文化和资本在内的大规模工业构成。当我提到“机器学习”时,我说的是一系列的技术方法(事实上,这些方法也属于社会和基础设施,尽管很少被这样谈论)。
 
但是,该领域之所以如此专注于技术——算法的突破、产品的改进和更大的便利性,有其重要的原因。这种狭隘、抽象的分析对技术、资本和治理的交叉权力结构大有裨益。为了理解人工智能如何从根本上具有政治性,我们需要超越神经网络和统计模式,转而探讨什么正在被优化,为谁优化,以及谁来决定,然后才能追踪这些选择的影响。
 
像看地图一样看人工智能

 

地图集如何帮助我们认识人工智能的产生?地图集是一种不寻常的书。它是由不同部分组成的集合,其中,地图分辨率各不相同(从地球的卫星图到一个群岛的放大细节)。当你打开地图集时,你可能在寻找关于某个地方的具体信息,或者你在徘徊,跟随你的好奇心,找到意想不到的路径和新的视角。
 
科学史学家洛林·达斯顿(Lorraine Daston)认为,所有科学地图集都是对眼睛的训练,将观察者的注意力集中在特定的细节和重要特征上。地图集向你展示了一种特定的世界观,它带有科学的印记——尺度和比例、纬度和经度,以及一种形式感和一致性。
 
然而,地图集在很大程度上是一种创造性(creativity)的行为,是一种主观的、政治的和审美的干预,仿佛它是一种科学文献。法国哲学家乔治·迪迪-于贝尔曼(Georges Didi-Huberman)认为,地图集是“栖息”在视觉的审美范式和知识的认识范式中的东西。地图集为我们提供了重新阅读世界的可能性,将不同片段以不同方式联系起来,重新编辑和拼凑,而不至于总结它、穷尽它。
 
也许我最喜欢的是物理学家、技术评论家乌尔舒拉·富兰克林(Ursula Franklin)对制图方法的作用描述:“地图代表着有目的的探索,它们是为了‘有用’,帮助旅行者在已知和未知之间架起桥梁,是集体知识和见解的见证。”
 
地图为我们提供了一个开放的路径(共享的认识方式)的汇编,可以混合和组合以形成新的相互联系。不过,也有那些沿着权力的断层线刻画领土的民族国家地图——从在有争议的空间划定边界的直接干预,到昭示帝国的殖民路线。通过引用地图集,我们需要新的方式来理解人工智能的帝国。我们需要一种人工智能的理论,来阐释推动和支配人工智能的国家和公司、在地球上留下印记行业、对数据的大规模采集,以及维持人工智能的极度不平等和日益剥削的劳动实践。
 
这些都是人工智能中不断变化的权力结构。地形的方法提供了不同的视角和尺度,超越了人工智能或最新机器学习模型的抽象承诺,其目的是在更广阔的背景下理解人工智能,连接起不同的计算“景观”。
 
人工智能领域正明确地试图以一种可计算的形式捕捉地球。这不是一个比喻,而是该行业的直接野心。人工智能行业正在制作和规范自己的专有地图(作为人类运动、通信和劳动的中心化的上帝视角)。一些人工智能科学家表示,他们希望捕捉世界并取代其他形式的认知。
 
人工智能教授李飞飞将她的ImageNet项目描述为“绘制出整个世界的东西”。在斯图尔特·罗素和彼得·诺维格的教科书中,人工智能是“一切与智能任务相关的普遍领域”。人工智能的创始人之一、面部识别的早期实验者伍迪·布莱索(Woody Bledsoe)说得最直白:“这不是要创造一本世界地图集,而是要成为地图集。”这种殖民化的冲动将权力集中在人工智能领域,它决定了世界如何被测量和定义,同时又否认这是一种固有的政治活动。
 
本书并不具有普遍性,而是一项局部的研究。通过带读者一起进入研究,我希望向你们展示我的观点如何形成。我们将遇到广为人知或鲜为人知的计算景观——矿坑、耗费能源的数据中心、头骨档案、图像数据库、交货仓库等等。这些地点被包括在内,不仅仅是为了说明人工智能的物质结构和它的逻辑,而且也是为了——正如媒介学者香农·马特恩(Shannon Mattern)所写:“照亮绘图中不可避免的主观和政治层面,并为霸权的、权威的(通常也是自然化的、物化的)方法提供替代方案。”
 
长期以来,理解和保持系统可靠性的模型都建立在透明度的理想基础之上。正如我与媒介学者迈克·安妮(Mike Ananny)合著的文章所说,能够看清一个系统,就意味着能够知道它如何运作,以及如何管理它。但这有严重的局限性。在人工智能的例子中,没有任何单一的黑匣子,也没有秘密需要揭露,只有众多交错的权力系统。因此,完全透明是一个不可能实现的目标。相反,我们通过人工智能的物质结构、环境环境和无处不在的政治,追踪这些交错权力系统之间的联系,以便更好地理解了人工智能在世界上的角色。
 
作为过去十年在美国生活和工作的人,我的重点偏向于西方权力中心的人工智能产业。但我的目的不是要创建一本完整的全球地图集——这个想法本身就会让人联想到占领和殖民控制。相反,任何作者的观点都只是局部,只是基于当地的观察和阐释,也就是环境地理学家萨曼莎·萨维尔(Samantha Saville)所说的“谦卑的地理学”。我们需要承认自己的特定观点,而不是声称这种观点的客观性。
 
就像地图集的绘制有很多方法一样,人工智能在世界上的应用也有很多可能的未来。人工智能系统的扩展似乎是不可避免的事,但争议必不可少。人工智能领域的基本愿景并不是自主产生的,而是从一套特定的信仰和观点中构建出来的。当代人工智能地图集的主要设计者是一小撮同质化的人,位于少数几个城市,在一个目前世界上最富有的行业工作。就像中世纪的欧洲地图(mappae mundi)一样,这些地图既说明了宗教和古典概念,也描绘了国家——因此,人工智能行业制作的地图是政治上的干预,而不是对世界的中立反映。本书针对殖民主义的地图逻辑和精神,它包含了不同的故事、地点和知识基础,以更好地理解人工智能在世界中的作用。

海因里希·邦廷(Heinrich Bünting,1545-1606)绘制的世界地图(1581年),也被称为“邦廷三叶草地图”,象征着基督教的“三位一体”,世界的中心是耶路撒冷城(来源:Itinerarium Sacrae Scripturae )。

 
计算的地形图
 
在21世纪的此时此刻,人工智能是如何被概念化和构建的?转向人工智能的关键是什么?这些系统绘制、阐释世界的方式中包含着怎么样的政治?将人工智能和相关算法系统纳入社会制度的决策系统(如教育和医疗保健、金融、政府运作、工作场所的互动和招聘、通信系统和司法系统),将会产生哪些后果?这本书不是关于代码和算法的故事,也不是计算机视觉或自然语言处理或强化学习的前沿思想。
 
相反,这本书把人工智能视为一种“采掘工业”(extractive industry)。当代人工智能系统的创造取决于对地球能源和矿产资源、廉价劳动力和数据的大规模开采。为了观察这一点,我们将进行一系列的旅行,去揭示人工智能的构成。
 
在第一章中,我们从内华达州的锂矿开始,这是为当代计算提供动力所需的众多矿物开采地点之一。采矿业是我们最直接见证人工智能政治的地方。科技行业对稀土矿、石油和煤炭的需求十分巨大,但这种开采的真正成本从未由行业本身承担过。
 
在软件方面,自然语言处理和为计算机视觉建立模型都是非常耗费能源的事,而生产更快、更有效的模型的竞争推动了贪婪的计算方法。从马来西亚最后一棵为生产第一条跨大西洋海底电缆的乳胶而被采伐的树木,到内蒙古巨大的有毒残留物人工湖,我们追溯了地球计算网络的环境和人类诞生地,看到它们如何继续对地球进行改造。
 
第二章展示了人工智能如何由人类劳动构成。我们的旅程将带我们进入亚马逊的仓库,那里的员工必须与庞大的物流帝国的算法节奏保持一致。我们将访问芝加哥肉类工人的装卸线,我们将听到工人们因为人工智能系统增加了老板的监视和控制而表示抗议。
 
劳动也是一个关于时间的故事。协调人类的行动与机器人和生产线的重复性动作,这一直涉及空间和时间的身体控制。人工智能技术既需要更加细化和精确的时间管理机制,也为这种机制的革新创造了条件。协调时间需要越来越详细的信息——了解人们在做什么,以及他们如何和何时做。
 
第三章集中讨论了数据的作用。所有可公开获取的数字资料(包括个人数据和可能造成损害的数据)都可以被用于制作人工智能模型的训练数据集。巨大的数据集都是为了改进算法,以实现面部识别、语言预测和目标检测等功能。当这些数据集不再被视为人们的个人资料,而仅仅是基础设施时,图像或视频的具体含义或背景就会被视为不相干的东西。除了严重的特权和持续的监视资本主义问题外,目前在人工智能中使用数据的做法还引发了深刻的伦理学、方法论和认识论问题。
 
那么这些数据是如何被使用的呢?在第四章中,我们研究了人工智能系统中的分类法,也就是社会学家卡林·塞蒂娜(Karin Knorr Cetina)所说的“知识机器”(epistemic machinery,或译作“认识论机器”)。我们看到,系统使用标签来预测人类身份(通常使用二元性别和本质化的种族范畴),以及对性格和信用价值问题进行评估。通过观察分类如何产生,我们看到技术模式如何执行等级制度并放大不公正。机器学习为我们提供一种规范性推理的制度,当它不断发展时,就会形成一种强大的管理理性。
 
随后,我们前往巴布亚新几内亚的山城,探索情感识别(affect recognition)的历史——面部表情是揭示一个人内心情感状态的关键。在第五章,我们思考心理学家保罗·艾克曼(Paul Ekman)的主张,认为有一小部分统一的情绪状态可以直接从面部读取。科技公司现在正将这一想法部署在情感识别系统中,这是一个超过170亿美元的行业。但是,围绕情感检测存在着相当大的科学争议,要么不完整,最糟糕的就是误导。尽管留有不稳定的前提,但这些工具正在被迅速应用于招聘、教育和治安系统。
 
在第六章中,我们研究人工智能系统被用作国家权力工具的方式。无论过去还是现在,人工智能在军事上塑造了我们今天看到的监视、数据采掘和风险评估。科技部门和军方之间的深刻联系正在收紧,以适应强大的民族主义议程。一般来说,情报界使用的“法外工具”已经无处不在了——从军事世界进入商业技术部门,用于教室、警察局、工作场所和失业办公室。塑造人工智能系统的军事逻辑现在成为市政府工作的一部分,它们正在进一步歪曲国家和主体之间的关系。
 
最后一章将基础设施、资本和劳动力结合起来,评估了人工智能如何作为一种权力结构发挥作用。从被催单的Uber司机到被跟踪的非法移民,再到在家中与面部识别系统抗争的公租房住户,人工智能系统以资本、治安和军事化的逻辑构建起来。这种组合进一步扩大了现有的权力不对称性。这些看待问题的方式取决于抽象化和外在化的双重举措——在从那些最没有能力抵抗的人身上采掘更多信息和资源的同时,也抽象化了制造它们的物质条件。
 
采掘、权力和政治
 
因此,人工智能是一种理念、一种基础设施、一个行业、一种行使权力的形式和一种观看方式。它也是一种高度组织化的资本表现,离不开采掘和物流系统,供应链环绕整个地球。所有这些都是人工智能的一部分。这个简单的短语反映出一系列复杂的期望、意识形态、欲望和恐惧。
 
人工智能似乎是一种幽灵般的力量(一种无实体的计算),但这些系统并不抽象。它们是重塑地球的物理基础设施,同时也改变了人们对世界的看法和理解。
 
对我们来说,重要的是要应对人工智能的以下方面——它的可塑性、杂乱性以及空间和时间范围。人工智能这个具有杂乱性,它具有被重构的开放性,也意味着它可以以一系列的方式被使用——它可以指一切,从像亚马逊Echo这样的消费设备到无名的后端处理系统,从技术论文到世界上最大的产业公司。
 
“人工智能”这一术语的广度让我们有机会思考所有这些因素,以及它们如何深深地交织在一起——从情报的政治到数据的大规模采集,从技术部门的产业集中到地缘政治的军事力量,从被破坏的环境到持续的歧视形式。
 
我们的任务是对“地形”保持敏感,观察“人工智能”一词的变化和可塑性含义。它就像一个容器,各种东西都被放进去,然后被移走。
 
简单地说,人工智能如今扮演着塑造知识、传播和权力的角色。这些重构发生在认识论、正义原则、社会组织、政治表达、文化、对人类身体的理解、主体性和身份的层面——我们是什么?我们能成为什么?但我们可以走得更远。人工智能在重构和干预世界的过程中,人工智能的大企业是这些不太被承认的政治的推动力量。

我们正处于一个关键的时刻,这要求我们对人工智能的产生和采用方式提出艰难的问题。我们需要问:什么是人工智能?它传播了什么形式的政治?它为谁的利益服务,谁又承担着最大的伤害风险?人工智能的使用应该在哪里受到限制?这些问题都不会有简单的答案。但这也不是一个无法解决的问题或一条不归路。正如乌尔舒拉·富兰克林所写:“就像民主一样,技术的可行性最终取决于正义的实践和对权力限制。

【延伸阅读】

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存