1. 权力
1.1. AlphaGo Zero
- 1.1.1. 在没有使用人工数据或进行游戏规则之外训练的情况下,该算法仅在36小时内就学会了围棋,成为世界上最顶尖的围棋系统
- 1.1.2. AlphaGo Zero发现了需要人类多年练习的顺序与策略类型
- 1.1.3. 从表面上看是一套人类的游戏,但被系统化后,看起来几乎像一块电路板
- 1.1.4. 将这一技术推广到围棋、象棋和日本将棋游戏中
- 1.1.5. 会产生在人类游戏中不常见的令人惊讶的走法,仅仅因为人类不会下那么多局围棋
- 1.1.6. 并不是魔法,而仅是大规模的统计分析
- 1.1.7. 对于人工智能的投资者和传播者来说,这一事实并不能证明其巨大成本的合理性
1.2. 这是人工智能更深层次的笛卡尔意识形态的一部分,在这种意识形态中,程序被想象成一种与身体、基础设施和整个世界分离的思维
2. 没有边界的竞赛
2.1. 自20世纪50年代以来,游戏一直是AI程序的首选测试场所,因为它们呈现出一个具有定义参数的封闭世界,而且获胜条件很明确
2.2. 准确的预测在根本上是关于减少社会世界的复杂性,即在噪声中找到信号,从混乱中建立秩序
2.3. 这种在认识论的层面上,将复杂的社会场景“扁平化”成清晰的“信号”,用于进行预测的方法,成为当代机器学习的核心逻辑
- 2.3.1. AI系统被描述为超自然的,超越了已知的世界,但仍然是确定的,因为它们可以发现能用于日常生活的预测确定性的模式
- 2.3.2. 这本质上是一种神学观点,认为人工智能是抽象的、可预测的、超人的东西
- 2.3.2.1. 它们是技术精湛的结果,脱离了任何社会、政治和环境背景
- 2.3.3. 此类系统过于复杂,难以监管
2.4. 深度学习系统中尤为常见的是,通过将更抽象的数据表征层叠在一起,拓展机器学习技术
- 2.4.1. 意味着深度学习系统通常是无法解释的,即使对创建它们的工程师来说也是如此
- 2.4.2. 当一个庞大而昂贵的可进行模式识别计算的基础设施被赋魅时,便可以结束任何的怀疑调查
2.5. 两派主要的赋魅决定论观点
- 2.5.1. 一派持科技乌托邦主义
- 2.5.1.1. 视人工智能为解决从气候变化到刑事司法等所有问题的解决方案
- 2.5.1.2. 把所有的信仰都放在人工智能上,把它作为解决所有问题的方法
- 2.5.2. 一派是科技反乌托邦主义
- 2.5.2.1. 它害怕出现技术奇点,或者说“超级智能”,或者是超越人类并最终主宰人类的机器智能
- 2.5.2.2. 把所有的恐惧都放在人工智能上,视其为最大的危险来源
- 2.5.3. 每一派都是另一派的镜子
2.6. 无论人工智能被抽象为一个万能工具,还是一个全能的霸主,结果都指向同样的科技至上主义
- 2.6.1. 人工智能在社会的拯救或毁灭中被赋予中心地位,而现代人工智能的日常现实、失败和危害却被忽视
- 2.6.2. 两种思路虽然看似相反,但都没有解决有色人种社区、穷人群体以及南半球地区已经被行星计算系统所主导的问题
3. 人工智能的管道
3.1. 人工智能的内部游戏
- 3.1.1. 在人工智能产业的扩张过程中,从国防资金和联邦研究机构,到公共事业和税收减免,再到从所有使用搜索引擎或在网上发布图片的人身上获取的数据和无偿劳动,有多少是得到政府补贴的
- 3.1.2. 人工智能是一个巨大的公共项目,它从如此多的公共资源中汲取了养分,却被无情地私有化了
- 3.1.3. 受到相同权力结构的支持与推动,而这些权力结构是从地球、劳动和公众中提取的价值的最大获益者
- 3.1.4. 仅向我们展示了基础设施,但并没有揭示任何历史、政治或社会影响
3.2. AlphaGo讲述了抽象云计算的行业故事,却闭口不谈生产它所需的地球资源,这种叙事推动了一种范式,它崇拜技术创新,拒绝监管,永不披露真正的成本
4. 真实存在的AI
4.1. 需要在更广泛的物质、社会、政治背景下,绘制人工智能地图
4.2. 需要走出那些给出人工智能最受欢迎的、学术性阐释的地方,即硅谷的大学实验室和开放式办公室,去看看其在全球的提取脉络
4.3. 稀土矿物、水、煤炭和石油:科技部门正在开发地球,为行星计算的高能耗基础设施提供燃料
- 4.3.1. 数据中心和消费者所用的智能设备,都高度依赖日趋耗竭的资源与来自冲突矿区的原材料
- 4.3.2. 在软件方面,自然语言处理和计算机视觉模型的构建,需要巨大的能源消耗,而且更快、更高效的模型,助长了扩大人工智能碳足迹的“贪婪计算”方法的盛行
4.4. 对于这种环境损耗,科技行业从未完全承认或给予任何考虑,因为科技行业在扩大数据中心网络的同时,也在帮助石油和天然气行业剥离地球上剩余的化石燃料储备
- 4.4.1. 以人工智能计算为代表,计算的真实成本并不透明,这反映了一种长期的商业模式的一部分,即从公共资源中提取价值,却不为产出的真实成本买单
4.5. 劳动力代表了另一种形式的提取
- 4.5.1. 像谷歌这种高估值的公司,以更低的成本、更少的福利和没有带薪假期,建立了一个合同工队伍,其数量远远超过了全职员工
4.6. 在科技行业的物流节点,我们发现人类完成了机器无法完成的任务
- 4.6.1. 现在,成千上万的人从事着标记、纠正、评估或编辑人工智能系统的工作,而他们都在假装自己是人工智能,以维持智能的假象
- 4.6.2. 人的手指、眼睛和膝盖关节的复杂连接,比机器人更便宜、更容易获得
- 4.6.3. 未来的工作看起来更像过去的泰勒式工厂,而其中的区别仅在于,工人犯错时手环会振动,上厕所次数太多会受到惩罚
4.7. 在工作场所使用人工智能,尤其是情绪检测的工具,使企业掌握了更多的控制权,从而进一步加剧了权力的不对称
- 4.7.1. 工作场所使用人工智能,尤其是用来检测和评估的工具,将更多的控制权交给了企业,同时掩盖了它们使用的系统背后奇怪且往往是错误的假设,从而进一步扭曲了劳动力的权力关系
4.8. 人工智能系统利用不同市场之间的时间和工资差异,加速资本循环
- 4.8.1. 真正的成本隐藏在无尽的纸板箱、送货卡车和“现在购买”按钮之后
4.9. 在数据层,我们可以看到一种完全不同的提取哲学
- 4.9.1. 曾经仅是情报机构的职权范围,而现在却不仅常态化,而且道德化了,即不尽可能多地收集数据被认为是一种浪费
- 4.9.2. 一旦数据被提取并编入训练集,我们就可以看到人工智能系统对世界进行分类的认知基础
4.10. 人工智能中的数据集从来不只是为算法提供的原材料:它们本质上是政治干预
- 4.10.1. 收集数据、分类和标记,然后用它来训练系统,这种做法本身就是一种形式的政治
- 4.10.2. 这带来了一种被称为“操作型图像”(operational images)的转变,即完全为机器创造的世界的表象
4.11. 人工智能开始尝试将非系统化的东西系统化,将社会形式化,并将无限复杂和不断变化的宇宙,转换为机器可读的、林奈氏分类系统那样整齐的表格
- 4.11.1. 人工智能的许多成就,都依赖于将事物归结为一组简洁的标签和形式,而这些标签和形式依赖于创建代理的方式,即识别和命名一些特征,忽略或模糊无数其他特征
- 4.11.2. 数据集也是他们声称要测量的东西的代理
4.12. 由深刻的关系、背景和社会决定的身份,它们并非一成不变,而是会随着时间和背景而发生变化
4.13. 人工智能系统由股东价值主导的公司开发与销售,它们通过将这些系统卖给包括军队、执法部门、雇主、土地所有者等已然很强大的群体来获利
- 4.13.1. 通过这种方式,人工智能系统正在加剧权力的不对称。从被推荐的优步司机,到被追踪的非法移民,再到被迫在家中安装面部识别系统的公共住房租户,这些以资本、治安和军事化为逻辑的工具,强化了权力的中心
5. 为什么是人工智能?
5.1. 导航图可以引发规模上的转变:从我们眼前所见,到不同的观点,一个连接不同空间的图表
5.2. 服务于资本、军队和警察的工具,同样也可被用来改变学校、医院、城市与生态,假如它们真的是无须成本的中立计算器,那便应当被应用于任何地方
5.3. 需要从最大的意义上,展示人工智能是什么,并认清它所服务的权力结构
5.4. 由人工智能所激活的结构,强烈倾向于集中权力与信息,放大压迫性的国家功能以及歧视性的设计
5.5. 科技行业应该进行反思
- 5.5.1. 迄今为止,业界的回应之一是签署人工智能伦理声明
- 5.5.1.1. 都不足以解决当前这种规模的问题
- 5.5.1.2. 往往缺失那些受到人工智能系统最大伤害的人的声音
- 5.5.2. 伦理原则和声明很少关注人工智能伦理如何实施,以及它们是否能有效地产生任何变化
- 5.5.3. 此类人工智能道德声明,在很大程度上忽略了这些准则是如何编写、在哪里编写,以及由谁编写的问题
- 5.5.3.1. 实际上,这些准则很少具有可执行性,也很少对更广泛的公众负责
5.6. 与医学不同,人工智能没有正式的专业治理结构或规范,该领域也没有商定的定义和目标
- 5.6.1. 最重要的是,与医学伦理不同,人工智能伦理没有外部监督,或实施道德护栏的标准规程
5.7. 通过承诺遵守伦理,企业含蓄地宣称,自己有权决定“负责任地”部署这些技术意味着什么,从而有权决定,合乎伦理的人工智能对世界其他地区意味着什么
- 5.7.1. 科技公司很少因他们的人工智能系统违反法律而受到经济处罚,而当它们违反道德原则时,则不会面临任何有实质意义的后果
- 5.7.2. 伦理学不是解决本书中提出的基本问题的正确框架
5.8. 人工智能本身是一个提取产业,那些在原则上将股东价值最大化作为首要指令的公司,宣称可以让人工智能变得更加“道德”,其本身就存在着内在的矛盾
- 5.8.1. 虽然减少危害非常重要,但我们需要把目标定得更高
5.9. 现在应该关注的是权力,而不是伦理
- 5.9.1. 先从那些经受技术负面影响的人的声音开始,代替往常对公司创始人、风险投资家和“技术远见者”赞美的声音
- 5.9.2. 通过关注工人、租户、失业者,以及所有被人工智能系统剥夺权力以及受到伤害的人的生活经历,我们可以看到权力的普遍运行
- 5.9.3. 当我们听到“优化”时,我们应该想到这是否被用来进行移民驱逐
- 5.9.4. 当人们赞颂大规模“自动化”时,我们应该记住大气中二氧化碳含量的上升,以及日益增长的对仅存公有物的圈占
5.10. 我们共同世界的结构发生了巨大变化,但很少有人注意到这些变化意味着什么
- 5.10.1. 对技术的判断一直是基于狭隘的理由,关注的是新设备是否满足特定需求,是否比之前的设备更高效,是否盈利,以及是否提供便利的服务
- 5.10.2. 选择的广泛意义才变得清晰,而这通常是一系列令人惊讶的“副作用”或“次级后果”
- 5.10.3. 在技术领域,我们不断签订一系列社会契约,但这些契约的条款只有在签订后才会披露
5.11. 在强化隐私法,提供机器学习系统的公平性,或者其他提供次要保护的尝试之外,还需要从根本上对人工智能的必然性提出挑战
5.12. 不要仅因为人工智能可以使用,就去问它可以应用在哪里,重点应该是,为什么应该使用它
- 5.12.1. 首先要理解这些选择的真正代价
- 5.12.2. 需要摆脱对技术主义解决方案的赋魅,拥抱休戚相关的多样性与其创造世界的方式
- 5.12.3. 世上存在着超越价值提取的可持续的集体政治,存在着值得保留的公有物,存在着超越市场的世界,存在着超越量化的生命形式
- 5.12.4. 目标是,在我们所拥有的这个星球上,制定一条新的路线,远离无休止的提取和残酷的优化的逻辑
6. 太空
6.1. 随着我们的进步,我们将不得不决定,我们是否想要一个停滞的文明,那么我们将不得不限制人口,不得不限制人均能源使用
- 6.1.1. 或者我们可以通过向太空迁移,解决这个问题
6.2. 最大的担忧“并不是灭绝”,而是停滞:“我们将不得不停止增长,我认为这是一个非常糟糕的未来。”
6.3. 太空奇观的意识形态,与人工智能行业的意识形态,有着深刻的联系
- 6.3.1. 科技公司带来的巨大财富和权力,如今使一小部分人能够追求自己的私人太空竞赛
- 6.3.2. 它们依赖于对20世纪公共空间项目的知识与基础设施的攫取,也依赖于政府资金和税收激励
- 6.3.3. 目标不是限制提取与增长,而是将其扩展到整个太阳系
- 6.3.4. 事实上,这些努力与其说是关于太空移民实际上可能出现的不确定性和不愉快的可能性,不如说是关于想象中的太空、无尽的增长和不朽
6.4. 《增长的极限》表明,走向可持续管理和资源再利用,是全球社会长期稳定的答案,而缩小富国和穷国之间的差距则是生存的关键
6.5. 太空殖民和前沿采矿,已然成为科技亿万富翁们普遍的企业幻想,这凸显了一种从本质上令人不安的与地球的关系
- 6.5.1. 科技精英们的语言与殖民主义如出一辙,他们试图取代地球上的人口,夺取土地进行矿产开采
6.6. 商业宇宙发射竞争力法
- 6.6.1. 首个放弃太空公有的立法,允许公司和个人拥有从小行星开采的任何材料
6.7. 太空已经成为帝国的终极野心,象征着逃离地球、身体和资本的极限
- 6.7.1. 太空殖民与其他的幻想非常契合,比如旨在延年益寿的节食、输入青少年的血、将大脑上传到“云端”,以及为长生不老而服用维生素
- 6.7.2. 蓝色起源的高光广告就是这种黑暗乌托邦主义的一部分
- 6.7.3. 它是一种悄声召唤,召唤我们超越所有生物、社会、伦理和生态的界限,成为超人
- 6.7.4. 深入其中,这些美丽新世界的愿景,似乎主要是由恐惧所驱动,包括对个人和集体死亡的恐惧,以及对时间所剩不多的恐惧
6.8. 冯·布劳恩
- 6.8.1. 第三帝国的首席火箭工程师
- 6.8.2. 他承认使用集中营的奴隶劳工来建造他的V-2火箭
- 6.8.2.1. 在建造火箭的营地中死亡的人,比在战争中被火箭杀死的人还要多
- 6.8.3. 被有些人视为战犯
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
|
|
|
相关推荐
|
|