1. 超级智能
1.1. 如果人工智能超越人类智能,可能会成为人类存在的一个重大威胁
- 1.1.1. 对超级人工智能潜在危险最为担忧的群体中,恰恰包括那些否认大语言模型具备真正智能的人
1.2. 计算机科学已经成为所有科学领域中不可或缺的重要组成部
1.3. GPT具备编写计算机程序的能力,这意味着它在未来可能开发出用于自我增强的程序
2. 机器与大脑的学习机制
2.1. ImageNet是一个庞大的数据库,涵盖了20000个不同类别的1400万张带标签的图片
2.2. 项目名为“神经计算与适应性感知”,由杰弗里·辛顿在2004年发起
- 2.2.1. 当神经网络研究被普遍视为无望而遭人遗弃时,这群研究者却坚守了几十年
2.3. Llama 2推出的同时将开源
- 2.3.1. 目前,已有大约八家小型人工智能企业公开了它们自主研发的小语言模型
3. 超级智能出现的可能性
3.1. 在缺乏数据的情况下进行推测的问题在于,判断往往只是基于个人的先入之见
3.2. 人们的关注点往往聚焦于超级智能被用于不正当目的的风险
3.3. 在最佳情况下,超级智能不仅能促进我们的健康和财富,还能帮助我们预防由人类活动引发的灾难
3.4. 我们应该谨慎而行,而不是陷入恐慌,因为这是一个不可避免的挑战
3.5. 只有在技术成功之后,人们才开始认真讨论它可能带来的后果和影响
- 3.5.1. 这种现象在原子弹的研制过程中得到了充分体现
3.6. 当初,人们没有预见到互联网会让信息传播变得如此广泛,互联网架构师认为这是一种更纯粹的民主形式,但他们没有预料到假新闻和信息茧房的扩散
3.7. 人工智能在模拟空战中已经超越了顶尖的人类飞行员
- 3.7.1. 未来的全球性冲突中,战斗机飞行员将拥有“忠诚的”僚机—这些自主无人机将围绕他们飞行,执行侦察任务,标记目标,干扰敌方信号,并通过大语言模型与飞行员保持通信,同时协同执行空袭任务
3.8. 防止核武器扩散需要国际合作与协议
3.9. 在20世纪,物理学家们揭开了宇宙的神秘面纱,相对论和量子力学如同两颗璀璨的星辰,照亮了现代物理世界的每一个角落
- 3.9.1. 物理学的双刃剑—它既赋予了人类普罗米修斯般的力量,也带来了毁灭性的原子弹
- 3.9.2. 要为那些不可预知的后果做好充分的准备
4. 监管
4.1. 新技术如同双刃剑,既能为人类带来福祉,也可能被用于不正当的目的
- 4.1.1. 在现实生活中,确实有不法分子企图滥用人工智能
4.2. 在大语言模型刚刚起步的时候,学者们还能自己搭建一些小型的语言模型
- 4.2.1. 现在,这些模型变得非常庞大,只有少数几个科技巨头才有能力训练它们,因为需要巨大的计算资源、海量的数据和巨额的资金
4.3. 当ChatGPT向大众开放时,OpenAI已经从非营利性组织转变为一个内部包含营利部门的公司,并且不再公开自己的技术细节,实际上变成一家封闭的人工智能公司
4.4. Meta公司自己也开发了大语言模型Llama,只让少数几个学术实验室先试用
- 4.4.1. Llama的模型和代码被人泄露了,传得到处都是,这让全世界很多团队都能对这个模型进行微调,还能用这些代码来创造新的东西
4.5. 那篇在2017年发表、开创了Transformer架构的论文的八位作者,都已经离开了谷歌,自己创业,并成功筹集了数十亿美元资金
4.6. 如果人工智能行业不能自我监管,政府将不得不介入
- 4.6.1. 参与法律制定过程变得尤为关键
- 4.6.2. 风险在于,过于严格的法规可能会抑制创新,即使是出于好意的法规,也可能带来意料之外的后果
4.7. 主要影响
- 4.7.1. 隐私法:鉴于大语言模型依赖于海量数据进行训练,这可能触发与个人数据隐私和保护相关的问题
- 4.7.2. 版权法:大语言模型创作的内容(如文章、音乐或艺术作品)引发了版权归属的疑问
- 4.7.3. 责任法:如果大语言模型给出的建议导致损害,谁应该承担责任?
- 4.7.3.1. 是使用者、开发者,还是拥有该模型的组织?
- 4.7.3.2. 现行法律可能还无法处理此类情况
- 4.7.4. 劳动法:随着大语言模型等人工智能技术逐渐替代人类在某些领域的工作,我们可能会面临深刻的社会结构转变
- 4.7.4.1. 为应对这一变化,有必要对现有的劳动和就业法律进行相应的更新和完善
- 4.7.5. 反歧视法:大语言模型可能会在无意中延续或放大训练数据中存在的偏见,进而导致歧视性后果,因此需要根据现行反歧视法规进行审查
- 4.7.6. 人工智能监管:随着大语言模型逐渐融入社会,亟须制定专门法规来规范其使用,类似于对其他技术的现有监管
- 4.7.6.1. 这些法规应涵盖透明度、问责制和伦理使用等标准
- 4.7.7. 大语言模型引发的法律问题既复杂又充满未知
4.8. 为了妥善应对这些挑战,需要技术专家、法律专家、政策制定者,以及社会各界进行深入的对话和广泛的合作
5. 自我监管
5.1. 度学习人工智能系统存在一些广为人知的缺陷,例如隐私侵犯、偏见,以及种族歧视等问题,这些问题已经引起了业界的广泛关注,并正在积极寻求解决方案
5.2. 新技术的发展往往伴随着一个长期的迭代和优化过程,目的是确保技术在社会中的合理应用,防止其被滥用
5.3. 在20世纪70年代,生物学家们发明了重组基因技术,目的是操控和分离感兴趣的DNA片段,将不同物种的DNA结合起来,并创造新的功能
- 5.3.1. 不仅能够编辑DNA,还有可能创造出全新的生命形态
- 5.3.2. 拥有巨大的潜力,可以改良作物和治疗疾病,但同时也伴随着风险,比如可能引发超级病毒和致癌病毒的释放
5.4. 分子生物学家们没有被动等待监管机构介入,而是主动发起并组织了一次关于重组DNA分子的国际会议
- 5.4.1. 这次会议于1975年2月在加利福尼亚州太平洋丛林镇的阿西洛马会议中心召开
5.5. 在重组DNA的研究中,若其应用不会显著提升致病风险或对生态系统造成负面影响,则适用较为宽松的防控措施
5.6. 对于那些可能引发严重后果,并对实验室工作人员或公众健康构成重大生物安全威胁的转基因生物,必须实施严格的防控策略
- 5.6.1. 旨在确保研究能够在遵循严格指导原则的前提下继续进行
- 5.6.2. 确保了科学家们能够在保障安全的前提下进行实验,并推动科学的进步
5.7. 自律监管看似人工智能领域发展的明智之选,但鉴于业界观点分歧巨大且企业界存在强烈的利益诉求,其实施起来困难重重
- 5.7.1. 当前正是科学家和工程师们深入掌握人工智能技术,与政策制定者携手,共同构建灵活而有效的监管框架的绝佳时刻
6. 政府监管
6.1. 人工智能技术的迅猛发展使得这些法规在制定时就已经显得落后
6.2. 已经部署的工具所带来的益处远超过其潜在风险,但确保它们的安全性对我们而言至关重要
6.3. 严格的监管政策可能更有利于资金雄厚的大型科技公司
- 6.3.1. 只有这些公司才有能力承担高昂的测试费用,类似于制药企业必须投入巨额资金进行临床试验一样
6.4. 一方主张谨慎推进技术发展,而另一方则力主加速创新步伐
7. 版权
7.1. 大语言模型汇集了人类思想的精华与糟粕
7.2. 模型在训练时,未经原作者许可便使用了无数作家、诗人和小说家的作品
7.3. 创作者的思维无疑受到了他们所阅读书籍的影响,与大语言模型的创建过程颇为相似,只是规模较小
7.4. 根据现行法律,除非他们抄袭了大段未注明出处的文本,否则不受版权法的限制
7.5. DALL-E 2、Midjourney、Stable Diffusion和Adobe Firefly等程序能够根据简单的文字提示迅速生成图像,并能够以任何指定的风格呈现成品
- 7.5.1. 这些AI应用的训练数据来源于互联网,无版权保证
7.6. 艺术家的想法是:无论是作品被直接使用,还是风格被模仿,都应获得相应的补偿
- 7.6.1. 历史上,一直有造假者能够制作出大师作品,且能达到以假乱真的程度
- 7.6.2. 那些寻求补偿的艺术家在创作新作品时,也深受他们所有所见画作的影响,这与人工智能生成技术并无本质区别
- 7.6.3. “抄袭法”针对的对象是明确的复制行为,而非风格的相似性
7.7. 艺术家们害怕人工智能抢了他们的“饭碗”
- 7.7.1. 这种担忧并非没有道理,但历史提供了一个有力的对比:摄影技术的诞生并没有取代绘画艺术,而是催生了一种全新的艺术形式,与绘画和油画等传统艺术形式和谐共存
7.8. 如果摄影在成熟之前就被禁止,艺术文化就会因为失去了创造性地利用这项技术的机会而变得贫乏
- 7.8.1. 禁止摄影将带来一系列不可预见的负面后果:人们将无法拍摄亲人的照片,因为只有富人才能负担得起请画家绘制肖像;人们无法通过电影来记录历史和娱乐大众;智能手机也不会有相机功能
7.9. 技术实际上拓展了人类的表现力,丰富了人类的体验
- 7.9.1. 对于人工智能技术,我们也应该持开放态度,探索其在艺术领域的潜力,而不是急于禁止
7.10. 相比冗长的法律诉讼过程,人工智能技术发展迅猛
- 7.10.1. 训练大语言模型所使用的数据质量对其最终表现有着决定性影响
- 7.10.2. 各大人工智能公司已纷纷开始争取优质大型数据库的使用授权
- 7.10.3. 如果高质量数据能使训练时长和模型规模降至之前的十分之一乃至百分之一,那么精选数据库的授权与交易市场必将应运而生
8. 信任
8.1. ChatGPT在科研论文写作领域已经获得了广泛应用
8.2. 对非英语母语的研究人员来说,它是编辑英文论文手稿的得力助手
8.3. 有些作者甚至认为应该将ChatGPT列为论文的共同作者,事实上在《自然》杂志发表的文章中,确实出现过将ChatGPT列为共同作者的案例
8.4. 人工智能的发展正在挑战我们许多既有的伦理观念
9. 人工智能监管方式
9.1. 行业自律监管:该方案借鉴了20世纪70年代分子生物学界的自我约束模式
9.2. 国际协同监管:本章将人工智能可能带来的生存风险与核武器威胁相类比,提出应借鉴核裁军条约的经验,建立国际监管框架
9.3. 政府主导监管:政府干预监管人工智能的可行性
9.4. 鉴于人工智能技术的快速发展及其潜在风险,加强监管已刻不容缓
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |