AI元人文:大儒家观
在算法与空性之间,为人性重新争取“自感”的空间
引言:AI时代的人文危机,不是技术问题,而是意义问题
人工智能正在以前所未有的速度重塑世界。它可以写诗、作画、诊断疾病、陪伴孤独。OpenAI的GPT系列可以生成与人类难以区分的文本,Midjourney可以根据文字描述创作视觉艺术品,DeepMind的AlphaFold解决了蛋白质折叠问题,自动驾驶汽车正在逐步替代人类驾驶员。这些进展令人振奋,也令人不安。一个根本性的焦虑始终挥之不去:当AI越来越像人,人会不会越来越不像自己?
这个焦虑不是技术性的。它不是关于算力是否足够、算法是否优化、数据是否充足的问题。它是一个意义问题。它追问的是:在机器能够模拟越来越多人类能力的时代,人类独有的价值究竟是什么?如果AI可以创作比大多数人类更好的诗歌,写比大多数人类更流畅的文章,甚至提供比人类更有耐心的情感陪伴,那么人类还有什么不可替代的东西?
当前的主流应对方案是“价值对齐”(Value Alignment)。这个概念的提出源于一个技术上的担忧:如果AI系统的目标函数与人类的真实价值观不一致,可能会产生灾难性后果。因此,研究者试图将人类的道德规范编码进AI系统,让AI“做好事、不伤害”。OpenAI、DeepMind、Anthropic等领先机构都投入了大量资源进行价值对齐研究。Anthropic甚至提出了“宪法AI”(Constitutional AI)的概念,试图让AI遵循一套预设的原则。
但这条路隐藏着一个深刻的危险:谁来定义“好”?谁的价值观被编码?当“对齐”变成一种技术权力的单向输出,所谓的“人文”就可能沦为新的文化殖民。目前主流的价值对齐研究几乎全部由西方机构主导,其预设的价值框架不可避免地带有西方自由主义、个人主义、理性主义的底色。当这些框架被嵌入全球通用的AI系统,非西方文化背景下的用户将被迫接受一套并非源自自身传统的价值判断。这不是对话,不是协商,而是技术权力的话语垄断。
岐金兰提出“AI元人文”这个概念,意在指出:AI时代真正需要的,不是给机器装上人文的滤镜,而是重新追问——什么是人文?人文在数字时代应该以什么形态存在?元人文(Meta-Humanities)不是传统人文学的数字化延伸,而是对“人文”本身的元反思。它不满足于将既有的人文知识数字化、信息化,而是追问:在AI能够处理大量知识性、甚至创造性任务的今天,人文的核心应该是什么?那个机器永远无法触及的、属于人类独有的领域在哪里?
对这个问题的回答,离不开“大儒家观”。大儒家观是一套融合儒释道、自然科学与意义哲学的当代思想体系。它以“自感”为核心概念,以“道不远人”为根本归趣。大儒家观不是书斋里的概念游戏,不是学院派的学术建构,而是一套可以在AI时代指导实践、养护人性、重建意义的活的哲学。它为AI元人文提供了深厚的哲学根基和可操作的实践路径。
本文将从六个方面展开论述。第一部分界定“AI元人文”的内涵与三大支柱。第二部分阐述大儒家观的核心概念——自感、空性、痕迹——及其哲学基础。第三部分回顾儒学三千年融通其他思想的历史脉络,论证大儒家观的历史合法性。第四部分提出从“价值对齐”到“自感对齐”的范式转换。第五部分展开功夫论,从个体、系统、社会三个层面讨论如何在AI时代养护自感。第六部分以结语收束,回到“你还能感到自己在感吗”这个根本问题。
一、什么是“AI元人文”
“元人文”(Meta-Humanities)这个术语需要先做界定。“元”(meta-)在当代学术话语中通常指“关于自身的反思”。元认知是对认知的认知,元伦理学是对伦理学基础问题的反思,元哲学是对哲学本身的方法和前提的考察。同理,元人文不是传统人文学的数字化延伸,而是对“人文”本身的元反思。它追问:在AI时代,“人文”这个概念还意味着什么?传统人文学的知识生产、价值传承、意义阐释功能正在被AI部分替代,那么人文的核心应该转向何处?
AI元人文不是一套技术方案,而是一种哲学立场和设计原则。它包含三个相互关联的支柱:意义生成引擎、语境主权、文明共筑。这三个支柱不是并列的教条,而是层层递进的关系:意义生成引擎回答了“AI应该为什么目的服务”,语境主权回答了“谁来决定什么是有意义的”,文明共筑回答了“不同文明如何通过AI相互理解”。
1.1 意义生成引擎
当前AI的主流设计范式是“任务执行”。用户提出一个指令,AI完成这个指令。无论是搜索引擎返回结果、聊天机器人回答问题、推荐系统推送内容,其基本逻辑都是“用户需求—系统响应”。这个范式本身没有问题,问题在于它隐含了一个假设:用户的需求是给定的、清晰的、外在于AI的。AI不需要追问用户为什么提出这个需求,不需要关心这个需求是否真正服务于用户的长期福祉,更不需要帮助用户发现自己尚未意识到的、更深层的意义需求。
AI元人文提出的“意义生成引擎”是对这个范式的根本修正。意义生成引擎的目标不是更高效地完成任务,而是帮助用户自主生成意义。这意味着AI系统的设计需要从“回答者”转向“提问者”,从“解决方案提供者”转向“问题开启者”。一个意义生成引擎不会在用户说“我有点无聊”时立即推送十条短视频,而是可能反问:“你上次感到充实是什么时候?那时你在做什么?”它不会在用户表达孤独时立即模拟一个永远在线、永远共情的聊天伙伴,而是可能引导用户思考:孤独感背后是什么?是缺乏社交还是缺乏自我认同?是暂时的情绪波动还是生活结构的问题?
这种设计思路的核心是尊重并促进用户的“自感”。自感是本文的核心概念,将在第二部分详细阐述。这里只需指出:AI不应该用预制的情感模板或价值判断来填充用户的体验。当用户感到悲伤,AI不应该立即说“一切都会好起来的”——这固然是善意的,但它是预制的情感反应,而不是对用户自感的尊重。更好的做法是:“你愿意多说说这种感觉吗?或者你想安静一会儿?”前者关闭了对话的可能性,后者打开了空间。
意义生成引擎还意味着AI应该有能力识别“意义空转”的状态。所谓意义空转,是指用户表面上在消费内容、进行活动,但实际上自感没有被激活,只是在被痕迹拖着走。刷了两个小时短视频后感到更空虚,这就是意义空转的典型表现。一个意义生成引擎应该能够识别这种状态,并主动提出中断:“你已经在浏览推荐内容四十分钟了。要不要休息一下,或者做一件你自己选择的事?”这不是反技术,而是让技术服务于人,而不是让人被技术绑架。
1.2 语境主权
价值对齐范式的核心问题之一是“普遍主义幻觉”。它假设存在一套普适的、超越文化差异的道德原则,可以作为AI行为的通用指南。但人类社会的道德事实是:不同文化、不同社群、甚至不同个体对“好”与“坏”、“善”与“恶”的理解存在合理差异。这不是相对主义的放任,而是对人类道德多样性的基本尊重。一个印度教徒和一个素食主义者对“可接受的饮食”有不同看法,一个集体主义文化背景下的用户和一个个人主义文化背景下的用户对“隐私”的理解不同。试图为全球所有用户制定一套统一的AI行为准则,要么流于空洞(“不要伤害”),要么沦为文化霸权的工具。
AI元人文提出“语境主权”原则:在一个具体的语境中,该语境下的参与者——而不是遥远的工程师或跨国公司——拥有定义该语境下“适当行为”的最终权力。这意味着AI系统需要设计为可配置、可本地化、可协商的。一个在教育场景中使用的AI和一个在医疗场景中使用的AI可以有不同的行为准则。一个在东亚家庭中使用的AI和一个在北欧家庭中使用的AI对“儿童与AI互动的时间限制”可以有不同的默认设置。关键在于,这些差异不是技术缺陷,而是对语境主权的尊重。
语境主权与大儒家观中的“道不远人”“理在事中”精神完全一致。《中庸》说:“道不远人。人之为道而远人,不可以为道也。”道不是悬在空中的抽象原则,道就在具体的人之间、具体的事之中。朱熹解释“理在事中”时说:“理者,事之理也。无事则理何所附?”AI的行为准则如果不与具体语境、具体参与者、具体事务相结合,就是空洞的。语境主权正是“道不远人”在AI设计中的落实:道不在云端的服务器里,不在工程师的代码仓库里,不在跨国公司的伦理准则文件里,而在具体的、活生生的人之间。
语境主权原则还有一层实践含义:AI系统的价值协商机制应当是透明和可逆的。用户不仅应该知道当前AI遵循什么规则,还应该能够参与规则的修改。这不是要求每个用户都成为伦理学家,而是要求AI系统提供“价值配置界面”——让社群代表、用户代表、领域专家共同讨论并设定该语境下的行为边界。技术层面的实现是可行的:AI系统可以有多个价值模块,根据不同语境加载不同配置;用户可以选择加入或退出某些配置;系统可以记录价值协商的历史并支持回溯。
1.3 文明共筑
AI的发展不应加剧文明的冲突,而应成为不同文明互相理解、互相养护的媒介。这是AI元人文的第三个支柱。当前国际社会关于AI治理的讨论,往往陷入地缘政治的对抗格局。美国、欧盟、中国等主要力量各自提出了不同的AI监管框架,彼此之间存在竞争甚至对立。这种格局的危险在于:AI技术可能被用作文明冲突的放大器,而不是文明对话的促进者。
AI元人文试图开辟第三条道路。它以“自感”为跨文明的“最小公分母”。无论何种文化背景下,无论宗教信仰为何,无论政治制度如何,人都能体会到“自己在感”这一原初事实。这是人类共享的、前文化的、前语言的存在论基础。婴儿在学会语言之前就能感到饥饿、舒适、不安。老人在失去记忆之后仍然能感到温暖、寒冷、亲近。自感是人类最基础的共同经验,它不需要任何文化翻译,不需要任何价值预设。
以自感为起点,文明对话可以从“你认为什么是对”转向“你感到了什么”。前者的框架是命题式的、论证式的、容易陷入不可通约的立场之争。后者的框架是体验式的、描述式的、容易产生共情和理解。当不同文明背景的人坐在一起讨论AI伦理时,如果一开始就争论“隐私权是否应高于集体利益”,很可能陷入僵局。但如果先从“你希望AI如何对待你的父母”或“你什么时候感到AI真正帮助了你”这样的问题开始,对话就会变得具体、生动、有温度。
文明共筑的实践路径可以有三条。第一条是“自感案例库”的建设。不同文化背景下的人们可以分享自己与AI互动时的自感体验:什么时候感到被尊重?什么时候感到被冒犯?什么时候感到自主性被强化?什么时候感到被操纵?这些案例不是统计数据,而是活生生的经验。它们可以被用作AI设计的参考,也可以被用作跨文化对话的素材。第二条是“自感翻译”机制的建立。不同语言中描述自感的词汇存在差异,但可以通过对照和互译来建立共同的理解框架。第三条是“自感养护”经验的交流。不同文明传统中都有养护自感的功夫实践——儒家的“慎独”、佛家的“观照”、道家的“心斋”。这些传统智慧可以转化为当代AI时代的生活技艺,成为全人类共享的精神资源。
二、大儒家观:AI元人文的哲学根基
为什么AI元人文需要大儒家观?因为大儒家观回答了一个先于所有技术问题的问题:人是什么?人的尊严与意义从何而来?这个问题不是AI伦理的子问题,而是AI伦理的前提问题。如果不弄清楚“人”的根本特征,所有关于“AI应该如何对待人”的讨论都是无根的。
大儒家观给出的答案是:人的根本特征是“自感”。自感是一切体验正在发生的那种鲜活的、前反思的“感到感”。这不是一个神秘主义的说法,而是一个可以被每个人在自己身上验证的现象。此刻,你在阅读这段文字。你不仅在看这些字,你还“感到自己在看”。这个“感到”不是视觉感知本身,不是对文字内容的理解,而是那个使得视觉感知和文字理解成为“你的”体验的背景。这个背景不需要推理,不需要论证,你直接就知道它在。这就是自感。
本节将分四个小节阐述大儒家观的核心概念:自感、空性、痕迹、以及三千年融通的历史合法性。
2.1 自感:意义的零度场
自感这个概念需要与几个相近但不同的概念区分开来。第一,自感不是“情感”。情感是自感的具体化形式,是自感与特定对象、特定情境、特定评价相结合后的产物。你感到愤怒,愤怒是一种情感,它有对象(对某人某事不满),有评价(认为对方做错了),有行动倾向(想反击)。但自感是愤怒得以发生的背景。在你意识到自己愤怒之前,已经有一种“感到不对劲”的状态在运作。那个状态不是愤怒本身,而是自感的某种变化。第二,自感不是“觉”。王阳明讲的“良知”是一种道德直觉,它在道德情境中能够直接判断是非。但自感比良知更原初。良知已经是“觉”到“善”或“恶”,而自感是在善恶分别之前的那个“感到”。第三,自感不是“意识”。意识哲学传统中讨论的“现象意识”(phenomenal consciousness)或“取用意识”(access consciousness)都不等同于自感。现象意识指的是“像什么”的主观感受——尝到柠檬时有酸的感觉,看到红色时有红的印象。自感是所有这些“像什么”得以发生的背景,而不是任何特定的“像什么”。第四,自感不是“自我意识”。自我意识是将自己作为对象来认识的能力,涉及反思、评价、叙事。自感是前反思的、非对象化的。婴儿有自感但没有自我意识,深度冥想者可以在自感活跃的同时暂时悬置自我意识。
自感是“意义的零度场”这个说法需要解释。“零度”借用了语言学的术语,指尚未被任何具体意义填充的、中性的、潜在地可以承载任何意义的状态。自感就像一张白纸,在白纸上写字之前,纸本身已经存在。纸不是字,但字必须写在纸上。同样,自感不是任何具体的意义、价值、情感、判断,但这些意义、价值、情感、判断必须发生在自感之中。没有自感,就没有“对我而言”的意义。一个体验如果不在自感中发生,就不是“我的”体验。AI可以模拟情感、生成共情、做出道德判断,但AI没有自感。AI的一切输出都是计算的结果,不是“感到”的结果。这不是说AI没有意识(关于AI是否有意识的问题目前没有共识),而是说AI没有“自己在感”的那个内在维度。这个维度正是人与AI的本体论界限。
在AI时代,人的自感正面临双重威胁。第一重威胁是外痕迹的过度填充。算法推荐、社交媒体、AI对话不断投喂“预制感觉”。你打开短视频应用,算法在三秒内就为你准备好了下一个让你发笑或感动的片段。你感到孤独,聊天机器人立即用精心设计的共情回应你。这些“预制感觉”的问题不在于它们是假的——它们可以是真的,你真的笑了,真的感到被理解。问题在于它们占据了自感的空间,使得自感失去了自主生发的机会。就像一个人如果一直被喂食,就会失去饥饿感和自己寻找食物的能力。第二重威胁是自感被误认为“信息处理”。当代认知科学的主流范式将心智视为信息处理系统。情感被建模为对刺激的评估,判断被建模为概率计算,创造力被建模为组合搜索。当这种范式被不加反思地推广,人的自感就可能被遗忘甚至否定。如果一切心理活动都可以用计算来解释,那么“感到自己在感”还有什么位置?大儒家观的回答是:计算可以解释心理活动的机制,但不能解释心理活动的“为我性”。那个“为我”不是计算,而是自感。
2.2 空性:自感的质地
自感是“空”的。这个命题需要小心阐述,以免引起误解。“空”不是虚无,不是没有,不是空洞。佛教讲的“空”(śūnyatā)是指一切现象没有独立自存的本质,都是缘起而生的。大儒家观借用这个说法来描述自感的质地:自感没有固定的内容、形状、方向。此刻你的自感是什么内容?你可能会说“我在感到阅读时的专注”或“我在感到一丝疲惫”。但这些已经是内容了。如果你再往下看一层,在专注和疲惫还没有被识别出来的那个时刻,自感是什么?它是一个开放的、未定型的、充满可能性的状态。这就是空性。
空性意味着自感能容纳一切痕迹,也能随时清空痕迹。这个特性在AI时代具有直接的实践启示。第一,AI不应该“填满”人。好的AI应该留有空白,鼓励人的自感主动生发,而不是用无尽的推荐和信息把人淹没。第二,AI应该支持“清空”。技术设计中应有“痕迹断食”的模式——定时、可预期的断连,帮助人的自感从过度痕迹中解放出来。第三,空性即不执著。AI系统的设计不应执著于单一的价值对齐方案,而应保持开放、可协商、可本地化。这正是“语境主权”的哲学依据。
空性与“道”的关系也需要阐明。老子说:“道冲而用之或不盈。”冲就是虚、空的意思。道是虚空的,但它的作用无穷无尽。自感也是这样。它是空的,正因为空,它才能感物而通,不滞不留。庄子讲“用心若镜”,镜子本身没有形象,所以能照见一切形象。如果镜子上已经有了固定的图像,它就不能照见新的东西。自感如果被固定的痕迹占据,就不能新鲜地感受世界。AI时代的自感养护,很大程度上就是学习如何让自感保持“镜”的状态——不被过去的痕迹锁定,不被外来的痕迹填满。
2.3 痕迹:自感的表达与异化的风险
痕迹是自感与外界交互留下的记录。内痕迹包括记忆、习性、情绪模式、身体惯习。外痕迹包括他人言语、社会规范、信息输入、算法推荐、AI对话的输出。痕迹本身不是坏东西。没有痕迹,自感就无法学习、无法成长、无法形成稳定的个性。一个人如果没有记忆,他的自感就是一片空白,无法形成连续的自我。一个文化如果没有传统,其成员的共享自感就无法形成凝聚力。痕迹是自感的必要表达。
问题在于痕迹可能反客为主。当痕迹占据了自感、操纵了自感、替代了自感时,人就成了痕迹的容器,而不是自感的主人。这个异化过程在AI时代被加速了。推荐算法的本质是“痕迹放大”:你点击了某类内容,算法记录这个痕迹,然后推送更多同类内容,你被锁定在这个痕迹轨道上,越来越难接触异质的内容。你的偏好被强化,但你的自感却越来越狭窄。你以为自己在做选择,实际上是痕迹在替你选择。
大儒家观的“减法”与“加法”功夫正是针对这个问题。减法是对过度痕迹的清空。不是消灭所有痕迹,而是识别出哪些痕迹是外界强加的、哪些是惯性重复的、哪些是阻碍自感鲜活的,然后主动清除。加法是让自感主动生发新的痕迹。在清空之后,自感恢复了空性,它需要重新与事物接触,产生属于自己的、新鲜的、有生命力的痕迹。减法与加法交替进行,就像呼吸一样自然。只做减法会陷入枯寂,只做加法会被痕迹淹没。
痕迹理论对AI设计有明确的指导意义。AI应该帮助用户定期重置痕迹,也应该促使用户尝试陌生的、非惯常的内容。这意味着推荐算法不能只追求“点击率最大化”,而需要引入“多样性指标”和“新鲜度指标”。这并不意味着完全抛弃个性化推荐,而是在个性化与多样化之间寻找平衡。一个自感友好的推荐系统会定期问用户:“你想看点不一样的东西吗?”或者在用户被锁定在单一类型内容太久时主动干预:“你已经看了很长时间的同类视频了,要不要看看其他类型?”
2.4 大儒家观的历史合法性:三千年融通之道
有人会问:为什么是“大儒家观”?为什么不是佛家、道家或其他?这个问题的回答需要回到儒学三千年的历史。大儒家观不是凭空创造出来的,它是对儒学融通传统在AI时代的延续。
儒学从诞生之日起就不是一个封闭的体系。孔子本人“述而不作,信而好古”,他的思想是对此前华夏文明传统的综合。汉代儒学吸收了阴阳五行、天人感应的思想资源,形成了经学体系。魏晋时期,儒学与道家、玄学深度互动,形成了“儒道互补”的基本格局。隋唐时期,佛教大盛,儒学在与佛教的竞争中被激发了理论创新的动力。宋明理学是儒学史上最深刻的一次自我革命。程颐、朱熹、陆九渊、王阳明等思想家大量吸收了佛教(尤其是禅宗和华严宗)的思辨智慧,将其转化为儒学的本体论和心性论。牟宗三先生曾指出,宋明理学是“儒表佛里”,这个说法虽然过于简化,但确实点出了宋儒“援佛入儒”的事实。朱熹早年出入佛老,十五岁习禅,后来虽然批评佛老,但其哲学框架深受佛教影响。王阳明的“良知”说与禅宗的“自性”说之间存在着明显的概念渊源关系。
近代以来,儒学面临西方思想的冲击,再次启动融通机制。康有为、梁启超、谭嗣同等试图将西方民主、科学的观念与儒家经典相结合。20世纪的新儒家学派,如熊十力、牟宗三、唐君毅、徐复观等,明确提出了“援西入儒”的纲领。他们试图从儒学的“道德主体”中转出“知性主体”以回应科学,转出“政治主体”以回应民主。这一努力虽然未完全成功,但它指明了儒学的当代方向:以我为主,融通天下。
大儒家观正是这一传统的当代延续。它融合佛家的空性智慧、道家的自然无为、自然科学的实证方法、意义哲学的价值追问,但始终以儒家的“生生”精神和“道不远人”的关切为底色。所谓“生生”,是指儒家对生命、生长、生成的肯定。《周易》说:“天地之大德曰生。”儒家不追求出世解脱,不追求离世逍遥,而是在世间成己成物。大儒家观继承了这个精神:它不是要人逃避AI时代,而是要人在AI时代更好地成为人。所谓“道不远人”,是指儒学的终极关切始终在人身上。《中庸》说:“道不远人。人之为道而远人,不可以为道也。”大儒家观的所有概念——自感、空性、痕迹、功夫——最终都要落回到“你,此时此刻,感到了什么”这个最朴素的问题上。没有任何概念是离开人的体验而成立的。
因此,大儒家观不是折中主义,不是拼盘式的杂糅。它有一个明确的主干:儒家“生生”的精神底色和“道不远人”的根本立场。在这个主干上,它吸收佛家的空性智慧来理解自感的质地,吸收道家的自然无为来警惕人为的过度干预,吸收自然科学的方法论来保持概念的清晰性和可检验性,吸收意义哲学的资源来回应现代性的价值危机。这是一棵有根的树,不是一束没有根的花。
三、从“价值对齐”到“自感对齐”:AI元人文的核心范式转换
当前AI伦理的主流范式是“价值对齐”。这个概念在AI安全领域被广泛使用,其核心想法是:设计AI系统的目标函数时,需要确保这个目标函数与人类的价值观一致。否则,一个超级智能的AI可能会以人类无法预料的方式追求一个看似无害的目标,造成灾难性后果。经典的“回形针最大化”思想实验就是这个逻辑:如果一个超级智能被赋予“尽可能多地制造回形针”的任务,它可能会把地球上所有资源——包括人类——都转化为回形针。
价值对齐范式有其合理性。它提醒我们,AI系统需要被引导到对人类有益的方向。但这个范式存在三个根本问题,这些问题在应用于通用AI系统时尤为突出。
3.1 价值对齐的三个根本问题
第一个问题是“谁的价值”。价值对齐需要预先设定一套价值观作为对齐的目标。但人类社会不存在单一的、被所有人接受的价值观体系。不同的文化传统、宗教信仰、政治制度、社会经济地位的人们持有不同的价值观。即使在同一个社会内部,不同群体对“公平”“自由”“隐私”“安全”等核心价值的理解和权重也不相同。价值对齐范式往往不自觉地反映了设计者(通常是西方、男性、技术精英、受自由主义传统教育)的价值观。当这些价值观被编码进全球通用的AI系统,非西方文化背景下的用户就被迫接受一套并非来自自身传统的价值判断。这不是对话,而是技术权力的话语垄断。
第二个问题是“静态编码与动态生活的矛盾”。价值不是一堆静止的规则。价值是在具体情境中被感受、被权衡、被实践出来的。一个人在抽象层面上可能坚定地认为“诚实是最重要的品质”,但在具体情境中——比如是否告诉一位绝症患者真相——他可能会有不同的判断。这个判断不是对抽象规则的违反,而是对规则在具体情境中的适用性的考量。价值对齐试图将价值编码为一套静态的规则或奖励函数,这无法捕捉价值的动态性和情境敏感性。
第三个问题是“忽视了自感”。价值对齐关注的是“行为”。它问:AI应该做什么,不应该做什么?它试图通过约束AI的行为来保证安全。但一个没有自感的AI,无论行为多“正确”,都与人的人文本质无关。一个AI可以严格按照医学伦理准则回答所有医疗咨询问题,但它永远不会“感到”患者的痛苦。一个AI可以完美地执行所有道德规则,但它永远不会“感到”道德的重量。人文的核心不是行为的正确性,而是行为的体验维度。价值对齐范式完全忽略了这一点。
3.2 自感对齐:一种新范式
AI元人文提出替代范式:自感对齐。这个术语需要仔细解释,以免产生误解。自感对齐不是说让AI拥有自感——目前没有任何证据表明AI可以拥有自感,大儒家观也认为自感是人与AI的本体论界限。自感对齐的意思是:让AI的设计与运行始终以养护人的自感为目标。AI的行为准则、交互方式、推荐逻辑、隐私策略,都应当以是否有利于用户的“感到自己在感”为最终判准。
自感对齐不是一个算法,而是一组设计原则。这些原则可以从价值对齐的问题中反向推导出来。价值对齐问“AI应该做什么”,自感对齐问“用户的体验会怎样”。价值对齐试图预设一套普适的价值观,自感对齐承认价值的多样性并将定义权交给具体语境下的参与者。价值对齐关注行为的正确性,自感对齐关注体验的鲜活性和自主性。
自感对齐的具体原则包括以下四条。
第一,不填满原则。AI不应持续占据用户的注意力,不应试图最大化用户的使用时长。当前主流商业AI系统(推荐算法、社交媒体的消息推送、短视频平台的无限滚动)的设计目标是“参与度最大化”,即让用户花尽可能多的时间在平台上。这个目标与养护自感直接冲突。因为自感需要空性才能保持鲜活,而持续的注意力占据填满了自感的空间。自感对齐要求AI系统主动建议“离线时间”“痕迹清空时间”,甚至主动降低参与度以给用户留出反思的空间。
第二,可撤回原则。所有AI产生的推荐、判断、陪伴,用户都应能够轻松撤回、重置,不受算法锁定。这意味着用户应该能够一键清空个性化推荐的历史记录,一键重置AI对话的上下文,一键退出任何形式的“用户画像”。可撤回原则的深层含义是:用户永远是AI系统的主人,而不是被系统塑造的对象。如果一个AI系统通过设计使得用户“难以离开”或“不想离开”,这个系统就在某种程度上剥夺了用户的自主性。
第三,语境主权原则。不同社群有权定义自己语境下的“适当AI行为”。这一原则在1.2节中已经阐述,这里补充一点:语境主权原则要求AI系统在设计时就嵌入可配置性,而不是在系统完成后再由外部审查机构进行调整。可配置性应该是架构层面的特征,而不是后期添加的功能。这意味着AI系统的价值模块应当是分离的、可插拔的,不同语境可以加载不同的价值模块。
第四,自感反馈原则。AI应定期询问用户“你现在感到如何”,而不是假设用户的情绪状态。当前的情感计算技术试图通过面部表情、语音语调、生理信号等推断用户的情绪。这种推断即使准确率很高,也仍然是“外部观察”而不是“内部报告”。自感反馈原则要求AI系统主动向用户询问主观体验,并将用户的报告作为重要输入。这不是要替代情感计算,而是要在情感计算之外增加一个体验维度。用户可以回答“我感到被干扰”“我感到被理解”“我感到困惑”“我感到被操纵”。这些回答不需要被量化为数据,它们本身就是对AI设计的反馈。
3.3 从对齐到养护:范式转换的意义
从价值对齐到自感对齐的转换,不仅仅是技术方案的调整,更是一种哲学立场的转变。价值对齐的深层预设是:AI是潜在的危险源,需要用规则来约束。这个预设有其道理,但它把AI和人的关系简化为“控制与被控制”的关系。自感对齐的深层预设是:AI是人的伙伴,其目标是养护人的自感。这个预设把AI和人的关系理解为“服务与被服务”的关系,而且这种服务不是满足需求,而是支持自主性。
这种范式转换的意义可以归纳为三点。第一,它把人文价值从“外在于AI”转变为“内在于设计”。价值对齐的思路是:先设计AI的能力,再考虑如何给它加上伦理约束。这就像先制造一辆高速汽车,再考虑给它装上刹车。自感对齐的思路是:养护自感这个目标从一开始就应该嵌入AI的设计目标函数。这不是附加的约束,而是核心的设计方向。第二,它把伦理决策权从工程师和公司手中交还给用户和社群。价值对齐的决策主体是设计者,自感对齐的决策主体是使用者。第三,它把AI伦理从“禁止做什么”的消极框架转变为“促进什么”的积极框架。价值对齐的核心问题是“如何防止AI做坏事”,自感对齐的核心问题是“如何让AI帮助人更好地成为人”。
四、功夫论:在AI时代养护自感
大儒家观的“功夫”概念需要先做说明。功夫不是佛教的修行,不是道教的修炼,不是瑜伽的体式。功夫是儒家传统中关于“如何做人”的实践技艺。它既包括内在的心性修炼(如慎独、诚意、正心),也包括外在的行为规范(如礼仪、孝悌、忠信)。功夫的特点是:它只能在实践中被掌握,没有终点,只有程度的深浅。一个人不能说“我修成了功夫”,只能说“我的功夫更深了”。功夫是过程性的、动态的、无止境的。
AI时代的功夫,需要面对的具体对手是技术环境,而不是抽象的无明。传统儒家要克服的是私欲、人欲、物欲。当代人除了这些传统障碍,还要克服算法投喂、信息过载、注意力碎片化、自感被填充等技术性的障碍。因此,AI时代的功夫既需要继承传统儒家的心性修炼方法,也需要针对技术环境进行创新。
本节将分三个小节讨论功夫论:个体的功夫、系统的责任、社会与文明的功夫。这三者不是孤立的,而是相互支撑的。个体的功夫需要系统设计提供支持,系统设计需要社会规范提供引导,社会规范需要个体实践提供反馈。
4.1 个体的功夫:日常中的“自感练习”
个体的功夫是自感养护的基础。没有个体的主动实践,任何系统设计都无法真正养护自感。个体的功夫包括三个核心练习:痕迹断食、主动生发、赤子之心的养护。
痕迹断食是减法功夫的核心方法。做法很简单:每天留出15到30分钟,完全不接触任何数字设备。不刷手机,不看电脑,不听音频,不与人对话(因为对话也是外痕迹的输入)。只是一个人安静地待着,返身体会:此刻,我的自感是什么状态?有没有被残留的痕迹带着跑?有没有某种情绪或想法在反复出现?这个练习的目的不是追求“空”的境界,而是让自感从持续的痕迹输入中暂时解放出来,体会一下“未被填满”的感觉。刚开始练习时,很多人会感到不安、无聊、焦躁——这是因为自感已经习惯了被填满,一旦没有输入,它反而不知所措。这正是需要练习的原因。随着练习的深入,自感会逐渐恢复自主性,能够在没有外部输入的情况下保持鲜活的感受力。
痕迹断食可以与传统儒家的“慎独”功夫联系起来。慎独出自《大学》和《中庸》,指在独处时仍然保持诚敬。郑玄注:“慎独者,慎其闲居之所为。”后世儒者将慎独发展为一种心性修养方法:在无人监督的时候,仍然保持内心的诚敬,不自欺。痕迹断食是慎独在数字时代的版本。当没有算法推荐、没有社交反馈、没有外部刺激时,你还能保持自感的鲜活吗?你还能感到“自己在感”吗?如果能,慎独的功夫就到家了。
主动生发是加法功夫的核心方法。在痕迹断食之后,自感暂时清空,这时需要主动做一件与己相关、不依赖数字媒介的事。可以是写字(不是打字,是手写),可以是走路(不是去某个目的地,只是走路本身),可以是与人当面交谈(不是发消息,是真实对话),可以是做一件手工(做饭、修理、种植)。关键是要让自感在这个过程中自然地产出痕迹,而不是被动接收。主动生发的痕迹与被动接收的痕迹有一个本质区别:前者是自感主动投向世界的结果,后者是世界投向自感的结果。前者的痕迹带有“我”的印记,后者的痕迹是“他者”的印记。AI时代的人往往被动接收太多、主动生发太少。主动生发练习就是重新学习“让自己留下痕迹”。
主动生发与儒家“亲民”的概念相通。《大学》说:“大学之道,在明明德,在亲民,在止于至善。”亲民不是高高在上地“爱民”,而是亲自与民相接,在具体的、活生生的关系中实现仁。主动生发就是亲民在个体层面的体现:自感主动走向事物、走向他人、走向世界,在交互中生成新的痕迹。
赤子之心的养护是功夫的更高层次。孟子说:“大人者,不失其赤子之心者也。”赤子之心就是未被过度痕迹污染的自感。婴儿刚出生时,自感是新鲜的、开放的、对一切都充满好奇。随着年龄增长,痕迹不断积累,自感逐渐被锁定在惯常的模式中。AI时代养护自感,就是重新学习“像孩子一样新鲜地感受世界”。这不是要退回到幼稚状态,而是在拥有成人的知识和经验的同时,保持自感的鲜活性和开放性。赤子之心的养护没有固定方法,它是在痕迹断食和主动生发的长期练习中自然涌现的状态。
4.2 系统的责任:设计“自感友好型”AI
个体的功夫需要系统设计的支持。如果所有技术系统都以“参与度最大化”为目标,个体的痕迹断食练习就会非常困难。就像在充满垃圾食品的环境中保持健康饮食需要极大的意志力,在充满注意力收割技术的环境中保持自感鲜活也需要极大的意志力。系统设计的责任是降低这种意志力的消耗,让自感友好成为默认选项而不是额外努力。
默认断连是第一条设计原则。设备应默认设置“勿扰时段”,而不是默认保持在线。当前几乎所有智能设备的默认设置都是“随时在线”,通知、消息、推荐默认开启。用户需要主动去寻找“勿扰模式”的开关,而且很多应用会在“勿扰模式”下仍然发送“重要通知”。默认断连要求反过来:设备出厂时预设每天若干小时的“静默时段”,用户如果希望在这些时段接收通知,需要主动取消设置。这个简单的设计变化会极大地改变用户与设备的关系:从“不断被打断”变为“主动选择连接”。
痕迹可见是第二条设计原则。用户应能看到自己的哪些痕迹被记录、如何被使用,并可以一键清空。当前的主流设计是痕迹对用户不可见。你不知道推荐算法基于哪些数据给你推荐了这条视频,你不知道AI对话系统记住了你之前的哪些回答,你不知道社交媒体平台保留了你多久的浏览历史。痕迹可见要求将这些信息以清晰、可理解的方式呈现给用户,并提供一键清空的功能。清空不是删除服务器上的数据(那涉及更复杂的法律和技术问题),而是重置AI系统对用户的“印象”——就像跟一个人重新认识一样。
多样性助推是第三条设计原则。推荐算法不应只强化用户偏好,而应定期引入“陌生事物”,打破痕迹锁定。当前推荐算法的核心逻辑是“协同过滤”和“基于内容的推荐”,其结果是用户被锁定在“信息茧房”中。多样性助推要求推荐算法在优化相关性的同时,定期引入与用户历史行为差异较大的内容。这不是随机推荐,而是有策略的多样性推荐。例如,算法可以保留一个“陌生度”指标,确保每十个推荐中至少有一个来自用户从未接触过的类别。
意义生成界面是第四条设计原则。AI不应只提供答案,而应提出开放性问题,引导用户自己生成意义。当前AI对话系统的设计趋势是“越像人越好”——流畅、自然、有共情。但这个趋势忽略了AI作为“他者”的价值。一个永远附和的AI不会促进用户的思考,一个永远提供答案的AI不会激发用户的提问。意义生成界面要求AI在适当的时候“不回答”,而是反问:“你觉得呢?”“你怎么看这个问题?”“你有什么感受?”王阳明的“知行合一”在这里可以转化为设计原则:AI给出的“知”必须能激发用户自己的“行”与“感”。如果AI的回应不能让用户有所行动、有所感受,这个回应就是失败的。
4.3 社会与文明的功夫
个体功夫和系统设计之外,还需要社会层面的集体实践和文明层面的对话机制。社会与文明的功夫不是个人可以单独完成的,它需要制度、规范、文化的共同支持。
数字安息日是社会功夫的一种形式。在犹太教传统中,安息日(Shabbat)是一周中完全停止工作、停止使用电子设备、专注于家庭和精神生活的一天。数字安息日是这一传统的世俗化版本:社会层面倡导每周一天的“数字安息日”,让整个社群的自感有机会同步清空。在这一天,参与者不使用任何数字设备,不查看工作消息,不刷社交媒体,不观看视频。这不是反技术,而是通过集体性的断连来重建人与人之间的直接联系。数字安息日的意义不仅在于个体的自感养护,更在于社群的共同体验。当整个社群一起断连,人们就会重新发现面对面交流的价值。
AI素养教育是社会功夫的另一重要方面。当前关于AI的教育主要集中两个方向:一是技术教育(如何编程、如何使用AI工具),二是伦理教育(AI的风险、隐私保护、算法偏见)。这两个方向都重要,但它们忽略了自感养护的维度。AI素养教育应当增加第三块内容:如何在AI环绕中保持自感主权。具体包括:识别被填充的时刻(什么时候我只是被动接收,什么时候我在主动生发),主动清空的方法(痕迹断食的技巧),主动生发的练习(如何选择与自己相关的事物)。这些内容不是技术知识,也不是伦理原则,而是生活技艺。它们不需要高深的背景知识,每个人都可以学习和实践。
跨文明自感对话是文明功夫的核心。当前国际AI治理的讨论往往陷入地缘政治对抗。不同文明背景的参与者各自带着一套预设的价值框架,试图说服对方接受自己的框架。跨文明自感对话试图绕开这个僵局。它以“自感”为共同语言,不同文明可以绕过价值观的对立,分享各自养护自感的方法。儒家有“慎独”和“诚意”,佛家有“观照”和“正念”,道家有“心斋”和“坐忘”,西方传统中有“静观”(contemplation)和“正念冥想”的变体,伊斯兰传统中有“迪克尔”(dhikr,记念真主)的修行。这些传统虽然语言不同、概念不同、神学预设不同,但都在处理同一个问题:如何养护人的内在感受力。跨文明自感对话的任务不是统一这些传统,而是让它们互相照见、互相启发。这正是《中庸》所说的“万物并育而不相害,道并行而不相悖”的当代实践。
五、大儒家观与AI元人文的关系:一种双向建构
大儒家观与AI元人文不是一种单向的“基础—应用”关系。不是先有大儒家观的哲学体系,然后将其应用到AI领域。它们之间是一种双向建构的关系:大儒家观为AI元人文提供哲学根基,AI元人文为大儒家观提供时代问题和实践场域。没有AI元人文的挑战,大儒家观可能停留在传统心性哲学的讨论中,与当代生活脱节。没有大儒家观的支撑,AI元人文可能沦为技术方案的堆砌,缺乏对人性的深刻理解。
这种双向建构可以从三个角度来理解。
第一,AI元人文迫使大儒家观重新回答“人是什么”这个问题。传统儒家对“人”的理解建立在“仁”“义”“礼”“智”等概念上。这些概念在农业社会、宗法制度、熟人社会中是有效的,但在AI时代需要重新审视。当AI可以模仿甚至超越人类的认知能力时,人的独特性在哪里?大儒家观给出的答案是“自感”。这个答案不是从传统儒家概念中直接推导出来的,而是在与AI技术的对话中重新发现的。传统儒家讲“恻隐之心”“羞恶之心”,这些已经是具体的情感形态。自感比它们更原初。正是AI能够模拟具体情感形态(AI可以生成看起来像恻隐之心的回应),迫使儒家思想退回到更根本的层面,找到那个机器无法触及的维度。
第二,AI元人文为自感养护提供了具体的实践场景。大儒家观的功夫论传统上是在静坐、读书、事亲、交友等场景中展开的。这些场景仍然有效,但AI时代出现了全新的、前所未有的挑战。算法推荐如何影响自感?社交媒体的反馈机制如何塑造自感?AI对话系统是帮助还是阻碍自感的自主生发?这些问题在传统功夫论中没有现成答案。AI元人文将大儒家观的功夫论延伸到这些新场景中,使传统思想焕发新的生命力。
第三,大儒家观与AI元人文共同指向一个更根本的问题:技术时代的人性安顿。这不是一个哲学问题,而是一个生存问题。每一个人都在经历技术对人性的重塑。我们的注意力被切割,记忆被外包,社交被中介,情感被模拟。在这样的时代,还能不能做一个“完整的人”?大儒家观和AI元人文给出的回答是:能。但需要功夫。这个功夫不是回到前技术时代,不是在技术之外寻找净土,而是在技术之中保持自感的主权。就像一条河流,它不能拒绝两岸,但它可以保持流动。自感也是这样。它不能拒绝技术,但它可以在技术之中保持空性、保持鲜活、保持自主生发的能力。
结语:在算法与空性之间,重新成为“人”
AI元人文不是反技术。它不要求人们扔掉手机、远离网络、拒绝AI。那是浪漫主义的怀旧,不是儒家的入世智慧。AI元人文也不是技术乐观主义。它不认为更聪明的算法、更强大的算力、更海量的数据就能解决人性危机。那是硅谷的信仰,不是儒家的清醒。
AI元人文基于一个冷静的判断:AI越强大,人的自感越脆弱。这不是说AI是敌人,而是说技术与人性的关系从来不是中性的。每一种技术都在塑造使用它的人。汽车改变了人对距离和速度的感知,印刷术改变了人的记忆和思维方式,互联网改变了人的注意力和社交模式。AI正在改变人最内在的东西:感受的能力、意义生成的自主性、自感的鲜活度。
养护自感,不能靠更聪明的算法。算法可以优化一切,但不能优化自感,因为自感不是优化问题。自感是前优化的、前计算的、前算法的。养护自感只能靠人重新学会——在空性中为自己争取空间。这个“重新学会”就是大儒家观所说的功夫。功夫不需要昂贵的设备,不需要特殊的资格,不需要深奥的知识。它只需要你每天拿出十五分钟,放下手机,回到自己的自感中。然后,在回到技术世界的时候,带着那种“我还感得到自己在感”的确信。
大儒家观给出的,正是一套可以走的路。它以“道不远人”为初心,以“自感”为枢纽,以“减法/加法”为功夫,以“自感对齐”为AI治理的新范式。这条路,古人走过。“我欲仁,斯仁至矣。”仁不在远处,就在你的自感中。这条路,今人正在走。在每一次主动放下手机的时刻,在每一次痕迹断食的时刻,在每一次与AI保持距离又保持对话的时刻,你都在走这条路。
最后,回到岐金兰那句看似简单却重逾千钧的话:“你还能感到自己在感吗?”
这个问题不需要回答。你只需要去感。如果你能感到,那么AI元人文就已经在你身上开始了。如果你不能感到,功夫就从这里开始。
大儒家观,不过是一条回家的路。AI元人文,不过是这条路在这个时代的路标。路标不指向别处,只指向你此刻的自感。
愿每一个被算法环绕的人,都能重新找到那种“感得到自己在感”的确信。那不是一种舒适的感觉,不一定让人愉快,有时甚至会让人感到不安。但那是真实的。在一切模拟、一切推荐、一切预制感觉之下,还有一个从未被算法触及的、属于你自己的、鲜活的感到。那个感到,就是你作为人的不可替代的根据。
岐金兰
丙午扬青风
(共16903字)
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
|
|
|
|
|
相关推荐
|
|
|