然后 Anthropic 就开始长篇大论了:来自中国等威权地区的公司面临法律要求,可能被迫分享数据、和情报部门合作,或者 采取其他造成国家安全风险的行动。这些要求让公司很难抵制这些压力,不管他们在哪里运营,也不管公司里的个人有什么想法。
更狠的来了:当这些实体通过子公司访问我们的服务时,他们可能会使用我们的能力来开发应用和服务,最终为敌对的军事和情报部门以及更广泛的威权目标服务。他们还可能使用我们的模型通过蒸馏等技术推进自己的 AI 开发,并在全球范围内与总部位于美国和盟国的可信技术公司竞争。
所以呢,Anthropic 为了更好地实现 “确保变革性 AI 能力推进民主利益” 的承诺,要加强地区限制。简单来说就是:只要你的公司被中国控股超过 50%,不管你在美国、欧洲还是火星上开公司,统统不能用 Claude。
看完这个公告,正在使用 Claude 梭哈代码的我,突然感觉 Claude 不香了。
首先,我得承认一个现实:Claude 确实是个不错的 AI 工具。但是看看人家这个态度,真的是把 “美国优先” 四个字写在脸上了。
最让我无语的是那句 “确保变革性 AI 能力推进民主利益”。拜托,你就是个做 AI 的公司,什么时候轮到你来定义什么是民主利益了?
而且这个逻辑本身就很搞笑:我们要推进民主,所以我们要专制地决定谁能用我们的产品?
更离谱的是,他们直接把矛头指向了中国公司。随便举个例子,像字节跳动、腾讯、阿里巴巴这些中国科技巨头的海外子公司也将被禁止使用 Claude 服务。
其实说穿了,这就是科技冷战的一部分。
前段时间,全球最大规模的 AI 能力评测平台 Design Arena 排行榜上 排名前十几位开源 AI 模型全部来自中国!
信息来源:https://www.designarena.ai/leaderboard
所以估计是美国对中国在 AI 领域的发展越来越紧张,生怕被超越,所以就开始各种封锁。
但是这种做法真的有效吗?
我觉得未必。
你想想,美国不让中国用某些芯片,咱们就自己研发,在光子芯片等领域有重大突破。现在不让用 Claude,说不定很快我们就能搞出更好的 AI 来。
对于咱们这些普通用户来说,这个事情确实挺恶心的。
我平时用 Cursor + Claude 比较多,因为在某些任务上确实比其他大模型好用,比如写代码、分析项目什么的。虽然之前 Cursor 就已经禁止了国内使用一些国外的大模型,Claude 也没有正式在中国开放,大家都是通过各种特殊方法在用。现在 Claude 官方再加一层范围更大的限制,连那些有海外子公司的中国公司都不能用了。 指望别人的技术,终究不是长久之计。
后面我也会更多地给大家分享国产的 AI 大模型和工具,相信很快会有比 Claude 更好的国产大模型。