近日,美国人工智能初创公司 Anthropic 将自家 Claude 大模型推进至 3.5 版本,并以 Claude 3.5 Sonnet 模型保持其在中等规模模型市场的竞争力,号称“速度更快、成本更低”。
截至 2024 年 3 月,Anthropic 已筹集到 73 亿美元的资金,其中,40 亿美元来自亚马逊。如同 OpenAI 与微软的强强联手,Anthropic 与亚马逊的绑定也让它被视作 OpenAI 的主要竞争对手。
作为一家专注于开发通用 AI 系统和语言模型的人工智能初创公司,Anthropic 决定保持其非营利的公益属性,它的创始团队来自于曾经这样定位的 OpenAI,公司创始人、CEO Dario Amodei 也一直在强调“负责任的 AI使用”理念。
然而,大模型的规模竞赛仍在继续,以前卷“最大”,现在卷“最便宜”,而卷“最安全”的模型会被视作“太理想主义”甚至是品牌竞争的噱头,因为规模越大、数据越多,对训练算法的要求越高,风险也往往越难控制。
最近,《时代》刊登了 Amodei 的封面故事,其中一个话题便是 Anthropic 能否在与 OpenAI 以及微软、谷歌和亚马逊等科技巨头竞争的压力下成功完成其安全使命。
尽管Anthropic致力于研究尖端的人工智能系统和开发新的安全方法,但连Amodei本人也担心这可能是一场危险的竞赛,甚至会以悲剧收场。
以下为《时代》对 Anthropic 专访的节选内容:
《时代》:Anthropic 是最年轻的“前沿”人工智能实验室,它的规模也最小。但竞争对手拥有更多的资金,你们会认为自己是弱势一方吗?
Amodei:当然,您引用的所有事实都是真实的。但随着时间的推移,这些事实变得不再那么绝对。我们已经签署了一些大型计算交易,并获得了数十亿美元的资金支持。相比之下,我们一些竞争对手的资金可能更少。
因此,当我再说我们是弱者时,可能让人感到有些尴尬。然而,相对于这个领域的巨头而言,我们确实处于相对较弱的地位,这一点无可否认。
《时代》:按照人工智能“缩放定律”,当你投入更大的算力和更多的数据来训练大模型时,它的能力或效能也会相应增强。在你们的大模型中,有哪些尚未发布但你已经预见到的功能?
Amodei:我们最近才发布了新的模型,因此并没有太多秘密功能未予公布。在某种程度上,我不打算深入探讨这些细节。但我们确实清楚,技术进步仍在持续。我们尚未看到任何迹象表明这种进步正在趋于平缓。然而,我们所生活的世界充满了不确定性,技术发展的脚步随时可能停止。
每次当我训练一个新的模型时,我都会观察它,心中总是充满了一种不确定的情感,担心在某个时刻突然发现,这个模型并没有如我们所愿变得更加强大。
如果这种“规模扩大的影响”真的停止,从某种程度上说,这对整个世界都是有利的,它将对所有参与者构成一种约束。但这不是我们可以选择的。当然,这些模型带来了许多令人兴奋的好处。大多数情况下,这就是自然法则。我们无法选择,只能发现我们生活在哪个世界,并尽我们所能去适应和面对。
《时代》:你希望通过 Anthropic 的文化理念实现什么样的目标?
Amodei:我们实施了一项捐赠匹配计划,允许员工向任何慈善机构捐赠高达 25% 的股权,公司也将提供相应的捐赠。这一计划旨在吸引那些对公共利益怀有浓厚兴趣的员工。对于重视公共利益的员工来说,我们的股票授予计划显得更具吸引力。当然,这并不意味着我们剥夺了员工获得经济激励的机会,而是为公司的文化定下了基调。
在安全方面,公众的观点与我们的理念之间存在一定的差异。我们并不自诩为一家专门从事人工智能安全的公司,而是一家以公共利益为导向的公司。我们并不认为人工智能系统本身具有固有的危险性,这是一个需要通过实证来回答的问题。
我更希望 Anthropic 成为一家让每位员工都关注公共目的的公司,而不仅仅是一家专注于人工智能安全或系统失调的特定问题公司。在公司内部,我认为我们已经成功实现了这一目标,我们的员工拥有不同的观点,但他们共同秉持着对公共目标的坚定承诺。
《时代》:如果唐纳德·特朗普(Donald Trump)在今年年底当选美国总统,这对人工智能的安全将意味着什么?
Amodei:无论是谁担任下一任总统,我们都将与他们合作,尽我们所能向他们解释,美国需要在人工智能技术上保持领先地位,同时我们也必须为这项技术本身提供合理的保障。
我要传达的信息是一致的。显然,不同的政府会有不同的观点和立场,我预计选举结果将影响政府的政策走向。然而,我能做的就是表达我对这个世界真实状况的看法。
《时代》:“强化学习”被认为是让人工智能系统更安全的最佳方式之一,因为它可以引导模型朝着既有用又无害的方向发展。但实际上,“强化学习”并没有完全消除其中的风险,这些风险仍然可以通过越狱等技术实现。你是否会对“强化学习”这种方法感到担忧?
Amodei:我并不认为“强化学习”方法本身是脆弱的,我要强调的是我们目前还处在如何有效管理和利用这些系统的科学探索阶段。在早期,它会产生“幻觉”并“越狱”。正如在发展的初期阶段,我们试图让模型在某些情境下表现得更加友好,但在其他情况下,它可能会给出冗长或不相关的回答。
我们试图引导模型向好的方向发展,并避免潜在的不良行为,这确实是一项挑战。我认为我们的模型并不完美,而且可能永远无法达到完美的状态。
我们可以将其视为一个多层次的瑞士奶酪模型:每一层都有其弱点或漏洞,但如果你有 10 层这样的模型叠加,那么任何潜在的威胁都将难以渗透这多层防线。没有一种单一的解决方案能够完全控制这些模型,我们需要将多种不同的方法和策略结合起来。
《时代》:鉴于风险如此之高,你认为使用这种策略是否足够负责?
Amodei:我当然更想生活在一个理想的世界里。但不幸的是,我们的现实世界里有太多的经济压力,不仅仅是企业之间,国家之间也是如此。但是,如果我们能够证明这些风险是真实存在的,我希望我们能够让世界至少停下来思考一下这个问题。并且,我们需要以合作的方式来解决这个问题。
但我并不天真地认为这样的时刻会频繁出现。毕竟,让一列正在高速行驶的列车停下来极其困难,即使可能,也只能在特殊情况下短暂实现。
《时代》:Meta 推出了开源人工智能模型,其功能与你们的模型相近。你对这种策略有何看法?它是负责任的吗?
Amodei:我们关心的是模型的强大性,而非其是否开源。在实践中,我认为大多数的大型公司,在达到我担忧的某个性能阈值之前,会选择停止开源。我猜测 Meta 会如此,但我不完全确定。
开源作为一个关注点几乎是在转移问题,人们可能认为开源会破坏我们的商业模式,但事实是,我们的竞争对手是任何能够产出强大模型的人。当这些模型被托管在云端时(我更倾向于将它们称为开放权重模型),它们产生的经济效益与其他服务无异。
《时代》:微软最近称其正在内部训练一个大语言模型,可能能够和他们投资的 OpenAI 匹敌。同样,亚马逊作为你们的投资者之一,也在进行类似的训练,谷歌也是如此。你是否会担心已经处于领先地位的小型人工智能实验室,只是暂时领先于这些资源丰富得多的科技公司?
Amodei:我们始终强调的一点是“用更少的资源做更多的事情”。我们始终努力维持一种状态,即便使用更少的计算资源,我们也能与拥有更多资源的公司做得一样好甚至更好。我们的竞争优势在于我们作为研究人员和工程师的创造力。
我认为,不断的创新产品比单纯的计算能力更重要。诚然,大模型训练需要大量的计算资源,但只要我们能够更有效地利用这些资源,用更少的资源实现更多的功能,那么这些资源最终会流向具有创新能力的公司。
《时代》:Anthropic 已筹集约 70 亿美元,足以支付下一代模型的培训费用。你曾说过,这笔费用可能高达数十亿美元。随着对下一代模型的培训需求增加,你是否开始考虑筹集更多的资金?你预计这些资金将来自哪里?
Amodei:我们已经为下一个阶段做了充足的准备,但在更长期时间内,我们仍需要筹集更多的资金。关于资金的来源,这很难预测,可能是来自传统投资者、大型计算服务提供商,或是我们尚未考虑到的其他多样化渠道。
《时代》:关于资金来源,政府很少被提及,但他们拥有大量资金,是一个潜在庞大的资源。这可能涉及政治难题,你是否考虑过或讨论过与政府合作的可能性?
Amodei:这项技术已经变得足够强大,政府应该在其创造和部署中发挥重要作用。这不仅仅是监管问题,更关乎国家安全。某些技术方面是否应该成为全国性的项目?我认为模型在政府内部会有诸多应用场景。
我坚信,随着时间的推移,最强大的模型可能会被视为对国家安全至关重要的资产我期望政府能更积极地参与其中,并以负责任的方式领导这项技术。这可能意味着政府将深度参与技术的研发。目前,这种合作形式尚未出现。
但鉴于我们正在构建的技术如此强大,一旦其达到某种力量水平,个人或公司是否应该成为其核心将是一个值得严肃讨论的问题。我预计在未来不久。可能是两到五年内,这将成为一次非常重要的对话,具体形式将取决于当时的情况。
你最近高频使用的大模型来自哪家公司?
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。