OpenAI 和 Anthropic 的主线分别是什么?
撰文:Cage,hanbo
头部模型的新一代模型的是市场观测、理解 LLM 走向的风向标。即将发布的 OpenAI GPT-Next 和 Anthropic Claude 3.5 Opus 无疑是 AGI 下半场最关键的事件。
本篇研究是拾象团队对 OpenAI 和 Anthropic 在 2024 年至今重要技术动作、产品投入、团队变化的总结和分析,我们希望从这些关键细节来理解头部模型公司的核心主线,更深入地把握 LLM 的进化方向。
在这个过程中,我们很明显能感受到,虽然 OpenAI 和 Anthropic 的新一代模型都选择了 self-play RL 技术路线,但两家公司其实在 LLM 接下来要怎么进化的问题上出现了分叉:
OpenAI 和 Anthropic 之间的差异既和创始人风格、团队技术审美、商业 roadmap 等因素相关,也是 LLM 领域各派声音的集中呈现。本系列会保持半年一次的更新频率,希望为市场理解 LLM 带来方向性启发。
主线 1:成本下降
LLM 大模型的成本下降趋势是非常明确的,在 GPT-3.5 和 GPT-4 的模型定价上都体现得尤其明显。4o 的模型设计初衷除了大家熟知的多模态之外,就是为了推理成本优化而设计的。在这基础上,甚至 4o-mini 可以再下降 33 倍的成本,这个成本下降幅度是非常惊人的。我们相信未来随着时间推进和工程 infra 的优化,4o 模型可能还有 10 倍的成本下降空间,很多当前模型能力下的 use case 都能迎来 ROI 打正的时刻。
同时值得一提的是,OpenAI 推出了新的 batch API 方案:API 不实时返回结果,而是在未来 24 小时内返回结果,这能使 API 价格打对折。这适用于对时间不敏感的大批量任务,可以大量节省成本。这个方法能降成本是因为目前的实时推理中 long context 和短的会放在一个 batch 中处理浪费很多资源,而降低实时性能够将相 context length 放在一起计算来降低成本。
OpenAI 还没有推出 Anthropic 使用的 prompt caching,不确定是否已经用类似方式进行降本了:Claude 在 long context 下可以通过把部分常用 prompt 存在缓存中来节省 90% 成本,降低 85% latency。这个方法在 RL 技术路线下会非常有用,因为模型 self-play 探索时会有大量重复 context。
另外 4o 对多语言数据的 tokenizer 效率提升,也能带来更低的成本。多语种在压缩过程中的 token 消耗量都显著降低,例如一句话原本需要 34 个中文 token,现在 24 个就能够实现。
主线 2:多模态交互能力提升
模型能力角度上,OpenAI 在今年上半年最大的进展在多模态能力上:
理解侧
1)GPT-4o 模型的发布实现了端到端的多模态能力,在语音对话和多模态能力上有明显提升的同时,降低了成本且没有降低推理能力。其语音功能至今仍未大面积推出, advanced mode 还在缓慢 roll out 中。
speech-to-text: 显著领先于 Whisper。端到端模型在语音上显示出了一定的 emergent capability,比如何时能打断并介入与用户的对话。等大规模铺开后在语音陪伴等场景的 PMF 可能迎来新一波的机会。
视觉理解: 显著高于其他模型,但没有出现多模态 unify 带来的智能涌现。视频数据的信噪比太低,在当前架构下和文本数据放在一起,并没有带来显著的多模态智能,这是多模态理解领域上需要解决的问题。
生成侧:
a. 在 vision 方面发布了 Sora 视频生成模型,Sora 发布后视频生成领域的 SOTA 暂时收敛到了 DiT 架构。由于 Sora 目前还在 demo 阶段,我们预期下半年会发布给公众使用。
b. 4o 模型作为一个端到端生成模型,也在探索用端到端 autoregressive 的方式生成图片。
主线 1:模型推理能力增强
2024 年上半年,Anthropic 在 Claude 模型系列上取得了显著进展。3 月 4 日,公司推出了 Claude 3 系列,包括 Opus、Sonnet 和 Haiku 三个版本,每个版本都针对不同的应用场景和需求进行了优化。President Daniela Amodei 在最近的一次公开分享中提到,他们设计时的想法是 :
6 月 21 日 Anthropic 又发布了 Claude 3.5 Sonnet,进一步提升了模型的性能和能力。Anthropic 还预告将在 2024 年晚些时候推出 Claude 3.5 系列,包括 Haiku 和 Opus 版本。Opus 版本是最值得期待的,看其是否能够大幅超越 GPT-4 的推理水平。
在性能方面,Claude 模型取得了很大进步。Claude 3.5 Sonnet 在很多领域的表现超越了 GPT-4,特别是在研究生级推理和编程能力方面。直到 9 月,其他所有模型的更新都无法在 Coding 和复杂推理能力上超越 Sonnet 3.5。其 coding 能力提升也带来了一系列 AI coding 产品的实现:Cursor 作为 IDE 的开发体验一下子流畅了很多,甚至 Websim 这样在上半年看起来是 toy project 的产品在现在也有了不错的效果。背后原因都是 Claude Sonnet 3.5 能生成上百行的可靠代码,而之前的 SOTA 模型只能生成 20 行左右。
模型的其他维度能力也在各个 use case 得到了全面扩展。Claude 3.5 Sonnet 的推理速度是 Claude 3 Opus 的两倍,可以处理 200K token 的上下文窗口,相当于约 500 页文档的内容。多模态能力也得到显著增强,特别是在视觉理解方面,包括图表解读和从不完美图像中准确转录文本的能力。
主线 2:模型拟人能力增强
Anthropic 首次在 Claude 3 系列中引入了「性格训练」(Character Training),这项能力是在 post training 加入的。这项创新旨在赋予模型良好的性格特征,通过生成数据和自我排序来内化这些特征。这不仅提高了模型的吸引力和互动性,用户反馈也表明与模型的对话变得更加有趣。
训练方式:首先要求 Claude 生成各种与特定性格特征相关的人类消息——例如,关于价值观的问题或关于 Claude 自身的问题。然后向 Claude 展示这些性格特征,并让它针对每条消息产生符合其性格的不同回应。之后,Claude 会根据每个回应与其性格的契合程度对这些回答进行排序。通过对这些回答的排序训练一个偏好模型,我们可以教导 Claude 内化其性格特征,而无需人类的交互或反馈。
尽管这个训练流程仅使用 Claude 自身生成的合成数据,但构建和调整这些特征仍然是一个相对手动的过程,需要人类研究人员密切检查每个特征如何改变模型的行为。
这个方向结合他们的 interpretability 的研究,可以看到他们在模型的可控性上下了很多功夫。
我们也收集了一系列用户对 4o 模型和 Claude 3.5 的用户使用评价:
GPT-4o 优势:
GPT-4o 劣势:
Claude 3.5 Sonnet 优势:
Claude 3.5 Sonnet 劣势:
用户数据上涨:多模态带动交互创新,4o 让产品再度扩圈。
1)ChatGPT 用量随 4o 的发布大幅增长:
a. OpenAI 的访问量自 2023 年 5 月达到峰值后,因为暑假开始下降,后续变进入波动,直到今年 5 月 GPT-4o 发布后再次飙升,在 2024 年 6 月的访问量达到 2.9 亿次,比 2024 年 5 月增长了 15.6%,而 2024 年 5 月则比历史最高值增长了 40%(2023 年 5 月),GPT-4o 对用户量的拉动是极为明显的。
b. 去年访问量在夏季下降,今年没有出现这种趋势,主要得益于 GPT-4o 推出,OpenAI 能够持续保留和吸引新用户。(一定程度上也得益于 GPT-4o 多模态能力使得 ChatGPT 进一步向生活场景拓展,而非仅仅是一个效率工作产品)。但节日趋势在其他产品上还是明显存在的:C.AI 流量上升,Perplexity 流量下降。
c. 截止到今年 6 月的 Web MAU 约为 2.3 亿,移动端 DAU 约为 320 万。
2)放在搜索引擎语境下,ChatGPT 的用量持续超越 Bing 和 Perplexity,与 Google 仍有量级上的差距,但开始逐渐蚕食传统搜索引擎的心智。
尽管 Google 整体搜索份额还比较稳定在 91%+,但其桌面端被拿份额的趋势比较明显,美国和全球数据都是这个趋势。ISI 发布了一份报告介绍他们对 1000 多名消费者的调查结果。他们注意到,从 6 月到 8 月,Google 作为首选搜索引擎的份额从 80% 下降到 74%,而 ChatGPT 的份额从 1% 增加到 8%。
• 6 月份 ChatGPT / Perplexity 流量略降,Claude 有个跳涨,和 Sonnet 3.5 模型能力显著提升有关。
3)对 AI 产品流量和商业模式的思考
a. 在 AI 时代流量最大的产品不一定产生最大的价值,完成任务的难度更重要。这个观点的前提是广告模式不是 AI 时代最后的 business model。
b. 大模型公司的商业模式不比移动互联网简单,更像传统零售的库存模式:资源都分配给训练用户用不上产品,那就是库存积压;资源给推理太多模型能力跟不上,是库存短缺。
c. 目前看到的大模型公司商业模式,要明显比互联网广告和软件订阅的商业模式差很多。后两者最重要的特征是 ① 提供服务的边际成本几乎是零,或是持续显著下降。② 黏性 / 用户留存极强。意味着企业只要投入建立平台 / 软件产品及获客,后续收入的利润率极高,且持续性很强。大模型无论是 API 还是订阅制,定价端很难提价,而随着模型能力增强,用户 query/ 任务会更加复杂,服务用户需求的成本还可能是上升的。
从生产力助手到 Agent 探索:feature 更新和收购并行
根据 chatgpt 今年 1 月 -7 月的产品升级,可以发现如下几个趋势,他们是明显在从生产力助手往 agent 方向在探索:
同时也值得分析一下他们是收购三家公司的价值,和他们实现 agent 的愿景高度相关:
1)Rockset(2024 年 6 月收购):
Rockset 是一家专注于实时分析数据库的公司,以其先进的数据索引和查询能力而闻名,成立于 2016 年。OpenAI 收购 Rockset 的战略动机主要是为了增强其检索基础设施。这将使 OpenAI 能够提供更强大和高效的数据处理能力,特别是在实时搜索和 RAG 上。此次收购预计将显著提升 OpenAI 在数据 retrieval、分析和检索方面的能力,使其 AI 解决方案更加强大,能更好地响应实时数据需求。这也增强了 OpenAI 在与其他 AI 模型提供商和全栈生成 AI 平台竞争时的技术实力。
此外,未来的 agent 中最关键的工程设计在于 memory 的设计,前面这套在 RAG 和 search 的方案也可以用在未来 agent 的记忆机制上。
2)Multi(原 Remotion,2024 年 6 月收购):
Multi 是一家开发实时协作工具的初创公司,允许用户共享屏幕并在编码等任务上协同工作。OpenAI 收购 Multi 的战略目的是利用其技术来增强远程协作能力和 AI 驱动的内容摘要功能。这与 OpenAI 通过 AI 改善团队协作和生产力的更广泛目标相一致。这次收购的一个重要意义可能是实现未来人与 AI agent 在屏幕前的共同协作。
3)Global Illumination(2023 年 8 月收购):
Global Illumination 是一家专注于创意工具、基础设施和数字体验的公司,由来自 Instagram、Facebook、YouTube、Google、Pixar 和 Riot Games 的前关键设计师创立。收购 Global Illumination 的目的是增强 OpenAI 的核心产品,包括 ChatGPT。此外我们也猜想,他们之前的产品也可能适合成为 virtual agent 的进行强化学习的交互环境。
交互:Artifact 时软件生成 task engine 的早期形态
Artifacts 是我们使用 Claude 产品时会出现的动态 workspace,能把我们需要完成的任务转换成代码,并用代码的方式来实现基础的任务。我们可以认为它是 OpenAI Code Interpreter 基础上对 UI/UX 的创新。
Claude 团队给 Artifact 的未来定位是企业团队将能够安全地将他们的知识、文档和正在进行的工作集中在一个 Artifact 这个 workspace 中进行交互,而 Claude 则根据需求作为 copilot 对这个 workspace 进行交互。所以可以认为 Artifact 是 Anthropic 团队对下一代 AI-native 协作平台和工作流的想象。
在实际使用场景中,现在还是开发者使用 artifact 制作初步代码比较多:
• 示例一:一行 prompt 制作日历 app,artifact 直接呈现出 code 和 UI,不需要自己动手写基础代码
• 示例二:上传一本书后,边读边通过 artifact 总结每一页的内容
Agent 探索:还在 tool use 阶段,未来 roadmap 可期
Tool use 能力的提升标志着 Anthropic 在 agent 技术上比较稳健的一次进步。2024 年 5 月,Anthropic 为 Claude 3 系列模型增加了与外部工具和 API 交互的能力,这一进展大大拓展了模型的实用性。这项功能使得 Claude 能够执行更为复杂和实际的任务,不再局限于纯粹的文本生成。用户只需用自然语言描述他们的需求,Claude 就能智能地选择合适的工具并执行相应的操作。这种自然语言接口大大降低了使用门槛,使得即使非技术背景的用户也能轻松地利用 AI 的强大能力。
Anthropic 展示的 agent 应用场景涵盖了多个领域,充分体现了其技术的广泛适用性和潜力。首先,在数据处理方面,Claude 能够从非结构化文本中提取结构化数据,这对于自动化数据录入和分析具有重要意义。其次,Claude 可以将自然语言请求转换为结构化 API 调用,这大大简化了系统间的交互过程。在信息检索方面,Claude 能够通过搜索数据库或使用 Web API 来回答问题,提供即时且准确的信息。对于日常任务自动化,Claude 可以通过软件 API 执行简单任务,提高工作效率。
其中最特别的一个例子是 Claude 能够协调多个快速子 agent 来完成细粒度任务,这是复杂任务的分解和并行处理的未来方向。这种阶梯式的模型分工方法可能涉及多个专门化的 agent 协同工作,每个 agent 负责特定的任务或领域。这种架构不仅能提高整体系统的效率和灵活性,还能更好地处理复杂的多步骤任务。通过让不同的子代理各司其职,系统可以更有效地利用资源,并且能够根据任务的需求动态调整工作流程。
Anthropic 在官网公布了他们的未来方向,其中他们对 agent 的长期规划是宏大而全面的:
这些能力的实现都会和我们期待的 agent 有着方向上的汇合。仔细看会发现 Anthropic 对 AI 的期待很多都落在软件和科学发现上。
OpenAI 依旧保持快速增长状态,已经从纯粹的 AI Lab 演进至更加工程、产品、收入导向的公司。公司目前有 400 名以上的 Researcher,超过 1200 位非研究类员工,包含工程、销售、产品、后台支持等,对比 2023 的 770 人增加近乎一倍。
从招聘侧重点看,近三个月,有 460 人新加入 OpenAI,其中 Member of Technical Staff 依旧占主要,共有 130 人,偏工程类员工占整体 MTS new hire 的 80%。Go-to-market 是招聘数量第二多的团队,新招聘 46 人。产品新招聘 24 人,其中包括新加入的 CPO Kevin Weil。
离开的关键人才
值得关注的新团队和岗位
我们也观察到 OpenAI 出现了一些新的小组:
1)Solution Architect
在 Success Team 下新增了 Solutions Architect 团队,隶属于 Success Team 下。目前整体团队大约 20 人,均为一年内加入 OpenAI,对 Enterprise 提供整体部署解决方案。Solutions Architect 团队源于 OpenAI 的策略调整:OpenAI 为了防御 Azure 捆绑销售策略下的折扣定价,承诺可以为大客户根据需求定制软件。
2)集群硬件
OpenAI 从 0 到 1 搭建了新的硬件团队。从团队配置看,更像是计划搭建数据中心集群所需要的人才。目前硬件团队还是一个不到 10 人的小团队,由 Richard Ho 带领。Richard 先前于 Google 任职近十年,是 Google TPU 的 Senior Engineer Director。先前有报告提及 OpenAI 至少要等到 2025 年才可以自己开发芯片,并且目前在与博通商讨合作设计的形式,Richard 做为 Google TPU 的负责人,在 OpenAI 的定位会是 lead 起 co-design 任务的角色。
Richard 团队内,Reza Khiabani 先前于 Tesla Dojo、Google TPU 负责数据中心液冷方向工作。Xin Li 先前于 Google 负责数据中心电源工作。
3)投资了 Opal 团队
此外,消费硬件层面,OpenAI 于 2024 年 8 月投资了 Opal,有可能在之后一起合作 AI 硬件。Opal 的产品为高清摄像头,并且十分重视设计。
Opal 于 2020 年成立,是一个 15 人的小团队。创始团队为 Uber 背景。CEO Veeraj Chugh 在创办 Opal 前于 Uber 任职 3 年,先后负责 Uber Freight、Uber New Mobility 的产品运营工作。Co-founder Stefan Sohlstrom 是设计背景出身,2014 年作为第 5 号员工加入 Plaid,担任 Plaid 的 Head of Design。2017 年开始于 Uber Freight 从设计职责转换成产品经理,成为 Uber Freight Shipper Platform 的产品 Head。
4)Model Behavior scientist
对于 Model Behavior 研究人员的招募可能揭示 OpenAI 希望增强模型的可控性并且希望能够发展新的交互方式,同时提升模型的创造能力。
5)mid-training scientist
Mid-training 已经被正式定义为一个新的训练阶段。其主要环节可能包括一些比较接近模型基本能力的 alignment,与 human feedback 离得相对远、更靠前。
2024 年以来,公司人数从 300 人增加至 500 人左右。2024 起,公司招聘共 180 名新的 Member of Technical Staf,使 Anthropic 整体 Member of Technical 数量达到约 260 人,其中 90 名 Researcher,210 名 Engineer。Anthropic 的第二大招聘重心为产品团队,2024 年前,Anthropic 的产品团队共 10 人,而今年已经是接近 30 名,包含产品经理、Product Partnerships / Marketing 相关员工的团队。
Anthropic 和 OpenAI 相比更看重 Alignment、可解释性、AI 社会影响三个方向研究,也是 Anthropic 官网上 Research 部分的三个主要构成部分。
可解释性团队由 Shan Carter 带领,现已经是 20 余人的团队。Shan 先前于 OpenAI、Google Research 工作,主要负责可解释性方向研究,曾与 Co-founder Chris Olah 于 Google 时参与 Google 重要可解释性研究:The building blocks of interpretability。
可解释性团队在 Claude3 发布后发了一篇新论文:Scaling Monosemanticity: Extracting Interpretable Features from Claude 3 Sonnet,突破了模型的透明度并且建立了新解决黑盒问题的机制。
除了前面提到的几位从 OpenAI 离职的几位早期重要 researchers 之外,还有这样几位重要 OpenAI / DeepMind 出身的重要科学家加入:
Anthropic 产品团队最大的更新是新 CPO 的加入。Mike Krieger 原先是 Instagram 的 Co-founder & CTO,经历了在 Instagram 被收购后从只有 6 位全栈工程师成长到包含 300 位工程师的 full function 工程团队的过程。Mike 于 2021 年时与 Instagram CEO Kevin 开始做 AI 新闻推送创业 ARTIFACT,于 2024 年 5 月停止项目,加入 Anthropic。Mike 本身的经历和 Anthropic 经历了只有 80+ 人的小团队,但创造出了 SOTA 模型,之后迅速扩张的过程非常相符。加入 Anthropic 后 Mike 带领 Claude APP,以及企业服务的产品工程、管理、设计工作。
Anthropic 的产品团队自 2024 年也快速扩张,目前 30 位产品成员大多数来自于 Stripe、Google、AWS 三家诞生了出色的 enterprise 产品的公司。
Artifacts 是 Mike 加入 Anthropic 后负责的新产品,外部对 Artifacts 的评价是「又懂模型、又懂产品的人做出的产品」,对比 OpenAI「互联网风格」的产品会更 AI-native。而 Artifacts 的名字和 Logo,都与 Mike 先前创业项目 ARTIFACT 高度相似。
Mike 的 Artifact 项目
Artifacts 与 Claude 的 Logo
与 Mike 一同加入的还有先前共创 Artifact 的工程师 Justin Bisignano。Justin 2020 年加入 Instagram 团队任安卓工程师,所写的代码支持了 20 亿用户。2022 年 7 月加入 Artifact 任职至 2024 年 4 月后加入 Anthropic,负责 Claude 的产品工程方向工作。
Prover-Verifier Games improve legibility of language model outputs
新的训练方法:OpenAI 开发了一种称为「Prover-Verifier Games」的新训练方法,旨在平衡模型的性能和可读性。
解决关键问题:这种方法解决了之前模型在性能和可读性之间存在的权衡问题。过去,注重可读性可能导致幻觉(hallucination),而过度注重正确性则可能降低可读性。
训练机制:
意义:
CriticGPT, Finding GPT-4’s mistakes with GPT-4
研究意义:
局限性和未来发展方向:
长期目标:
Scaling Monosemanticity, Extracting Interpretable Features from Claude 3 Sonnet
• 使用机器学习中「dictionary learning」的方式,并借助训练大模型的 scaling law techniques,将这个技术沿用到大模型上,从中 isolate 出大模型激活神经元的 pattern,解读模型激活神经元的方式。文章中提到探索了几种能力:
◎ 针对不同 entities(景点如 golden gate,抽象概念如程序 bugs,gender bias),神经元被激活,并且是 multilingual 和 multim - modal 的。
◎ 可以根据激活神经元方式的不同,计算特征之间的「distance」,做近邻计算。
◎ 可以人为改变特征被激活的方式,会直接影响模型生成的答案。也能从中发现一些模型可能被潜在激活的不好的方向,为之后监控这些潜在威胁 提供了工具。
• Anthropic 真正做到了 interpretability 的 scale-up:使用 sparse autoencoder 来做到解读神经网络中的 feature。之前主要使用数学统计模型无法 scale-up,sparse autoencoder 的稀疏性可以很好的捕捉到一些关键点,其他不关键信息在 vector 中都不会激活。
• 对比 OpenAI 的可解释性工作:
◎ OpenAI 的研究较为浅层,主要捕捉 LLM 的行为模式;Anthropic 的研究更深入,挖掘到了不同单词和实体在神经元激活上的规律。
◎ Anthropic 的研究通过干预可以直接改变模型的输出结果,而 OpenAI 的研究主要停留在观察层面。
这几篇研究可以看出一些对 RL 方向研究的端倪,也可以发现 Anthropic 团队对可解释性的追求是更强的,很可能他们未来会给予可解释性设计更多的模型可控性 feature。我们也期待这些研究能带来下一波 AI-native use case 的解锁。
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。