新智元报道
编辑:编辑部
就在刚刚,全球最强开源大模型王座易主,创业公司 Databricks 发布的 DBRX,超越了 Llama 2、Mixtral 和 Grok-1。MoE 又立大功!这个过程只用了 2 个月,1000 万美元,和 3100 块 H100。
全球最强开源模型,一夜易主!
刚刚,超级独角兽 Databricks 重磅推出 1320 亿参数的开源模型——DBRX。
它采用了细粒度 MoE 架构,而且每次输入仅使用 360 亿参数,实现了更快的每秒 token 吞吐量。
这种独特的 MoE 架构,让 DBRX 成为开源模型的 SOTA,推理速度比 LLaMA 2-70B 快了 2 倍!
最重要的是,训练成本直接砍半!只用了 1000 万美元和 3100 块 H100,Databricks 就在 2 个月内肝出了 DBRX。
比起 Meta 开发 Llama2 所用的成本和芯片,这只是很小一部分。
DBRX 在语言理解、编程、数学和逻辑方面轻松击败了开源模型 LLaMA2-70B、Mixtral,以及 Grok-1。
甚至,DBRX 的整体性能超越 GPT-3.5。尤其在编程方面,完全击败了 GPT-3.5。
并且,DBRX 还为开放社区和企业提供了仅限于封闭模型的 API 功能。现在,基本模型(DBRX Base)和微调模型(DBRX Instruct)的权重,已经在 Hugging Face 开放许可了。
从今天开始,Databricks 客户就可以通过 API 使用 DBRX。它在 Macbook Pro 上都可跑,LLM 很快能为个人设备提供支持了。
Pytorch 之父 Soumith Chintala 对最新开源模型 DBRX 也是非常看好。
从 Mistral、到 Grok-1,再到 DBRX,MoE 架构的模型正在占领开源界。
而 Databricks 的员工激动地表示,过去 3 个月,朋友们周末约我都说「不行,这周不行我有事,但是又不能说有啥事」的日子终于结束了,DBRX 就是我们加班加点搞出来的一头「怪兽」。
还有网友表示,「如果实验室继续开源大型 MoE 模型,英伟达可能就需要推出最强 Blackwell 架构的消费级 GPU 了」。
全球最强开源模型易主
DBRX 是一种基于 Transformer 纯解码器的大模型,同样采用下一 token 预测进行训练。
它采用的是细粒度专家混合(MoE)架构,也就是具有更多的专家模型。
是的,这次立大功的,依然是 MoE。在 MoE 中,模型的某些部分会根据查询的内容启动,这就大大提升了模型的训练和运行效率。
DBRX 大约有 1320 亿个参数,Llama 2 有 700 亿个参数,Mixtral 有 450 亿个,Grok 有 3140 亿个。
但是,DBRX 处理一个典型查询,平均只需激活约 360 亿个参数。
这就提高了底层硬件的利用率,将将训练效率提高了 30% 到 50%。不仅响应速度变快,还能减少所需的能源。
而与 Mixtral、Grok-1 等其他开源 MoE 模型相比,DBRX 使用了更多的小型专家。
具体来说,DBRX 有 16 个不同的专家,在每层为每个 token 选择 4 个专家。Mixtral 和 Grok-1 有 8 个专家,一个路由网络在每层为每个 token 选择 2 个专家。
显然,DBRX 提供了 65 倍的专家组合可能性,能够显著提升模型质量。
此外,DBRX 还使用了旋转位置编码(RoPE)、门控线性单元(GLU)和分组查询注意力(GQA),并使用 tiktoken 存储库中提供的 GPT-4 分词器。
DBRX 模型在 12 万亿 Token 的文本和代码进行预训练,支持的最大上下文长度为 32k。
研究人员估计,这些数据比用来预训练 MPT 系列模型的数据至少好 2 倍。
这个新的数据集,使用全套数据库工具开发,包括用于数据处理的 ApacheSpark™和 Databricks 笔记本,用于数据管理和治理的 Unity Catalog,以及用于实验追踪的 MLFlow。
团队使用了「课程学习」(curriculum learning)进行预训练,并在训练过程中改变数据组合,大大提高了模型质量。
那么,DBRX 究竟表现如何?
击败 2.4 倍参数 Grok-1
如下表1,在综合基准、编程和数学基准以及 MMLU 上,DBRX Instruct 刷新了开源 AI 的 SOTA。
综合基准
研究人员在两个综合基准上对 DBRX Instruct 和其他开源模型进行了评估,一个是 Hugging Face 的 Open LLM Leaderboard,另一个是 Databricks Model Gauntlet。
Databricks Model Gauntlet 由 30 多项任务组成,涵盖了 6 个类别:世界知识、常识推理、语言理解、阅读理解、符号问题解决和编程。
就综合基准来看,DBRX Instruct 超越了所有聊天、指令调优的模型。
编程和数学基准
DBRX Instruct 在编程和数学方面尤为突出。
它在 HumanEval 以及 GSM8k 上,得分均高于其他开源模型。
在编程基准上,DBRX Instruct 得分为 70.1%,Grok-1 为 63.2%,LLaMA2-70B Chat 为 32.2%。在数学基准上,DBRX Instruct 为 66.9%,Grok-1 为 62.9%,LLaMA2-70B Base 为 54.1%。
尽管 Grok-1 的参数是 DBRX 的 2.4 倍,但 DBRX 在编程和数学方面的性能,均超越了排名第二的 Grok-1。
在 HumanEval 上,DBRX Instruct(70.1%)甚至超过了 CodeLLaMA-70B Instruct(67.8%),这是一个专门为编程构建的模型。
在语言理解测试基准 MMLU 方面,DBRX Instruct 得分高于所有模型,为 73.7%。
全面超越 GPT-3.5
另外,与闭源模型 GPT-3.5 相比,DBRX Instruct 的性能全面超越了它,还可与 Gemini 1.0 Pro 和 Mistral Medium 相较量。
具体来说,DBRX Instruct 在 MMLU 的常识知识(73.7% vs. 70.0%)、常识推理 HellaSwg(89.0% vs. 85.5%)和 WinoGrand(81.8% vs. 81.6%)方面优于 GPT-3.5。
在 HumanEval(70.1% vs. 48.1%)和 GSM8k(72.8% vs. 57.1%)的测试中,DBRX 同样在编程和数学推理方面尤其出色。
此外,在 Inflection Corrected MTBench、MMLU、HellaSwag 以及 HumanEval 基准上,DBRX Instruct 的得分高于 Gemini 1.0 Pro。
不过,Gemini 1.0 Pro 在 GSM8k 的表现上,明显更强。
在 HellaSwag 基准上,DBRX Instruct 和 Mistral Medium 得分相似,而 Winogrande 和 MMLU 基准上,Mistral Medium 更强。
另外,在 HumanEval、GSM8k、以及 Inflection Corrected MTBench 基准上,DBRX Instruct 取得了领先优势。
在 Databricks 看来,开源模型击败闭源模型非常重要。
在上个季度,团队成员看到自家 12,000 多名客户群重大转变,即将专有模型替换为开源模型,以提高效率。
现在,许多客户可以通过定制开源模型来完成特定任务,从而在质量和速度上超越专有模型。
DBRX 的推出,就是为了加速这个过程。
长上下文任务质量和 RAG
DBRX Instruct 采用高达 32K token 上下文进行了训练。
表 3 比较了它与 Mixtral Instruct,以及最新版本的 GPT-3.5 Turbo 和 GPT-4 Turbo API,在一套长上下文基准测试上的性能。
毫无疑问,GPT-4Turbo 是执行这些任务的最佳模型。
但是,除了一个例外,DBRX Instruct 在所有上下文长度和序列的所有部分的表现,都优于 GPT-3.5 Turbo。
DBRX Instruct 和 Mixtral Instruct 的总体性能相似。
利用模型上下文的最常见的方法之一是,检索增强生成(RAG)。
在 RAG 中,从数据库中检索与提示相关的内容,并与提示一起呈现,从而为模型提供更多信息。
表 4 显示了 DBRX 在两个 RAG 基准测试——Natural Questions 和 HotPotQA 上的质量。
DBRX Instruct 与 Mixtral Instruct 和 LLaMA2-70B Chat 等开源模型,以及 GPT-3.5 Turbo 相比,具有很强的竞争力。
训练效率是非 MoE 模型两倍
模型质量必须放在模型的训练和使用效率的上下文中,在 Databricks 尤其如此,
研究人员发现训练 MoE 模型在训练的计算效率方面,提供了实质性的改进(表5)。
比如,训练 DBRX 系列中较小的成员 DBRX MoE-B(总参数为 23.5B,活跃参数为 6.6B)所需的 Flop 比 LLaMA2-13B 少 1.7 倍,才能在 Databricks LLM Gauntlet 上达到 45.5% 的得分。
DBRX MOE-B 包含的有效参数也是 LLaMA2-13B 的一半。
从整体上看,端到端 LLM 预训练 pipeline,在过去十个月中的计算效率提高了近 4 倍。
2023 年 5 月 5 日,Databricks 发布了 MPT-7B,这是一个在 1T token 上训练的 7B 参数模型,在 Databricks LLM Gauntlet 上得分为 30.9%。
DBRX 系列中名为 DBRX MoE-A 的(总参数为 7.7B,活跃参数为 2.2B)得分为 30.5%,而 FLOPS 减少了 3.7 倍。
这种效率是一系列改进的结果,包括使用 MoE 架构、网络的其他架构更改、更好的优化策略、更好的分词,以及更好的预训练数据。
单独来看,更好的预训练数据对模型质量有很大的影响。
研究人员使用 DBRX 预训练数据在 1T token(称为 DBRX Dense-A)上训练了 7B 模型。在 Databricks Gauntlet 上得分 39.0%,而 MPT-7B 为 30.9%。
研究者估计,全新的预训练数据至少比用于训练 MPT-7B 的数据高出 2 倍。
换句话说,要达到相同的模型质量,所需的 token 数要少一半。
进而,研究人员通过在 500B token 上训练 DBRX Dense-A 确定了这一点。
它在 Databricks Gauntlet 上的表现优于 MPT-7B,达到 32.1%。
除了更好的数据质量外,token 效率提高的另一个重要原因可能是 GPT-4 分词器。
推理效率
总体而言,MoE 模型的推理速度,它们的总参数所显示的要快。这是因为它们对每个输入使用的参数相对较少。
DBRX 推理吞吐量是 132B 非 MoE 模型的2-3 倍。
推理效率和模型质量通常是相互矛盾的:模型越大通常质量越高,但模型越小推理效率越高。
使用 MoE 架构可以在模型质量和推理效率之间,实现比密集模型更好的平衡。
通过 Mosaic AI Model Serving 测量,DBRX 生成速度明显快于 LLaMA2-70B
比如,DBRX 的质量比 LLaMA2-70B 更高,而且由于活跃参数量大约是 LLaMA2-70B 的一半,DBRX 推理吞吐量最多可快 2 倍。
Mixtral 是 MoE 模型改进的「帕累托最优」(pareto frontier)另一个点:它比 DBRX 小,质量相对较低,但实现了更高的推理吞吐量。
在优化的 8 位量化模型服务平台上,Databricks Foundation Model API 推理吞吐量每秒多达 150 个 token。
企业免费用
企业可以在 Databricks 平台上访问 DBRX,能在 RAG 系统中利用长上下文功能,还可以在自己的私有数据上构建定制的 DBRX 模型。
而开源社区可以通过 GitHub 存储库和 Hugging Face 访问 DBRX。
项目地址:https://github.com/databricks/dbrx
项目地址:https://huggingface.co/databricks
因为 DATABricks 是完全基于数据库来构建 DBRX 的,因此每个企业用户都可以使用相同的工具和技术来创建或改进自己的定制化模型。
用户可以通过 Unity Catalog 中集中管理训练数据,使用 ApacheSpark 和 Lilac AI 提供的工具和服务进行处理和清理。
大规模的模型训练和微调由 DataBricks 前不久刚刚收购的 Mosaic AI 提供的服务。
对齐问题,也可以通过的他们的平台和服务解决。
纳斯达克,埃森哲等客户和合作伙伴已经用上了这一套服务和工具。
收购估值 13 亿公司,2 个月肝出来
外媒 Wired 的一篇报道,为我们详述了世界最强开源模型的诞生过程。
此前,Databricks 在业界已经小有名声。
在本周一,Databricks 的十几位工程师和高管,在会议室等待着最终的结果——
团队花费了数月时间,投入了大概 1000 万美元训练的 LLM,会取得怎样的成绩?
显然,能力测试最终结果出来之前,他们并不知道自己创造的模型有这么强大。
「我们超越了所有模型!」随着首席神经网络架构师、DBRX 团队负责人 Jonathan Frankle 宣布这一结果,成员们爆发出热烈的欢呼和喝彩声。
Databrick 的决策者:Jonathan Frankle,Naveen Rao, Ali Ghodsi,Hanlin Tang
是的,DBRX 就是这样超越了 Llama 2、Mixtral 这两个如今最流行的开源模型。
甚至马斯克的 xAI 最近开源的 Grok AI,也被 DBRX 打败了。
Frankle 开玩笑说:如果收到马斯克发出的一条刻薄的推特,我们就铁定成功了。
最令团队感到惊讶的是,DBRX 在多项指标上甚至接近了 GPT-4 这个机器智能的巅峰之作。
毫无疑问,DBRX 现在为开源 LLM 设立了全新的技术标准。
独角兽重振开源界
通过开源 DBRX,Databricks 进一步推动了开源运动,加入了 Meta 对抗 OpenAI 和谷歌的开源大潮。
不过,Meta 并没有公布 Llama 2 模型的一些关键细节,而 Databricks 会将最后阶段做出关键决策的过程全部公开,要知道,训练 DBRX 的过程,耗费了数百万美元。
艾伦人工智能研究所的 CEO AliFarhadi 表示,AI 模型的构建和训练,亟需更大的透明度。
Databricks 有理由选择开源。尽管谷歌等巨头过去一年里部署了 AI,但行业内的许多大公司,还还没有在自己是数据上广泛使用大模型。
在 Databricks 看来,金融、医药等行业的公司渴望类似 ChatGPT 的工具,但又担心将敏感数据发到云上。
而 Databricks 将为客户定制 DBRX,或者从头为他们的业务量身定做。对于大公司来说,构建 DBRX 这种规模模型的成本非常合理。
「这就是我们的大商机。」
为此,Databricks 去年 7 月收购了初创公司 MosaicML,引入了 Frankle 在内的多名技术人才。此前,两家公司内都没人构建过如此大的模型。
内部运作
Databricks 首席执行官 Ali Ghodsi
OpenAI 等公司,执着地追求更大的模型。但在 Frankle 看来,LLM 重要的不仅仅是规模。
怎样让成千上万台计算机通过交换机和光缆巧妙地连接在一起并且运转起来,尤其具有挑战性。
而 MosailML 公司的员工,都是这门晦涩学问的专家,因此 Databrick 去年收购它时,对它的估值高达 13 亿美元。
另外,数据对最终结果也有很大影响,或许也是因此,Databricks 并没有公开数据细节,包括数据的质量、清洗、过滤和预处理。
Databricks 副总裁、MosaicML 创始人兼 CEO Naveen Rao 表示:「你几乎可以认为,这是模型质量的重中之重。」
价值数百万美元的问题
有时候,训练一个庞大 AI 模型的过程不仅考验技术,还牵涉到情感上的抉择。
两周前,Databricks 的团队就遇到了一个涉及数百万美元的棘手问题:如何充分利用模型的潜能。
在租用的 3072 个强大英伟达 H100 GPU 上训练模型两个月后,DBRX 在多个基准测试中已经取得了卓越的成绩。但很快,他们可以使用的时间只剩下了最后一周。
团队成员在 Slack 上互抛主意,其中一个提议是制作一个专门生成计算机代码的模型版本,或者是一个小型版本供业余爱好者尝试。
团队还考虑了不再增加模型的大小,转而通过精心挑选的数据来提升模型在特定功能上的表现,这种方法称为课程学习。
或者,他们可以继续按原计划扩大模型的规模,希望使其变得更加强大。
最后这种做法被团队成员亲切地称为「随它去」选项,似乎有人对此格外情有独钟。
虽然讨论过程中大家都保持了友好,但随着各位工程师为自己青睐的方案力争上游,激烈的观点交锋不可避免。
最终,Frankle 巧妙地将团队的方向引向了以数据为中心的方法(课程学习)。两周后,这个决定显然带来了巨大的回报。
然而,对于项目的其他预期成果,Frankle 的判断就没那么准确了。
他原本认为 DBRX 在生成计算机代码方面不会有特别突出的表现,因为团队并没有将重点放在这一领域。
他甚至信心满满地表示,如果自己判断错误,就会把头发染成蓝色。
然而,周一的结果却显示,DBRX 在标准的编码基准测试上胜过了所有其他开源 AI 模型。
「我们的模型代码能力非常强。」他在周一的成果发布会上说道,「我已经预约了今天去染发。」
风险评估
最后还有一个问题,就是开源模型的风险。
DBRX 是迄今最强的开源大模型,任何人都可以使用或修改。
这是否会带来不可预知的风险,比如被网络犯罪或者生化武器滥用?
Databricks 表示,已经对模型进行了全面的安全测试。
Eleuther AI 的执行主任 Stella Biderman 说,几乎没有证据表明开源会增加安全风险。「我们并没有特别的理由相信,开放模型会比现有的封闭模型大幅增加风险。」
此前,EleutherAI 曾与 Mozilla 以及其他约 50 个组织和学者一道,向美国商务部长雷蒙多发出了一封公开信,要求她确保未来的人工智能监管为开源 AI 项目留出足够的发展空间。
信中专家们相信,AI 开源有利于经济增长,因为它们有助于初创企业和小企业接触到这项突破性的进展,还有助于加速科学研究。
而这也是 Databricks 希望 DBRX 能够做出的贡献。
Frankle 说,DBRX 除了为其他人工智能研究人员提供了一个新的模型和构建自己模型的有用技巧外,还有助于加深对 AI 实际工作原理的理解。
Databricks 团队计划研究模型在训练的最后阶段是如何变化的,也许能揭示一个强大的模型是如何涌现出额外能力的。
参考资料:
https://twitter.com/databricks/status/1772957294805856265?t=yM4Rma8C9RQPCmf0YoopMw&s=19
https://www.databricks.com/blog/introducing-dbrx-new-state-art-open-llm