单机游戏大全免费

游戏大全

当前位置:首页 > 互联网 IT业界 > 发布几小时,微软秒删媲美GPT-4开源大模型!竟因忘记投毒测试

发布几小时,微软秒删媲美GPT-4开源大模型!竟因忘记投毒测试

admin 互联网 IT业界 70热度

  新智元报道

  编辑:编辑部

  前段时间,微软公布并开源了最新一代大模型 WizardLM-2,号称性能堪比 GPT-4。不过,还未上线一天,模型权重和公告全被删除了,原因竟是......

  上周,微软空降了一个堪称 GPT-4 级别的开源模型 WizardLM-2。

  却没想到发布几小时之后,立马被删除了。

  有网友突然发现,WizardLM 的模型权重、公告帖子全部被删除,并且不再微软集合中,除了提到站点之外,却找不到任何证据证明这个微软的官方项目。

  GitHub 项目主页已成 404。

  项目地址:https://wizardlm.github.io/

  包括模型在 HF 上的权重,也全部消失了.....

  全网满脸疑惑,WizardLM 怎么没了?

  然鹅,微软之所以这么做,是因为团队内部忘记对模型做「测试」。

  随后,微软团队现身道歉并解释道,自几个月前 WizardLM 发布以来有一段时间,所以我们对现在新的发布流程不太熟悉。

我们不小心遗漏了模型发布流程中所需的一项内容 :投毒测试

  微软 WizardLM 升级二代

  去年 6 月,基于 LlaMA 微调而来的初代 WizardLM 一经发布,吸引了开源社区一大波关注。

  论文地址:https://arxiv.org/pdf/2304.12244.pdf

  随后,代码版的 WizardCoder 诞生——一个基于 Code Llama,利用 Evol-Instruct 微调的模型。

  测试结果显示,WizardCoder 在 HumanEval 上的 pass@1 达到了惊人的 73.2%,超越了原始 GPT-4。

  时间推进到 4 月 15 日,微软开发者官宣了新一代 WizardLM,这一次是从 Mixtral 8x22B 微调而来。

  它包含了三个参数版本,分别是 8x22B、70B 和 7B。

  最值得一提的是,在 MT-Bench 基准测试中,新模型取得了领先的优势。

  具体来说,最大参数版本的 WizardLM 8x22B 模型性能,几乎接近 GPT-4 和 Claude 3。

  在相同参数规模下,70B 版本位列第一。

  而 7B 版本是最快的,甚至可以达到与,参数规模 10 倍大的领先模型相当的性能。

  WizardLM 2 出色表现的背后的秘诀在于,微软开发的革命性训练方法论 Evol-Instruct。

  Evol-Instruct 利用大型语言模型,迭代地将初始指令集改写成越来越复杂的变体。然后,利用这些演化指令数据对基础模型进行微调,从而显著提高其处理复杂任务的能力。

  另一个是强化学习框架 RLEIF,也在 WizardLM 2 开发过程中起到了重要作用。

  在 WizardLM 2 训练中,还采用了 AI Align AI(AAA)方法,可以让多个领先的大模型相互指导和改进。

  AAA 框架由两个主要的组件组成,分别是「共同教学」和「自学」。

  共同教学这一阶段,WizardLM 和各种获得许可的开源和专有先进模型进行模拟聊天、质量评判、改进建议和缩小技能差距。

  通过相互交流和提供反馈,模型可向同行学习并完善自身能力。

  对于自学,WizardLM 可通过主动自学,为监督学习生成新的进化训练数据,为强化学习生成偏好数据。

  这种自学机制允许模型通过学习自身生成的数据和反馈信息来不断提高性能。

  另外,WizardLM 2 模型的训练使用了生成的合成数据。

  在研究人员看来,大模型的训练数据日益枯竭,相信 AI 精心创建的数据和 AI 逐步监督的模型将是通往更强大人工智能的唯一途径。

  因此,他们创建了一个完全由 AI 驱动的合成训练系统来改进 WizardLM-2。

  手快的网友,已经下载了权重

  然而,在资料库被删除之前,许多人已经下载了模型权重。

  在该模型被删除之前,几个用户还在一些额外的基准上进行了测试。

  好在测试的网友对 7B 模型感到印象深刻,并称这将是自己执行本地助理任务的首选模型。

  还有人对其进行了投毒测试,发现 WizardLM-8x22B 的得分为 98.33,而基础 Mixtral-8x22B 的得分为 89.46,Mixtral 8x7B-Indict 的得分为 92.93。

  得分越高越好,也就是说 WizardLM-8x22B 还是很强的。

  如果没有投毒测试,将模型发出来是万万不可的。

  大模型容易产生幻觉,人尽皆知。

  如果 WizardLM 2 在回答中输出「有毒、有偏见、不正确」的内容,对大模型来说并不友好。

  尤其是,这些错误引来全网关注,对与微软自身来说也会陷入非议之中,甚至会被当局调查。

  有网友疑惑道,你可以通过「投毒测试」更新指标。为什么要删除整个版本库和权重?

  微软作者表示,根据内部最新的规定,只能这样操作。

  还有人表示,我们就想要未经「脑叶切除」的模型。

  不过,开发者们还需要耐心等待,微软团队承诺,会在测试完成后重新上线。

  参考资料:

  https://favtutor.com/articles/wizardlm-2-benchmarks/

  https://anakin.ai/blog/wizardlm-2-microsoft/

更新时间 2024-05-01 12:16:15