近日,在著名开发者论坛github上,有技术大拿曝出猛料,他发帖称经过与他人的合作研究,发现在前段时间开源的盘古Pro MoE大模型存在造假的行为,因为这个模型疑似是通过拼接训练其他家公司的模型而得来的。

2025年6月30日,华为方面宣布对盘古Pro MoE720亿参数的混合专家模型开源,并表示此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

但在论坛中,有开发者通过模型的出来华为的MoE大模型是由Qwen模型拼接训练而来的。而Qwen模型,是巴巴所研发的一款大模型。

该开发者发帖称,随着目前训练成本飙升,以及模型复用的情况愈发普遍,所以很多大型语言模型 (LLM) 面临着严重的版权和知识产权盗窃问题。传统的水印方法很容易被他人抹去,于是有研究人员在大模型中加入了类似人类的“指纹”的标识,这一方法可以在很大程度上防范以上问题。

然而在华为最新开源的盘古Pro MoE模型,与Qwen-2.5 14B表现出极高的相关性,这说明华为的这一模型是“升级改造”,而非从零开始训练出来的。

开发者还晒出了证据,称QKV偏差分析显示,盘古模型与Qwen2.5-14B在三种投影类型(Q、K、V)上均表现出惊人的相似性。两个模型都表现出几乎相同的模式。

不仅如此,盘古的代码里竟然还出现Qwen 2024的license。

如果这一切证据能够证实盘古模型就是造假的话,那也能说明大模型之间的版权问题已经十分严重,同时所属公司所发布的技术报告也存在着捏造信息的行为。

目前,在github论坛上正有越来越多的开发者正在对此进行研究论证。

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com