近来,一项发布于 GitHub 与 arXiv 的研讨引发业界热议:华为推出的盘古大模型(Pangu Pro MoE)被发现与阿里巴巴达摩院发布的通义千问 Qwen-2.5 14B 模型在参数结构上“惊人共同”。
该研讨运用最新的“LLM 指纹”技能,指出两者之间在注意力权重输出空间的相似性高达0.927,远高于其他干流模型组合。
作者提出了一种黑盒大模型指纹识别技能,即使无法访问模型权重,也能经过 API 输出(如 logits 或 top-k 概率)判别模型之间是不是存在归属或承继联系。
“盘古 Pangu Pro MoE 与 Qwen-2.5 14B 模型在注意力模块中呈现 极高相似性 ,而这在其他模型比照中从未呈现。”
该成果意味着,Pangu 很可能在 Qwen 的基础上进行练习或修正,而非“从零自主研制”。
QKV 误差剖析显现,盘古模型和 Qwen2.5-14B 在三种投影类型(Q、K、V)上均表现出惊人的相似性。
这两个模型都表现出简直相同的形式,尤其是在前期层的特征峰值以及随后的收敛行为方面。
鉴于 QKV 误差是 Qwen 1代至2.5代的一个明显规划特征,而大多数开源模型(包含 Qwen3)抛弃了这种办法,这一点尤为重要。
特别声明:以上内容(如有图片或视频亦包含在内)为自媒体渠道“网易号”用户上传并发布,本渠道仅供给信息存储服务。
普京:与乌方就核心问题达成协议根本不可能,将把乌克兰境内的任何戎行视为合法打击目标
43岁女子被前夫殴伤生命垂危在ICU抢救,家族称她屡遭家暴离婚证相片脸部肿胀变形,嫌疑人已被刑拘
善恶有报,外表是轮椅舞者背面是三姐的刘岩,终是遭到反噬
《编码物候》展览开幕 北京年代美术馆以科学艺术解读数字与生物交错的世界节律