DoNews11月14日消息,在 Yi-34B 的 Hugging Face 开源主页上,开发者 ehartford 质疑称该模型使用了 Meta LLaMA 的架构,只对两个张量(Tensor)名称进行了修改,分别为 input_layernorm 和 post_attention_layernorm。
据IT之家报道,ehartford 表示开源社区肯定会重新发布 Yi 大模型,并重命名张量以符合 LLaMA 架构。他希望该公司在模型获得大量采用之前考虑将这一更改应用到官方模型中。
与此同时,14日,网上今日流传着一张原阿里首席 AI 科学家贾扬清的朋友圈,该内容称“某国内大厂新模型 exactly 就是 LLaMA 的架构,但是为了表示不一样,把代码里面的名学从 LLaMA 改成了他们的名字,然后换了几个变量名”。
截至发文,零一万物官方暂未进行回应。