书生·浦语20B模型在阿里云魔搭开源首发

9月20日,上海人工智能实验室等机构发布书生·浦语大模型(InternLM)200亿参数版本InternLM-20B,并在阿里云魔搭社区(ModelScope)开源首发、免费商用。书生·浦语大模型体系与魔搭社区建立重磅生态合作,共同推动中国大模型生态建设。

书生·浦语(InternLM)大语言模型由上海人工智能实验室联合多家机构共同推出。2023年6月,InternLM千亿参数(104B)语言大模型首次发布,现已经历多轮升级;7月,上海人工智能实验室开源书生·浦语70亿参数的轻量级版本InternLM-7B,且在业内率先开源贯穿数据、预训练、微调、部署和评测的全链条工具体系。InternLM-7B也已上线魔搭社区。

本次发布的InternLM-20B是一款中量级大模型,性能先进且应用便捷,模型基于2.3T Tokens预训练语料从头训练,相较于InternLM-7B,其理解能力、推理能力、数学能力、编程能力等都有显著提升。

相比于此前国内陆续开源的7B和13B规格模型,20B量级模型具备更强大的综合能力,复杂推理和反思能力尤为突出,能为实际应用场景提供更有力的性能支持;同时,20B量级模型可在单卡上进行推理,经过低比特量化后,可运行在单块消费级GPU上,因而在实际应用中更为便捷。

Copyright © DoNews 2000-2024 All Rights Reserved
蜀ICP备2024059877号-1     京ICP证151088号
京网文【2018】2361-237号