科技媒体marktechpost报道,英伟达于4月11日推出大型语言模型Llama-3.1-Nemotron-Ultra-253B-v1(简称Nemotron Ultra),其2530亿参数在推理能力、架构效率及生产适用性上取得显著进展。该模型基于Meta的Llama-3.1架构优化,专为商业场景设计,支持复杂指令执行与工具调用。
Nemotron Ultra采用密集Transformer结构,通过神经架构搜索和跳跃注意力机制提升效率,并结合前馈网络融合技术缩短推理时间。模型支持128K token上下文窗口,适用于长文本分析与高级RAG系统。此外,其可在单8xH100节点运行,降低部署成本。
经多阶段训练优化,包括监督微调和强化学习,Nemotron Ultra在代码生成、数学推理等任务中表现优异,兼顾高性能与人类交互偏好。这一突破为AI基础设施的规模化应用提供了新可能。