DoNews 11月16日消息(记者 刘文轩)据 EnterpriseAI 消息,亚马逊打算把 Alexa 虚拟助理所需的部分运算功能,改由定制化设计的 Inferentia 机器学习推论芯片进行运算,不再采用 NVIDIA 提供的 GPU。
亚马逊称此举将有助于减少端对端延迟 25%,操作成本也能降低 30%。在推出 Inferentia 高性能机器学习推理芯片近两年后,亚马逊几乎完成了将 Alexa 文本到语音 ML 推理工作负载的大部分迁移到其 AWS EC2 平台上的 Inf1 实例。
亚马逊 Inferentia 芯片在 2018 年 11 月的 AWS re:Invent 大会登场。
AWS 发言人表示,虽然较低的延迟使 Alexa 工程师在工作中受益,但各行各业的客户也看到了类似的好处,因为他们转向机器学习来解决常见的案例,如个性化购物推荐、金融交易中的欺诈检测、增加客户与聊天机器人的互动等。通过 Inf1 实例,客户可以在云端以最低成本运行大规模的机器学习,以执行图像识别、语音识别、自然语言处理、个性化和欺诈检测等任务。