亞馬遜 Alexa 運算改用自主芯片 減少對 NVIDIA 的依賴

DoNews 11月16日消息(記者 劉文軒)據 EnterpriseAI 消息,亞馬遜打算把 Alexa 虛擬助理所需的部分運算功能,改由定製化設計的 Inferentia 機器學習推論芯片進行運算,不再採用 NVIDIA 提供的 GPU。

亞馬遜稱此舉將有助於減少端對端延遲 25%,操作成本也能降低 30%。在推出 Inferentia 高性能機器學習推理芯片近兩年後,亞馬遜幾乎完成了將 Alexa 文本到語音 ML 推理工作負載的大部分遷移到其 AWS EC2 平台上的 Inf1 實例。

亞馬遜 Inferentia 芯片在 2018 年 11 月的 AWS re:Invent 大會登場。

AWS 發言人表示,雖然較低的延遲使 Alexa 工程師在工作中受益,但各行各業的客戶也看到了類似的好處,因為他們轉向機器學習來解決常見的案例,如個性化購物推薦、金融交易中的欺詐檢測、增加客戶與聊天機械人的互動等。通過 Inf1 實例,客戶可以在雲端以最低成本運行大規模的機器學習,以執行圖像識別、語音識別、自然語言處理、個性化和欺詐檢測等任務。


想在手機閱讀更多中國內地資訊資訊?下載【香港矽谷】Android應用
分享到Facebook
技術平台: Nasthon Systems