導航菜單

阿里云全面升級GPU云服務:AI大模型推理性能可提升100%

導讀 7月19日消息,阿里云推出全面升級的GPU云服務,通過全新優(yōu)化GPU套件,多GPU推理服務性能可最大提升100%。針對調用GPU算力最常用的容器技術...

7月19日消息,阿里云推出全面升級的GPU云服務,通過全新優(yōu)化GPU套件,多GPU推理服務性能可最大提升100%。

針對調用GPU算力最常用的容器技術,阿里云推出ACK云原生AI套件,幫助開發(fā)者及企業(yè)更高效地開發(fā)和部署AI應用,加速大模型應用落地。

隨著AI大模型的體量變大、應用變廣,單GPU已難以承載推理應用的全部需求,多GPU推理時代已經(jīng)到來,如何在GPU資源緊缺的當下,實現(xiàn)GPU高效互聯(lián),是提升多GPU推理性能的關鍵。

阿里云通過進一步優(yōu)化底層的AI通信加速庫DeepNCCL,讓GPU云服務在推理場景下有更好的性能表現(xiàn):在同等硬件環(huán)境下,Token輸出吞吐至少提升14%,首Token時延降低15%。

通過深度優(yōu)化,推理加速性能也提升顯著,Token處理能力提升100%,相同的資源可以支持2倍的業(yè)務需求,用Kubernetes容器集群技術調用GPU算力,已成為運行AI大模型任務的主流選擇。

ACK容器服務可提供自動化編排及GPU高效管理和調度的能力,讓模型部署、擴展變得更簡單。

為進一步提升AI應用運維效率,阿里云推出ACK云原生AI套件,可實現(xiàn)Kubernetes在GPU調度和細粒度共享、AI任務調度、訓練數(shù)據(jù)加載以及大模型推理服務啟動等關鍵領域的能力增強和加速,相較開源均有大幅能力提升。

比如,針對AI任務頻繁加載遠程存儲數(shù)據(jù)的需求,ACK云原生AI套件可提升訓練數(shù)據(jù)讀取性能30%以上,降低大模型推理服務冷啟動時延70%以上。

在全球累計超過1000萬活躍用戶的國產(chǎn)AI繪畫工具海藝AI,就是通過ACK調用阿里云GPU云服務的先行者。

此前,用戶通過海藝AI生成一張圖片平均耗時20秒,遇到隊列等待延遲可上升至分鐘級;采用阿里云GPU云算力及ACK容器服務后,海藝AI的模型切換完全無感,推理耗時降低至3.95秒,整體性能提升至少50%以上。

在最新的Forrester 全球AI基礎設施解決方案研究報告中,阿里云綜合產(chǎn)品能力指標位居全球第二,已成為中國AI大模型的公共底座。

零一萬物、百川智能、智譜AI、昆侖萬維、vivo、復旦大學、巨人網(wǎng)絡等大批企業(yè)和機構在阿里云上訓練大模型,并通過阿里云對外提供服務。

小鵬汽車、聯(lián)想、德勤、微博、完美世界、喜馬拉雅等已接入阿里云通義大模型,在阿里云上為消費者和客戶提供豐富的AI應用服務。

免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

猜你喜歡:

最新文章: