bhi2sgzs.jpg

該庫於今年 2 月發佈,可以在適度的硬件上訓練大規模的人工智能模型。它隻需要使用 800 塊 Nvidia V100 顯卡就可以創建具有萬億參數的深度學習模型,是目前世界上最大的模型的 5 倍多。如果沒有DeepSpeed,同樣的任務需要 4000 塊 Nvidia A100(性能比 V100 快2.5倍),而且事件縮短瞭 100 多天。

在 GPT-3 顯示模型在神經網和數據集越大的情況下繼續改進後,這個工具特別有用。然而,這確實有可能將最新的創新推到資源較少的小型團隊的范圍之外,但DeepSpeed已經允許這些團隊以最小的硬件與更大的服務競爭。轉移到雲處理可能會使大型模型AI訓練更容易獲得。

Source: m.cnbeta.com