|
 【產(chǎn)通社,12月17日訊】Graphcore官網(wǎng)消息,其C600 PCIe卡是為人工智能(AI)推理應(yīng)用獲得IPU能力提供了一種新方法。C600主打推理,兼做訓(xùn)練,可以支持各種主流的AI應(yīng)用,在搜索和推薦等業(yè)務(wù)上別具優(yōu)勢。 產(chǎn)品特點 C600在提供低延時、高吞吐量的同時不損失精度,幫助AI開發(fā)人員解決“精度與速度難兩全”的痛點,為AI應(yīng)用提供解鎖IPU強大算力的新路徑,以滿足客戶和機器智能從業(yè)者對于易用、高效以及更優(yōu)TCO推理產(chǎn)品的強烈需求。 每張C600使用單顆IPU處理器。在Graphcore經(jīng)典的Wafer-on-Wafer MK2 IPU的基礎(chǔ)上,C600增加了用于低精度和混合精度AI的FP8。C600所使用的單顆芯片可提供FP8浮點運算560 TFLOPS以及FP16浮點運算280 TFLOPS的AI計算能力,為C600帶來強大的算力引擎。 作為AI應(yīng)用推理部署的理想選擇,C600可滿足用戶從試驗到投產(chǎn)整個過程中對快速跟蹤IPU原型和速度的各種要求,同時大幅降低TCO(總體擁有成本)。 C600在提供強大的算力、易用性和靈活性的同時,還實現(xiàn)了低時延和低功耗,在運行典型工作負載時的散熱設(shè)計功耗僅為185瓦,可為運維人員大大減少數(shù)據(jù)中心運營開支,是采購決策者的高投資回報之選。 C600卡完全由Poplar這一完整的端到端軟件棧支持,用于開發(fā)、部署和監(jiān)控IPU上的AI模型推理及訓(xùn)練。Graphcore全面支持包括TensorFlow、Keras、ONNX、阿里云Halo、百度飛槳、OpenMMLab、HuggingFace、PyTorch和PyTorch Lightning在內(nèi)的標(biāo)準(zhǔn)機器學(xué)習(xí)框架,以及通過Poplar C++ APl訪問PopLibs。Poplar SDK還包括PopVision可視化和分析工具,為lPU提供性能監(jiān)測。 除了這些Poplar開發(fā)工具外,C600系統(tǒng)還具備對Docker容器等行業(yè)標(biāo)準(zhǔn)的融合基礎(chǔ)設(shè)施管理工具的軟件支持,以及對Slurm和Kubernetes的協(xié)調(diào)。 包括機架尺寸和電力輸送在內(nèi),市場中的數(shù)據(jù)中心配置千差萬別。以PCIe卡的形式提供IPU,是Graphcore對用戶對于PCIe卡熱切需求的回應(yīng),使得用戶能夠更加快速便捷地開始使用IPU產(chǎn)品。另外,這個高度通用的形態(tài)可以支持Graphcore的用戶以適合他們需求的方式配置他們的系統(tǒng)設(shè)置,包括主機服務(wù)器與機箱。 C600是一張PCIe Gen 4雙插槽卡,使用一個IPU,每個IPU具有1472個處理核心,能夠并行運行8832個獨立程序線程。每個IPU都有900MB的片上SRAM存儲。用戶可以在單個機箱中直接連接多達8塊卡,通過高帶寬的IPU-Links進行橋接。C600可搭配市場上主流的AI服務(wù)器使用,比如浪潮NF5468M6等。 供貨與報價 從發(fā)布之日起,C600即已在中國地區(qū)接受預(yù)購和評估申請,產(chǎn)品將在2023年1月份開始發(fā)貨。查詢進一步信息,請訪問官方網(wǎng)站 http://www.graphcore.ai/posts/graphcore-launches-c600-pcie-card-for-ai-compute。(Donna Zhang,張底剪報) (完)
|