Nervana NNP-I是以10nm製程設計的Ice Lake處理器為基礎,可藉由最低耗電執行神經網路運算等人工智慧應用加速,每瓦約可發揮4.8TOPs效能,並且能以更低功耗執行運作,同時也能配合Xeon系列處理器進行推論運算加速,目前已經應用在Facebook旗下數據中心。
在Hot Chips 2019中,Intel揭曉代號「Spring Hill」的人工智慧運算處理器Nervana NNP-I,主要針對大型數據中心運算需求打造,並且導入人工智慧技術加速應用。
根據Intel說明,Nervana NNP-I是以10nm製程設計的Ice Lake處理器為基礎,可藉由最低耗電執行神經網路運算等人工智慧應用加速,而Facebook已經開始導入此款處理器,應用在旗下數據中心運作。
在此之前,Intel已經攜手百度打造代號「Spring Crest」的人工智慧處理器Nervana NNP-T,最主要是應用在人工智慧訓練需求,此次推出的Nervana NNP-I則會應用在人工智慧技術應用推論加速,藉此提昇數據分析處理應用效率,因此預期會應用在大型數據中心,藉此加快各類網路運算速度表現。
在Nervana NNP-I運作表現方面,每瓦約可發揮4.8TOPs效能,並且能以更低功耗執行運作,同時也能配合Xeon系列處理器進行推論運算加速。 |
|