色偷偷偷久久伊人大杳蕉,色爽交视频免费观看,欧美扒开腿做爽爽爽a片,欧美孕交alscan巨交xxx,日日碰狠狠躁久久躁蜜桃

x
x

英偉達(dá)花30億美元打造AI芯片

發(fā)布時間:2017-5-12 09:49    發(fā)布者:eechina
關(guān)鍵詞: 英偉達(dá) , AI芯片 , 人工智能
來源:網(wǎng)易科技

據(jù)國外媒體VentureBeat報道,英偉達(dá)CEO黃仁勛今天發(fā)布了一款針對人工智能應(yīng)用的雄心勃勃的新處理器:Tesla V100。

該新芯片擁有210億個晶體管,性能比英偉達(dá)一年前發(fā)布的帶150億個晶體管的Pascal處理器強(qiáng)大得多。它是一款很大的芯片——815平方毫米,大小約為Apple Watch智能手表的表面。它擁有5120個CUDA(統(tǒng)計計算設(shè)備架構(gòu))處理核心,雙精度浮點運算性能可達(dá)每秒7.5萬億次。

作為全球最大的圖形芯片和AI芯片廠商,總部位于加州圣克拉拉的英偉達(dá)在加州圣何塞舉行GPU技術(shù)大會,并發(fā)布了上述產(chǎn)品。

黃仁勛稱英偉達(dá)花了30億美元打造這款芯片,基于8塊Tesla V100搭建的DGX-1也開始預(yù)售,價格為149000美元,預(yù)計在今年第三季度交付。

在介紹該款芯片之前,黃仁勛談到了AI近年的發(fā)展史。他指出,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)研究大約5年前開始帶來成果,那個時候研究人員開始利用圖形處理器(GPU)來處理數(shù)據(jù),同時利用它們來快速訓(xùn)練神經(jīng)網(wǎng)絡(luò)。自那時起,深度學(xué)習(xí)技術(shù)呈現(xiàn)加速發(fā)展。今年,英偉達(dá)打算培訓(xùn)10萬個開發(fā)者使用該項技術(shù)。

Tesla V100另稱為Volta,針對深度學(xué)習(xí)而打造,Tensor性能可達(dá)每秒120萬億次浮點運算。它能夠每秒傳輸300GB的數(shù)據(jù),速度相當(dāng)于時下其它處理器的20倍。該款芯片由三星代工生產(chǎn)。

該芯片針對深度學(xué)習(xí)訓(xùn)練的Tensor浮點運算性能達(dá)到去年發(fā)布的Pascal處理器的12倍。這種處理速度很有必要,因為深度學(xué)習(xí)算法的進(jìn)展令人驚嘆。

2015年,微軟打造了一個名為ResNet的深度學(xué)習(xí)項目,該項目非常復(fù)雜,需要每秒7百億億次浮點運算的處理能力。百度2016年打造的Deep Speech 2 AI需要每秒20百億億次浮點運算的處理能力,谷歌2017年打造的NMT則需要每秒105百億億次浮點運算的處理能力。

微軟正在開發(fā)一個新的ResNet版本,ResNet會同時使用64個Tesla V100芯片來進(jìn)行處理。目前還不清楚Tesla V100批量出貨的時間。

本文地址:http://m.54549.cn/thread-363484-1-1.html     【打印本頁】

本站部分文章為轉(zhuǎn)載或網(wǎng)友發(fā)布,目的在于傳遞和分享信息,并不代表本網(wǎng)贊同其觀點和對其真實性負(fù)責(zé);文章版權(quán)歸原作者及原出處所有,如涉及作品內(nèi)容、版權(quán)和其它問題,我們將根據(jù)著作權(quán)人的要求,第一時間更正或刪除。
您需要登錄后才可以發(fā)表評論 登錄 | 立即注冊

關(guān)于我們  -  服務(wù)條款  -  使用指南  -  站點地圖  -  友情鏈接  -  聯(lián)系我們
電子工程網(wǎng) © 版權(quán)所有   京ICP備16069177號 | 京公網(wǎng)安備11010502021702
快速回復(fù) 返回頂部 返回列表