|
2019年底,IDC預(yù)測用于AI系統(tǒng)的全球支出將在2023年增至979億美元,差不多是2019年375億美元的三倍。即使是新冠肺炎疫情在2020年帶來的重創(chuàng)也沒有減緩AI的拐點(diǎn)。 作為人工智能(AI) 專家,關(guān)注新興趨勢以及技能多樣化機(jī)會(huì)以便對(duì)新趨勢加以利用是一種明智的做法。我們找出了三個(gè)供您考慮的領(lǐng)域。每一個(gè)領(lǐng)域都有可能幫助您更充分地應(yīng)對(duì)專家所預(yù)測的爆炸式增長。 AIoT嵌入式系統(tǒng) 一直到最近,開發(fā)人員都只考慮在數(shù)據(jù)中心進(jìn)行嚴(yán)肅的數(shù)據(jù)處理。本地處理原本不是考慮選項(xiàng)。但是現(xiàn)在,超級(jí)計(jì)算機(jī)的性能已經(jīng)跨過了大小、成本和功率要求方面的重要門檻。英偉達(dá) (NVIDIA) 在2020年5月發(fā)布的Jetson Xavier NX開發(fā)套件價(jià)格不到400美元,僅需10瓦的功率即可運(yùn)行。該套件提供高達(dá)21 TOPS的計(jì)算力,強(qiáng)大功能可并行運(yùn)行現(xiàn)代神經(jīng)網(wǎng)絡(luò)并處理來自多個(gè)高分辨率傳感器的數(shù)據(jù),完美契合整個(gè)AI系統(tǒng)所需。其他競爭對(duì)手也在緊緊追趕。 這些進(jìn)步大大簡化了云連接型AI和ML多模應(yīng)用(圖1)的開發(fā)。設(shè)想以下情景:建立一個(gè)先進(jìn)實(shí)時(shí)視頻和熱成像處理系統(tǒng),用于探測發(fā)燒訪客或被列入“禁止入內(nèi)”名單的個(gè)人所帶來的潛在威脅。即使運(yùn)用5G,要將高分辨率的實(shí)時(shí)視頻和熱傳感器數(shù)據(jù)上傳到云端,在遠(yuǎn)程服務(wù)器場進(jìn)行處理,然后等待面部識(shí)別和風(fēng)險(xiǎn)評(píng)估評(píng)分算法完成工作并在數(shù)分鐘后回傳結(jié)果也是不切實(shí)際的。唯一的解決方案是在本地處理實(shí)時(shí)數(shù)據(jù),以便系統(tǒng)可以快速評(píng)估威脅級(jí)別。 現(xiàn)在,這種理論上的系統(tǒng)可用標(biāo)準(zhǔn)攝像頭、熱成像設(shè)備以及這款8核英偉達(dá)設(shè)備來實(shí)現(xiàn)。作為完整的開發(fā)套件,英偉達(dá)的這套設(shè)備售價(jià)不到400美元,F(xiàn)在,預(yù)訓(xùn)練模型中已經(jīng)包括常見的AI應(yīng)用程序構(gòu)建塊,例如對(duì)象檢測、文本轉(zhuǎn)語音、分類、推薦引擎、語言翻譯、情感分析等。如果從這些模型開始,然后針對(duì)特定的用例進(jìn)行調(diào)整,那么在開發(fā)具備上述功能的應(yīng)用時(shí)速度就會(huì)顯著加快。英偉達(dá)GPU云 (NGC) 模型庫提供數(shù)百種此類模型,以快速啟動(dòng)常見AI任務(wù),而且針對(duì)Jetson Xavier和公司其他產(chǎn)品的模型優(yōu)化也已完成。在您的項(xiàng)目開始運(yùn)行后,只需通過更新幾個(gè)層即可輕松地重新訓(xùn)練這些模型,大大節(jié)省了時(shí)間。 這些功能強(qiáng)大的超級(jí)計(jì)算機(jī)不僅適合上述智能攝像頭項(xiàng)目,還可用于構(gòu)建無限數(shù)量的其他高性能AI系統(tǒng),例如醫(yī)療儀器、自動(dòng)光學(xué)檢查、商業(yè)應(yīng)用機(jī)器人等。 自然語言生成/對(duì)話式AI 自然語言生成方面的重大進(jìn)展,特別是微軟的Turing Natural Language Generation (T-NLG),為AI開發(fā)人員打開了一些曾經(jīng)不可企及的大門。但這一點(diǎn)只有通過靈活機(jī)變的工程技術(shù)才能實(shí)現(xiàn)。 即使擁有32GB的RAM,一塊GPU也無法適配參數(shù)超過13億的模型。微軟團(tuán)隊(duì)通過多項(xiàng)硬件和軟件技術(shù)突破解決了這個(gè)問題。他們運(yùn)用了英偉達(dá)的一種可實(shí)現(xiàn)GPU之間超速通信的硬件,并應(yīng)用張量切片將這一模型分給四塊GPU。模型并行度由此從16降至4,從而使每個(gè)節(jié)點(diǎn)的批處理大小增加了400%,訓(xùn)練速度也因此提高了三倍。因此DeepSpeed僅使用256塊GPU即可訓(xùn)練大小為512的批處理,而采用以前的配置則需要1024塊GPU。而且,您無需理解上一段內(nèi)容也可以開始使用這項(xiàng)技術(shù)。 T-NLG于2020年2月發(fā)布的β測試版讓使用完整句子回答搜索查詢成為可能,能夠?qū)崟r(shí)生成會(huì)話語言。想象一下:一個(gè)聊天機(jī)器人足夠智能,可以用您的語言交流,并且能做出頭頭是道的應(yīng)答。 T-NLG是已經(jīng)發(fā)布的最大型號(hào),包含170億個(gè)參數(shù),使開發(fā)人員能夠創(chuàng)建可以幫助作者撰寫內(nèi)容或總結(jié)長篇摘要的應(yīng)用。另外,它還可能讓人們制造出比以往類型“聰明”得多的數(shù)字助理,以改善客戶體驗(yàn)。我們相信,探索自然語言生成工具可幫助任何AI開發(fā)人員培養(yǎng)在未來幾年內(nèi)極具市場價(jià)值的新技能。 著手使用T-NLG可能要比您想象的更簡單,如果您已經(jīng)在使用Python則更是如此。前往GitHub并探索DeepSpeed存儲(chǔ)庫(兼容PyTorch),深入了解其中內(nèi)容。這個(gè)API庫使用深度學(xué)習(xí)模型讓分布式訓(xùn)練變得簡單、高效且富有成果。這些模型增大了十倍,速度快五倍,讓您利用千億個(gè)參數(shù)在創(chuàng)紀(jì)錄的時(shí)間內(nèi)完成模型訓(xùn)練。 神經(jīng)網(wǎng)絡(luò)與進(jìn)化計(jì)算 數(shù)據(jù)庫通常是AI系統(tǒng)和應(yīng)用的瓶頸。這個(gè)問題無法簡單地通過更大處理能力或內(nèi)存來解決。一個(gè)值得關(guān)注的趨勢是神經(jīng)網(wǎng)絡(luò)在數(shù)據(jù)庫系統(tǒng)設(shè)計(jì)中的應(yīng)用。 麻省理工和Google設(shè)計(jì)的一個(gè)實(shí)驗(yàn)性數(shù)據(jù)管理系統(tǒng)用一個(gè)神經(jīng)網(wǎng)絡(luò)代替了核心組件,與優(yōu)化緩存的B樹相比,性能最多提高70%,同時(shí)降低了內(nèi)存要求。 “學(xué)習(xí)索引”快速學(xué)習(xí)數(shù)據(jù)庫的查找鍵結(jié)構(gòu),并使用它們來預(yù)測記錄位置。神經(jīng)網(wǎng)絡(luò)有可能對(duì)未來的系統(tǒng)設(shè)計(jì)產(chǎn)生顯著影響,因此我們認(rèn)為這是一個(gè)值得探討的主題。所以請選定一個(gè)主題:AIoT、NLG或神經(jīng)網(wǎng)絡(luò)計(jì)算;也可以全選! 然后做好準(zhǔn)備,去駕馭必將激動(dòng)人心的AI創(chuàng)新浪潮。 文章來源:貿(mào)澤電子 作者簡介:Stephen經(jīng)常受邀為《財(cái)富》100強(qiáng)企業(yè)提供總體產(chǎn)品戰(zhàn)略和架構(gòu)設(shè)計(jì)方面的建議,尤其是在涉及工作流管理、電子商務(wù)、人工智能和機(jī)器學(xué)習(xí)的領(lǐng)域,他對(duì)當(dāng)前流程有著客觀的看法。他建議在戰(zhàn)略上進(jìn)行小幅調(diào)整,以產(chǎn)生長期重大收益以及快速的投資回報(bào)。作為首席技術(shù)官/首席系統(tǒng)架構(gòu)師,Stephen深刻了解搭建成功的“軟件即服務(wù)”平臺(tái)所需的一切。一般是通過基于云的可擴(kuò)展架構(gòu),將多個(gè)舊系統(tǒng)組合在一起,讓復(fù)雜數(shù)據(jù)集能夠以安全、統(tǒng)一的視圖呈現(xiàn)給用戶。 |