人工智能十問:越來越卷的AI,路在何方
最近幾年,人工智能經(jīng)歷了爆火、發(fā)展、再到最近的熱度逐漸下降,似乎人工智能已經(jīng)成了大廠才能玩的游戲。
究其原因,就是人工智能的「門檻」越來越高了。
前不久,谷歌AI的代表人物JeffDean發(fā)表了一個新的工作,但在行業(yè)內(nèi)卻引發(fā)了一陣不小的風波。究其原因,并不是工作本身有多么出色。這個研究只比最新結(jié)果提升了0.03%,但卻花費了價值57000多美元的TPU算力,這一下就炸鍋了。
很多人說,現(xiàn)在的AI研究已經(jīng)變成了拼算力、拼資源的代表,普通學者卷不動了。
還有很多人有這樣的疑惑:人工智能究竟給我們帶來了哪些改變?它除了下圍棋之外還會做什么,它的未來還會如何發(fā)展?
帶著這些問題,我們和馮霽博士進行了深入溝通。他是創(chuàng)新工場南京AI研究院的執(zhí)行院長、倍漾量化創(chuàng)始人,在AI領(lǐng)域有著多年的研究經(jīng)驗。通過這次對談,讓我們對AI未來的發(fā)展和落地有了新的認識。
1.人工智能創(chuàng)新,遇到天花板?
谷歌最近這個問題的確受到了挺多關(guān)注,我覺得有三個問題值得思考:
第一,大廠開始逐漸地走向「暴力美學」,也就是用「超大規(guī)模的數(shù)據(jù)」+「超大規(guī)模的算力」,暴力探索深度神經(jīng)網(wǎng)絡(luò)的天花板。不過,這種方法的邊界和極限在哪?
第二,從學術(shù)和科研的角度,這種方法是否是AI唯一的出路?事實上,目前已經(jīng)有大量研究在探索其他的技術(shù)路線,比如怎樣做到從感知智能往認知智能去做轉(zhuǎn)變、怎樣利用比較小的數(shù)據(jù)量解決人工智能遇到的問題,等等。
第三,對于工業(yè)界的實際應(yīng)用,是否真的需要如此大的算力?工業(yè)界有大量任務(wù)是非語音圖像文本相關(guān)的,這也是在倒逼著學術(shù)界去做一些比較高效的算法。
2.人工智能算法,只有深度神經(jīng)網(wǎng)絡(luò)?
90年代之前,「人工智能」的代表技術(shù)還是以「符號主義」為主,也就是基于邏輯推理,去做Planning、Searching這樣的技術(shù)。
2010年之后,迎來了人工智能的一次重要的轉(zhuǎn)變,那就是用神經(jīng)網(wǎng)絡(luò)技術(shù)去更好地表示這些感知類的任務(wù)。但是,目前還有大量的人工智能的「圣杯」問題沒有得到解決,比如怎樣做邏輯推理、怎樣做常識、怎樣更好地對記憶進行建模等等。
為了解決這些問題,是不是用深度神經(jīng)網(wǎng)絡(luò)就夠?這可能是目前學術(shù)界和工業(yè)界更關(guān)心的下一個重要的方向。
3.人工智能的未來:感知vs認知?
所謂的「感知人工智能」,其實就是最近幾年人工智能成功落地的代表性例子,比如圖像識別、語音轉(zhuǎn)文字,以及一些文本生成的任務(wù)等。
但更重要的是,怎么從這種感知類的任務(wù),轉(zhuǎn)向具有認知能力的任務(wù),尤其是怎么用人工智能的方式來實現(xiàn)邏輯推理、實現(xiàn)常識,從而真正實現(xiàn)通用人工智能?
針對這個問題,據(jù)我所知,學術(shù)界主要有三條技術(shù)路線。
第一,仍然沿著神經(jīng)網(wǎng)絡(luò)這條路,通過不斷地堆數(shù)據(jù)和算力嘗試解決問題。
第二,嘗試導(dǎo)入符號主義的技術(shù),也就是連接主義+符號主義的結(jié)合。
第三,繼續(xù)提升傳統(tǒng)的邏輯推理技術(shù),而這條路線也是最難的。?
4.數(shù)據(jù):數(shù)字時代的石油怎么采?
數(shù)據(jù)對于人工智能工程來說,重要性已經(jīng)越來越高了。工業(yè)界提出了一個新的概念,叫「以數(shù)據(jù)為中心」的開發(fā)模式。相比之下,之前叫做「以模型為中心」。
傳統(tǒng)情況下,工程師更多的時間會花在如何搭建一個模型、如何通過調(diào)參來讓這個系統(tǒng)的性能更好。但現(xiàn)如今,大家80%的注意力都放在如何讓數(shù)據(jù)集變得更好、如何讓訓練集變得更好、如何讓訓練集更平衡,然后讓這個模型在好的數(shù)據(jù)集上訓練,并得到比較好的結(jié)果。
隨著我們對數(shù)據(jù)隱私需求的逐漸增長,數(shù)據(jù)帶來的一些負作用以及非技術(shù)要求也越來越多了。比如當幾家機構(gòu)做聯(lián)合建模的時候,出于對數(shù)據(jù)隱私的保護,數(shù)據(jù)不能夠在機構(gòu)之間分享。所以像聯(lián)邦學習這樣的技術(shù),就是為了在保護數(shù)據(jù)隱私的前提下,實現(xiàn)聯(lián)合建模。
現(xiàn)在大家已經(jīng)逐漸地意識到,在具體的工業(yè)開發(fā)中每家機構(gòu)不一樣的地方就是他們的數(shù)據(jù)?,F(xiàn)在有了非常便利的軟件開源框架,也有了非常高效的硬件實現(xiàn),工程師就都轉(zhuǎn)而去關(guān)注數(shù)據(jù)了——這是一個ParadigmShift,也就是范式級別的轉(zhuǎn)變。
我自己孵化的倍漾量化,是以AI技術(shù)為核心的對沖基金。在公司內(nèi)部,每天需要存儲的數(shù)據(jù)量大概有25-30TB。因此我們就遭遇到了“內(nèi)存墻”的問題。
為了應(yīng)對海量數(shù)據(jù)對內(nèi)存帶來的壓力,我們把數(shù)據(jù)分成了冷數(shù)據(jù)、溫數(shù)據(jù)和熱數(shù)據(jù)?!袄鋽?shù)據(jù)”指的是,數(shù)據(jù)訪問的頻率不是很高,落庫就好?!盁釘?shù)據(jù)”是指,我們要做大量的讀寫任務(wù),而數(shù)據(jù)一般都比較散,每次讀寫的量又非常得大。那么如何把熱數(shù)據(jù)很好的進行分布式存儲?
和純SSD方案相比,現(xiàn)在會有更好的解決方案,比如傲騰持久內(nèi)存:它介于內(nèi)存跟SSD之間,可以將熱數(shù)據(jù)做分布式存儲,就能一定程度地減緩“內(nèi)存墻”的問題。
5.「AI-原生」的IT基礎(chǔ)設(shè)施,是否會出現(xiàn)?
現(xiàn)在有個很火的概念叫「云原生」,它促進了云計算基礎(chǔ)設(shè)施的重構(gòu)。而針對人工智能而生的「AI-原生」,也已經(jīng)實實在在地發(fā)生了。尤其在過去的10年,計算機的硬件創(chuàng)新其實都是在圍繞著人工智能應(yīng)用而發(fā)展的。
舉個例子,當前我們對于云端可信計算的需求越來越多了。比如AI模型的計算過程是一個公司的核心知識產(chǎn)權(quán),如果把它放到云端或者公有平臺上,自然會擔心計算過程有被竊取的風險。
在這種情況下,有沒有基于硬件的解決方案?答案是肯定的,比如我們就在使用英特爾芯片上的SGX隱私沙盒,它能夠以硬件的方式來保障我們的計算,這個其實是跨機構(gòu)之間合作的一個非常重要的基礎(chǔ)。
這就是一個非常典型的例子,也就是從需求出發(fā),推動芯片或硬件廠商提供相應(yīng)的解決方案。
6.人工智能硬件,就等于GPU?
這個觀點確實就比較片面了。以倍漾量化每天的工作來舉例,當我們在做量化交易的時候,如果把數(shù)據(jù)從CPU拷貝到GPU,再拷貝回來,對于很多量化交易的任務(wù)就已經(jīng)來不及了。也就是說,我們需要有一個非常高性能的、CPU版本的人工智能模型的實現(xiàn)。
再比如,我們有很多任務(wù)需要在網(wǎng)卡上直接對數(shù)據(jù)做分析和處理,而網(wǎng)卡上一般帶的是FPGA芯片,它處理的數(shù)據(jù)如果要傳到GPU上就更來不及了。對于這種低時延、又需要人工智能技術(shù)幫助的場景,我們需要一個異構(gòu)的架構(gòu)。
也就是說,不管是FPGA、ASIC,還是CPU、GPU,在不同的場景下,它們都有不同的用武之地。
關(guān)于異構(gòu)平臺的編程,我看到工業(yè)界已經(jīng)有了一些嘗試。比如英特爾的oneAPI,我覺得是蠻重要的一個工具。也就是說,oneAPI能讓同樣一套代碼能夠自動地適配CPU、FPGA或者其他類型的芯片。這樣將會大大地減少工程師的編程難度,也能夠讓他們專注在算法創(chuàng)新上。
我覺得,這對于推動異構(gòu)應(yīng)用非常重要。
7.未來人工智能發(fā)展的方向,還有哪些?
我覺得,可能需要一個更好的端到端的解決方案?,F(xiàn)在其實已經(jīng)從「軟件1.0」升級到了「軟件2.0」時代。也就是說,從傳統(tǒng)規(guī)則驅(qū)動的復(fù)雜軟件工程的構(gòu)建,變成了數(shù)據(jù)驅(qū)動的軟件工程構(gòu)建方法。
之前,我們要靠很高的聰明才智寫一系列精妙的系統(tǒng),才能讓整個程序能夠跑起來。這就類似于機械手表,最好的程序員們都把精力放在構(gòu)建“齒輪”的運轉(zhuǎn)、以及如何讓這個“手表”能夠跑起來。
現(xiàn)在,如果這一套運行的規(guī)則我不知道該怎么定,那就直接把它撂給大量的數(shù)據(jù)或者機器學習算法,這個算法會生成一個新的算法,而這個新的算法是我們想去得到的東西。這種方式,有點像去造一個造機器人的機器人。
在軟件2.0時代,整個軟件工程的開發(fā)范式將有一個很大的轉(zhuǎn)變,我們很希望得到一套端到端的解決方案,核心就是怎樣更方便地實現(xiàn)「以數(shù)據(jù)為中心」的軟件工程開發(fā)。
8.人工智能,未來如何落地?
我覺得大概有兩方面。第一,從工業(yè)界來看,還是要從第一性原理出發(fā),也就是基于自己的需求,并綜合考慮到很多的非技術(shù)因素。比如我看到有一個公司想做小區(qū)安防的人臉識別系統(tǒng),但每個出入口后面要配4個非常昂貴的GPU,這就是典型的沒有從需求和成本出發(fā)。
第二,學術(shù)研究未必要跟風。就像我們在剛開始時說到的那樣,對于模型的規(guī)模,并不需要相互攀比:你有一個千億的,我就要搞個萬億的,你有個萬億的我就要搞一個十萬億的。
其實有大量的任務(wù)都需要小規(guī)模的參數(shù),或者由于成本等限制,只能提供少量的樣本。在這種條件下,怎樣做創(chuàng)新和突破?這個是學術(shù)界應(yīng)該主動擔起的責任。
9.人工智能創(chuàng)業(yè),還是風口嗎?
我們可以想想看,90年代末期,建個網(wǎng)站都要花2-3萬元,因為當時會網(wǎng)絡(luò)編程技術(shù)的人鳳毛麟角。但是在今天,可能任何一個高中生,鼠標點一點就能建站。
也就是說,網(wǎng)絡(luò)知識已經(jīng)在每一個普通程序員的工具包里了。
其實,人工智能技術(shù)也是一樣。在2015年左右時,搭一套深度學習框架、還要在GPU上能跑起來,全球可能不超過1000個人。而現(xiàn)在經(jīng)歷了指數(shù)級別的增長,很多人都會了。我們有理由相信,大概在五年之后,隨便一個程序員的工具包里就有更為豐富的人工智能解決方案,它的實現(xiàn)的門檻肯定是在不斷降低的。也只有這樣,人工智能技術(shù)才能更為普遍地應(yīng)用在每一個公司。
所以,大廠里的AILab是必然會消失的。就像2000年前后,很多公司都有一個InternetLab,就是把公司所有跟網(wǎng)絡(luò)有關(guān)的事情專門搞一個實驗室,由這個實驗室向其他的業(yè)務(wù)部門做技術(shù)輸出。這是因為會這項技術(shù)的人特別少,他們才要做這件事情。
AILab也是一樣的,當AI技術(shù)落地的門檻逐漸降低時,大量業(yè)務(wù)部門的人也擁有類似的技術(shù),那這種AILab就必然會消失。我覺得這就是在技術(shù)發(fā)展過程中一個臨時產(chǎn)品,這是個好事情。當大廠沒有AILab的時候,大概就是人工智能真正遍地開花的年代。
10.人工智能,如何普惠大眾?
第一,我們還需要摩爾定律的加持?,F(xiàn)在還有大量的任務(wù)對算力的要求很大,我們必須不斷進行硬件的迭代和算法的更新。只有當需要在集群上跑的事情能在手機上跑,AI才可能有大量的落地。
第二,人工智能創(chuàng)新的重點,要從互聯(lián)網(wǎng)的業(yè)務(wù)轉(zhuǎn)向一些傳統(tǒng)的行業(yè)。之前大家的精力都在怎樣用人工智能做更好的視覺解決方案,或者更好的推薦系統(tǒng),或者更好的P圖軟件。但在實體經(jīng)濟中,其實也有大量產(chǎn)生數(shù)據(jù)的部門和業(yè)務(wù)。當這些實體經(jīng)濟數(shù)據(jù)能夠更好地信息化之后,它們所帶來的價值才可能遠超于目前的虛擬經(jīng)濟。
作者:老石
責任編輯:張燕妮
來源: AI科技評論、51CTO