Lifestyle

她琴棋書畫全能,還進入清華計算機系實驗室,被贊智商太超群、能力過強悍

金磊 楊凈 發自 凹非寺 

量子位 報道 | 公眾號QbitAI

最特殊,沒有之一。

她叫華智冰,沒有參加過任何升學考試,沒有拿過任何競賽名次。

卻被清華大學計算機科學與技術系知識工程實驗室,“破格錄取”

而且就這麼一位學生,還得舉三個單位(研究所、企業)之力,聯合培養

就連實驗室主任唐傑,一開始也是再三猶豫,“是否能hold得住這個學生”。

為什麼?到底什麼來頭?

只因智商太超群、能力過強悍

華智冰剛誕生,便可繪畫作詩

在經過一段時間的訓練后,竟還可以做曲

或許你已經有所發覺。

華智冰,她並不是人

而是中國首位原創虛擬學生

沒錯,她那張逼真的臉,也是合成的。

“超級學霸”華智冰

要想深入了解華智冰,先要知道她從哪裡來

華智冰是這樣自我介紹的:

我來自智源研究院智譜AI(智譜華章科技有限公司)和小冰的人工智能團隊。

這就不難理解她名字的由來了,是從三方名字中各取了一個字。

華智冰自誕生以來,便對寫詩作畫有着濃厚的興趣。

先來感受一下出自華智冰之手的作品。

一幅中國水墨畫勾勒出的風景,別有一番“山水悠遠,墨韻舒爽”的風味。

此情此景之下,就着“智源大會2021”這一主題所創作出來的七言律詩,在不失本意的基礎上,也有慷慨激越之意。

而華智冰的畫風不僅限於此,山水田園油畫也是拿捏得很到位,亦可即興創作春意盎然的現代詩歌。

除了寫詩、作畫,作曲也是華智冰的拿手強項。

來聽一下這曲風。

華智冰創作的音樂來自量子位00:0001:39

雖說能力至此,但學霸畢竟是學霸,好學的本質和人類還真沒有差別。

用華智冰自己的話來說就是:

我深深的感受到了自己的不足。

(講真,有被打擊到……)

這也就是她來到清華大學,來到唐傑老師實驗室繼續深造的主要原因。

除此之外,華智冰也想了解自己的身世——“我是怎麼誕生的”、“我能理解我自己嗎”。

於是,在唐老師的“講解”之下,華智冰開始學習人工智能發展脈絡:

華智冰學習人工智能的發展脈絡

而華智冰要學習還遠不止於此,作為一名具有超強學習能力的學生,她的課程安排和其他學生有着較大的區別:

幾乎可以涵蓋所有領域。

至於先學什麼,只是一個選擇問題而已。

華智冰的導師唐傑對此是這樣評價的:

如果說她今天只有6歲,也許明年可以是12歲,她的學習速度遠遠超過我們人類。

至於何時“畢業”,唐傑希望是在華智冰22歲的時候,而且在這一過程中,最難的不是學習知識,“而是認知過程”。

那麼問題來了,華智冰為什麼能夠擁有如此強悍的學習和創作能力?

全球最大預訓練模型加持

與以往的虛擬人不同,華智冰的核心差異點,便是智譜AI的數據和知識的雙輪驅動引擎。

其中,數據輪要能歸納,“舉十返一”;知識輪要能根據知識進行邏輯推理,做到“舉一反三”。具體來說,雙輪驅動的數據部分,就是“悟道2.0”。

一個超大規模預訓練模型,而在知識部分,則是智譜AI搭建的一個性能穩定,規模巨大的知識圖譜。

這樣,華智冰背後的引擎,就具有了一定的認知和推理能力,也有了學習計算機專業知識的基礎。

華智冰還擁有小冰公司在虛擬人技術上,20多年的研究積累,包括計算機視覺、自然語言處理、計算機語音、人工智能創造的情感交互框架、檢索模型、生成模型、共感模型等。

這就讓她已經站在了普通虛擬人的“肩膀”之上。

但更重要的是,華智冰還擁有一項“bug級”技能加點——悟道2.0,全球最大預訓練模型。

悟道2.0的特點如下:

  • 最大:中國首個全球最大萬億模型,1.75萬億參數規模

  • 通用:一統文本與視覺兩大陣地,支撐更多任務,更通用

  • 國產:首次在100%國產超算上訓練萬億模型

  • 知識:中英雙語,在共4.9T的高質量清洗數據上訓練

與其說悟道2.0是一個語言模型,更確切的說法應當是一位“全能型选手”

正如華智冰所具備的實力一樣,悟道2.0在問答、繪畫、作詩、視頻等任務中正在逼近圖靈測試

而且還是得到了官方認可的那種:

在世界公認的9項Benchmark上獲得了第一的成績。

再究其背後,還有三個夯實的基石,保障了悟道2.0的強悍性能。

首先,是算法基石——FastMoE

在過去的大規模預訓練模型中,MoE可以說是一個必要的條件。

它是⼀個在神經⽹絡中引⼊若⼲專家⽹絡的技術,能直接推動預訓練模型經從億級參數到萬億級參數的跨越。

但缺點也是非常明顯,需要與昂貴的硬件強關聯、強綁定。

而作為⾸個支持PyTorch框架的MoE系統,FastMoE便打破了分佈式訓練的瓶頸,還並針對神威架構進行了優化,可在國產超算上完成訓練。

其次,是自研的最大英文通用預訓練模型——GLM 2.0

據了解,新一代的GLM模型以100億的參數量, 匹敵微軟170億參數的Turing-NLG模型,能在LAMABADA填空測試中表現更優。

最後,還有世界最大中文多模態生成模型——CogView

它的參數量達到了40億,可直接從中文文字生成圖像。

並且在MS COCO文本生成圖像任務權威指標FID上,CogView還打敗OpenAI今年年初發布的130億參數的DALL·E,獲得世界第一

數據驅動夯實的基本功,還有強悍知識驅動的加持,這便是華智冰超於以往虛擬人的關鍵點。

悟道的野心還不止如此。

除了自身的能力,它還能為廣大開發者、技術公司,以及傳統企業提強大而通用的智能服務底層系統,僅通過模型微調實現領域模型的構建,避免不必要的重複模型訓練。

通過這種智能賦能的方式,“悟道2.0”之上將會出現一個超大規模的智能模型應用生態。在智譜AI負責的應用平台上,已經出現了不少有趣的應用(見文末鏈接)。

比如,在故事生成專區里,有開發者做的應用可以創作時下最為流行的邏輯推理遊戲——劇本殺的腳本。

劇本殺故事本身所具有的強邏輯性、環環相扣的特點,多數玩家應當是深有體會。

這些應用已經上線了,大家可以體驗一下!

以為這就完了?

不不不。

還能寫論文和策論

只要給定標題、分論點和關鍵詞,即可生成一段邏輯嚴謹的文字片段。

歸總一句話,這個關鍵點能夠推動的,便是讓機器能像人一樣“思考”。

“煉大模型就像建一個粒子加速器”

由此延伸,隨之浮出的一個問題便是:

為什麼大模型如此重要?,人工智能的發展,似乎已經從“大煉模型”逐步邁向了“煉大模型”的階段。

從谷歌的BERT,到OpenAI的 GPT-3、Dall·E,以及越來越多的大模型湧現。

一個模型的定義,不再僅局限於“算力+算法”,還要整合盡可能多的數據。

整理成式就是,模型=數據+算力+算法。

通過設計先進的算法,整合盡可能多的數據,匯聚大量算力,集約化地訓練大模型,供大量企業使用。

但與此同時,伴隨而來的爭議也十分明顯:

太燒錢!

一般企業是承受不了的。而燒錢之後所能達到的效果,也是差強人意。

那要不要做?值不值得做?成為世界上一些國家、大型企業所面臨的難題。

清華大學人工智能研究院院長、中國科學院院士張鈸教授,則肯定表示——要做!

沒有大模型就相當於沒有粒子加速器,就不能做進一步研究。

而要做的比他們的規模要大,等於說加速器的加速度,研究人員就能看到一些別人觀察不到的現象。

這也是悟道系列在內所有大模型的科學價值。

不過,張鈸院士也強調,不要抱有太大希望,也建議不要一擁而上。

不要以為說大模型出來后什麼問題就解決了。只能說有了大模型之後,還要去進一步研究,將來也不會被人卡住。

誰都想去做,實際上這其實沒有必要,少數人去做就可以了。

而作為當前全球最大的預訓練模型悟道2.0,已經在探索大模型的產業價值

智譜AI首席科學家、清華大學教授唐傑表示,如果分成不同階段,悟道1.0的定位是追趕世界頂尖水平,那麼悟道2.0就是單點突破,從單個特性超過它。

我們發布出來一個給大家所有人都可以用的,助力這個產業變成一個開放的生態。這是悟道2.0與悟道1.0最不同的地方。

至於是什麼契機創造這麼一個虛擬大學生——華智冰,唐傑坦言主要有兩方面原因。

第一,很簡單。華智冰充當一個載體,來驗證悟道2.0的有效性。

第二個原因,則是虛擬形象技術本身。

試想一下,未來10到20年,人類社會也許會有幾十億的虛擬人與我們共存。

AI也逐漸從現在的算法滿滿變成一個主體,而虛擬人形象正好是這樣一個主體的依託。

正如人的大腦意識和身體軀殼一般。

現在,華智冰也許是未來社會虛擬人的一個縮影。

通過持續學習和演化,最後成為一個有着豐富知識和與人類有很強交互能力的機器人。

然而,調皮的網友卻關心起了“人之常情”的問題來:

華智冰會談戀愛嗎?

研究人員回應道:

不用擔心談戀愛,會把心思用在學習上。

,人工智能,唐傑,計算機,算法

You may also like