5月5日,特斯拉發(fā)布人形機器人"擎天柱(Optimus)" 最新進(jìn)展視頻,展現(xiàn)了其分揀電池、行走、執(zhí)行工廠任務(wù)的能力,并配文"最近正在努力變得有用"。機器人發(fā)展"新奇點"的出現(xiàn),背后離不開大模型技術(shù)支撐。
大模型的出現(xiàn)徹底顛覆了機器人的軟件開發(fā)范式,預(yù)訓(xùn)練賦予了大模型知識壓縮的能力,因此模型可以通過大規(guī)模的預(yù)訓(xùn)練實現(xiàn)高泛化能力,不僅可以覆蓋絕大多數(shù)小概率場景(corner case),同時也降低了算法開發(fā)的復(fù)雜度。
隨著大模型多模態(tài)能力的持續(xù)迭代,大模型在具身智能領(lǐng)域的技術(shù)供給可以分為三個階段:
1)短期階段:以大語言模型(LLM)為主,LLM可以賦能人形機器人和人之間的交互,大幅度提高服務(wù)場景的智能化水平;但LLM無法參與機器人的規(guī)劃控制,所以無法在動作控制方面施加影響力;
2)中期階段:圖像-語言模型(VLM)有望賦能具身智能系統(tǒng),直接參與機器人的決策規(guī)劃系統(tǒng),但由于缺少動作模態(tài),所以決策系統(tǒng)與控制系統(tǒng)契合度較低;
3)遠(yuǎn)期階段:圖像 -語言-動作多模態(tài)模型(VLA)。把動作作為模態(tài)融合進(jìn)入大模型,得到了高度泛化能力和思維鏈能力的VLA,VLA模型成熟之后可基本實現(xiàn)具身智能功能。
大模型是"大算力+強算法"相結(jié)合的產(chǎn)物,是人工智能的發(fā)展趨勢和未來。與傳統(tǒng)機器學(xué)習(xí)相比,深度學(xué)習(xí)是從數(shù)據(jù)中學(xué)習(xí),而大模型則是通過使用大量的模型來訓(xùn)練數(shù)據(jù)。深度學(xué)習(xí)可以處理任何類型的數(shù)據(jù),例如圖片、文本等等;大模型可以訓(xùn)練更多類別、多個級別的模型,因此可以處理更廣泛的類型。
大模型的構(gòu)建及優(yōu)化離不開訓(xùn)練和推理兩大基石。訓(xùn)練以其對數(shù)據(jù)集和算力資源的龐大需求為我們所熟知,是大模型構(gòu)建的基礎(chǔ),通常需要數(shù)據(jù)中心級別算力支撐;訓(xùn)練可以提高模型的表示能力和泛化能力,使其能夠更好地使用各種實際情況。
推理,則是大模型優(yōu)化和應(yīng)用的關(guān)鍵。通過推理,開發(fā)人員可以定位模型中的潛在問題,如過擬合、欠擬合等,從而針對性地進(jìn)行調(diào)優(yōu)和優(yōu)化,提升模型的性能。并且,推理不需要和訓(xùn)練一樣循環(huán)往復(fù)的調(diào)整參數(shù),因此對算力需求也會低很多。
大模型訓(xùn)練調(diào)優(yōu)"賽程過半",推理隨著效率的不斷提高,逐漸展現(xiàn)于"聚光燈下"。超集信息針對大模型推理場景,推出了強大的企業(yè)級高性能GPU工作站——ServMAX® TS60-X4。
相較市場主流高性能工作站,TS60-X4在超集信息強大的產(chǎn)品設(shè)計能力下,實現(xiàn)高密集成,完成了單機4卡的算力限制突破,在雙路4th/5th Gen Intel® Xeon®平臺下最高可支持6張 450W 3.5寬GPU搭載。
提升算力同時,TS60-X4通過風(fēng)道優(yōu)化,保障了高效散熱。在30℃環(huán)溫的滿載壓力測試中,機內(nèi)關(guān)鍵算力芯片及內(nèi)存溫度均全程低于散熱閾值,有效規(guī)避過熱帶來的降頻等問題。
并且,大模型推理時不僅需要將數(shù)據(jù)量極大的大模型加載到內(nèi)存中,而且為避免使用外存進(jìn)行存儲和讀取,造成推理降速,還需將輸入數(shù)據(jù)和輸出結(jié)果也都完全加載到內(nèi)存中,因此需要占用大量內(nèi)存空間。TS60-X4擁有高達(dá)16個DDR5 DIMM內(nèi)存插槽,內(nèi)存容量最高可達(dá)1TB,可有效滿足推理場景下的需求。
隨著人工智能技術(shù)研究的深入及應(yīng)用場景的擴(kuò)展,推理技術(shù)備受推崇,迎來了更為廣闊的發(fā)展空間。未來,推理也將與其他技術(shù)相結(jié)合,在更多領(lǐng)域?qū)崿F(xiàn)更廣泛應(yīng)用,進(jìn)一步推動人工智能領(lǐng)域的創(chuàng)新和進(jìn)步。