謝謝各位。我今天的主題是大模型在自動駕駛業務上的應用與發展。因為我在英偉達的話主要是負責互聯網行業,支持一些客戶,所以說我對大模型其實有非常深的一個認識。
其實在三年前,我們就一直在跟客戶講,就是說大模型是未來的一個趨勢。我們會需要用到更大的算力,去訓練這模型的業務場景。當然,站在客戶的角度上來想這個事情,大家都認為就是說我這邊是為了賣更多的GPU卡,更高的營收。這方面的因素當然會有,但是其實更重要的一個場景,我們能看到在一些垂直領域, AI的整個能力其實是有一些比較好的效果,但是更多的,在一些行業的應用中其實并沒有達到像人這樣去思考的能力,所以說我們認為想要未來大模型做到更復雜的事情,就需要對它進行什么打磨。
這張圖里,我們可以看到大模式的發展趨勢,從2017年到2022年,在自然語言理解的應用領域內,從最早的BERT到Transformer Face的語言模型,可以看到在這5年里,模型的規模在不斷地增加,然后AI在相應的一些應用場景里,它的理解能力或者它的效果有一個非常顯著的變化。你可能會有一些印象,大概在三五年前,網上視頻里能看到有個人坐在車里邊,然后跟車去做一些交互,說導航到一個地方,他說了非常多遍,但根本就識別不到。而在今天,這種場景我相信都不會再存在了,因為我們有更強的AI模型,有更高的精度,能給人們帶來更好的體驗,這個只是在NLP就是自然語言理解的這個領域。在其他領域的話,它其實是一樣的模式,一樣的發展方向。比如說在CV領域,在某些特定的細分領域內,用限額算法是可以取得非常好的效果。但是隨著領域的變化或者是數據的變化,其實整個效果的話可能就不會像原來在這個細分領域內的效果那么好,所以說我們需要用到大模型的一些方式,或者用更多的數據,來去做這樣的事情。
想要做好大模型,我認為的話主要有個點。第一點是類似于Transformer的一些模型結構,能讓模型變得更加復雜,從而它的有效智能可以帶來更好的收益。然后這個是第一個。第二個的話是數據,數據是非常關鍵的,我們在跟客戶的交流過程中,大家都提到過相同的問題,就是數據對于模型訓練是至關重要的。我們需要用到更多的數據,或者是用一些多模態的數據,來去訓練大模型的業務,才能實現更多的一些業務場景。第三點就是平臺層面的規劃,因為目前的業務最終要落在真實的業務場景里邊。在訓練端的話用集群的方式去構建一個分布式的系統,去做大模型的訓練,才能有一個比較好的訓練速度,更好地去迭代,讓大模型的應用能有一個更好的效果。
這么大的一個模型在應用端去做應用,肯定成本會非常高。以NVIDIA的角度來考慮這個事情的話,其實我們也希望把大模型Inference的應用成本的話給它加上來。主要通過的手段可能第一,我們會針對大模型的業務產品持續去做Inference的優化,讓相關的一些模型可以跑在更低的平臺上去應用。然后第二點的話,因為GPU的類型很多,基于NVLink的GPU用于分布式訓練,也可以基于一些PCIE類型的GPU承擔大模型推理的一些業務場景,在大模型業務場景中達到一個非常好的性價比。
從總體上來看的話,我們認為大模型可能是未來的一個趨勢。下面是我針對于自動駕駛這個行業說說跟AI相關的一些業務場景,然后從這些場景里邊,我們可以看到哪些業務場景會應用到大模型,并取得一個比較好的一個效果。AI在自動駕駛這個場景里,或者跟汽車相關的場景主要分為這三類。第一個的話就是在工廠端,我們可以通過一些AI算法,進行質量檢測,通過這種自動化的方式,來提升檢測的效率,取得比較好的效果。第二個的話就是在一些車載娛樂系統里,像智能座艙。我們可以通過智能座艙,把人跟乘客以及外部互聯起來,做更多的溝通,然后產生更多的價值。第三個的話就是今天所看到的自動駕駛這個業務場景,它也是我們最早在汽車領域去做的一個方向。整個自動駕駛其實是一個閉環,同時的話它是一個不斷迭代,不斷循環的過程。從前期的數據采集到數據打標,包括地圖的信息,包括把所有收集到的數據,放進GPU的集群里面去做訓練,到后端一些自動駕駛相關的業務場景里,比如成像、自動泊車、智能交互。這就意味著我們需要根據用戶包括我們自己的反饋,不斷去迭代,不斷去進化。以這整個過程來說是需要非常強大的算力的,而且非常需要持續投入、持續開發。
剛才提到智能駕駛是一個非常復雜的場景,所以各部分因素都要被考慮進我們的自動駕駛業務中,每一個業務產品就代表了一個 AI算法。那么未來的話我們是不是可以把一些業務通過一個通用的模型,把它們融合在一塊,給車提供更多的智能服務。這個當然的話也是在探索中,但現在來看的話,每一個業務層面或者是說每幾類的業務,都需要一個不同的AI模型來去做這樣的事情。
這個是智能座艙,剛才提到就是說智能座艙是自動駕駛以外,另一個對AI需求比較高的業務方向,且目前來看是與大模型結合的最多的,因為智能座艙工作的時候,我們可以通過云端的資源,來提供相關的一些服務。因為現在車端大模型業務的模型非常大,很難在車上去運用,而智能座艙的業務層面對實時性要求不是那么高,可以通過這種云端提供服務,然后去更好地利用大模型項目的一些技術,更好地給乘客提供相關的 AI服務,有更好的體驗。
另外,除了剛才所提到的兩個業務場景的話,其實在汽車領域的話還有非常多的業務場景跟AI是相關的,或者是說我們可以通過AI的方式去做的一些事情。包括前面說的,客戶的體驗就是跟智能座艙相關的,另外的話就是車跟人以及傳感器的這種互聯也可以通過AI的方式來進行。第三個是關于工廠的。大概兩年前,我們發布了Omniverse模式,通過Omniverse模式做工廠數字化,然后通過數字化的工廠的來提升工廠的生產效率,包括一些規范。第四個的話涉及一些汽車設計,這個更多的是跟SPC相關。現在的SPC的一些應用也跟AI做了非常多的融合,這樣的話我們可以通過 AI的方式,更快速地去設計汽車。最后兩個的是輔助應用,比如說在一些金融、源頭市場,可以通過AI的方式提供更多、更好的服務。
這張大概總結了一下,目前在自動駕駛里應用到大模型相關的一些業務場景。這些業務場景的話主要還是LLM即自然語言理解的一些業務場景,包括客戶的一些體驗。數據顯示,訂閱價值為1,0000美元的AD的客戶數量達上百萬,路上有多達5億輛車鏈接了車內交互服務。然后是一些服務類的場景,像剛才提到就是說通過大模型的方式取代人來提供客服的服務,這個其實現在來看的話是一個非常成熟的業務場景,有比較好的效果。然后還有Chat Bot,就是通過一些智能語音的方式控制車輛。以及Knowledge Base等,就是在工作中的話我們可以通過大模型提升工作效率。
汽車大模型的話剛才提到就是說除了應用端,很多客戶關心怎么真正地去應用,或者是說我原來沒有一個基礎的話,怎么才能快速地在我的業務產品里應用大模型。NVIDIA對于GPU市場提供了豐富的開發環境,包括一些工具可以幫助客戶擁有快速的構建大模型的能力,包括從數據的準備起整個的AI開發過程。我們有一整套完善的工具鏈,可以非常方便高效地幫助客戶快速構建數據集。我們在NGC上也提供一些預訓練模型,客戶可以基于相關的模型使用自有數據集信息進行訓練,支持特定垂直領域的業務場景。
針對券商我們有相關的一些模型框架,可以更好地去提供服務給客戶。因為其實在大模型出來之前,或者說在去年,其實只有非常少的客戶有分布式集群的經驗,來去做大模型訓練。絕大部分的客戶并不具備分布式訓練的能力。NVIDIA在兩三年前其實就已經開始做相關的研究,包括優化,所以可以提供很多與分布式集群相關的技術,客戶可以直接拿過來用,不用關心底層,包括框架層面的一些優化,就能取得非常好的效果。
然后第三個的話就是當你從頭開始訓練一個模型,可能需要剛才提到的非常多的一些數據集,需要構建一個非常大的集群,還需要各種各樣的投入來去管理集群。我們可以提供給客戶一些優化好的模型,而客戶可以基于這個模型做一些翻退。在Inference端,我們也提供各種各樣的工具,讓客戶在端上去運行Inference的應用。最后是部署,總的來說NVIDIA能提供從最初的數據收集到最后端到端的部署這種整合方案給客戶,幫助客戶快速具備大模型的能力。除了這個剛才提到的軟件層面的服務,NVIDIA從最底層的硬件到最上層的業務系統,每一個層面的都能提供相關的一些技術支持,或者是免費的軟件套件,能幫助客戶快速地構建自己的AI能力。
最后的話我就是想借用Jensen的一句話做一個總結——“未來的生成式AI、大模型以及推薦系統式是現代經濟的一個引擎”。現在各個行業都在探索大模型,因為大家都認識到大模型的能力,覺得它會像人一樣,或者是說人類研發AI的一個主要目的,就是我們希望設計一個算法,并使它能像人一樣去思考。ChatGPT出來以后,人們看到這個方向是可以走得通的,所以現在各個行業都在做一些這種探索,希望把AI的方式部署到行業的應用上,提升整個行業或者是應用的效率,取得比較好的效果。
謝謝各位。
鄭重聲明:此文內容為本網站轉載企業宣傳資訊,目的在于傳播更多信息,與本站立場無關。僅供讀者參考,并請自行核實相關內容。