做全景圖有哪些網(wǎng)站西安網(wǎng)站建設(shè)維護(hù)
文章目錄
- 大模型賽道如何實(shí)現(xiàn)華麗的彎道超車 —— AI/ML訓(xùn)練賦能解決方案
- 01 具備對(duì)海量小文件的頻繁數(shù)據(jù)訪問(wèn)的 I/O 效率
- 02 提高 GPU 利用率,降低成本并提高投資回報(bào)率
- 03 支持各種存儲(chǔ)系統(tǒng)的原生接口
- 04 支持單云、混合云和多云部署
- 01 通過(guò)數(shù)據(jù)抽象化統(tǒng)一數(shù)據(jù)孤島
- 02 通過(guò)分布式緩存實(shí)現(xiàn)數(shù)據(jù)本地性
- 03 優(yōu)化整個(gè)工作流的數(shù)據(jù)共享
- 直播預(yù)告
- 直播主題
- 直播時(shí)間
- 直播觀看方式
導(dǎo)讀:Alluxio作為一款強(qiáng)大的分布式統(tǒng)一大數(shù)據(jù)虛擬文件系統(tǒng),已經(jīng)在眾多領(lǐng)域展現(xiàn)出了其卓越的應(yīng)用價(jià)值,并且為AI/ML訓(xùn)練賦能提供了一個(gè)全新的解決方案。
大模型賽道如何實(shí)現(xiàn)華麗的彎道超車 —— AI/ML訓(xùn)練賦能解決方案
在人工智能(AI)和機(jī)器學(xué)習(xí)(ML)領(lǐng)域,數(shù)據(jù)驅(qū)動(dòng)的決策和模型訓(xùn)練已成為現(xiàn)代應(yīng)用和研究的核心。伴隨大模型技術(shù)迅猛發(fā)展,模型訓(xùn)練所需數(shù)據(jù)的規(guī)模不斷擴(kuò)大,數(shù)據(jù)的處理、存儲(chǔ)和傳輸都面臨著巨大的挑戰(zhàn),傳統(tǒng)的存儲(chǔ)和處理方式已經(jīng)無(wú)法滿足實(shí)時(shí)性和性能需求。同時(shí),不同計(jì)算框架之間的數(shù)據(jù)孤島問(wèn)題也制約了數(shù)據(jù)的有效利用。如何在激烈競(jìng)爭(zhēng)的大模型賽道脫穎而出,實(shí)現(xiàn)華麗的彎道超車,成為了眾多參賽選手投入巨大人力、物力不斷探索的方向。
而這其中,模型訓(xùn)練成為重中之重。當(dāng)我們進(jìn)行模型訓(xùn)練時(shí),需要高效的數(shù)據(jù)平臺(tái)架構(gòu)快速生成分析結(jié)果,而模型訓(xùn)練在很大程度上依賴于大型數(shù)據(jù)集。執(zhí)行所有模型訓(xùn)練的第一步都是將訓(xùn)練數(shù)據(jù)從存儲(chǔ)輸送到計(jì)算引擎的集群,而數(shù)據(jù)工作流的效率會(huì)大大影響模型訓(xùn)練的效率。在現(xiàn)實(shí)場(chǎng)景中,AI/ML 模型訓(xùn)練任務(wù)對(duì)數(shù)據(jù)平臺(tái)常常有以下幾個(gè)需求:
01 具備對(duì)海量小文件的頻繁數(shù)據(jù)訪問(wèn)的 I/O 效率
AI/ML 工作流不僅包含模型訓(xùn)練和推理,還包括前期的數(shù)據(jù)加載和預(yù)處理步驟,尤其是前期數(shù)據(jù)處理對(duì)整個(gè)工作流都有很大影響。與傳統(tǒng)的數(shù)據(jù)分析應(yīng)用相比,AI/ML 工作負(fù)載在數(shù)據(jù)加載和預(yù)處理階段往往對(duì)海量小文件有較頻繁的 I/O 請(qǐng)求。因此,數(shù)據(jù)平臺(tái)需要提供更高的 I/O 效率,從而更好地為工作流提速。
02 提高 GPU 利用率,降低成本并提高投資回報(bào)率
機(jī)器學(xué)習(xí)模型訓(xùn)練是計(jì)算密集型的,需要消耗大量的 GPU 資源,從而快速準(zhǔn)確地處理數(shù)據(jù)。由于 GPU 價(jià)格昂貴,因此優(yōu)化 GPU 的利用率十分重要。這種情況下,I/O 就成為了瓶頸——工作負(fù)載受制于 GPU 的數(shù)據(jù)供給速度,而不是GPU 執(zhí)行訓(xùn)練計(jì)算的速度。數(shù)據(jù)平臺(tái)需要達(dá)到高吞吐量和低延遲,讓 GPU 集群完全飽和,從而降低成本。
03 支持各種存儲(chǔ)系統(tǒng)的原生接口
隨著數(shù)據(jù)量的不斷增長(zhǎng),企業(yè)很難只使用單一存儲(chǔ)系統(tǒng)。不同業(yè)務(wù)部門會(huì)使用各類存儲(chǔ),包括本地分布式存儲(chǔ)系統(tǒng)(HDFS和Ceph)和云存儲(chǔ)(AWS S3,Azure Blob Store,Google 云存儲(chǔ)等)。為了實(shí)現(xiàn)高效的模型訓(xùn)練,必須能夠訪問(wèn)存儲(chǔ)于不同環(huán)境中的所有訓(xùn)練數(shù)據(jù),用戶數(shù)據(jù)訪問(wèn)的接口最好是原生的。
04 支持單云、混合云和多云部署
除了支持不同的存儲(chǔ)系統(tǒng)外,數(shù)據(jù)平臺(tái)還需要支持不同的部署模式。隨著數(shù)據(jù)量的增長(zhǎng),云存儲(chǔ)成為普遍選擇,它可擴(kuò)展性高,成本低且易于使用。企業(yè)希望不受限制地實(shí)現(xiàn)單云、混合云和多云部署,實(shí)現(xiàn)靈活和開放的模型訓(xùn)練。另外,計(jì)算與存儲(chǔ)分離的趨勢(shì)也越來(lái)越明顯,這會(huì)造成遠(yuǎn)程訪問(wèn)存儲(chǔ)系統(tǒng),這種情況下數(shù)據(jù)需要通過(guò)網(wǎng)絡(luò)傳輸,帶來(lái)性能上的挑戰(zhàn)。數(shù)據(jù)平臺(tái)需要滿足在跨異構(gòu)環(huán)境訪問(wèn)數(shù)據(jù)時(shí)也能達(dá)到高性能的要求。
綜上,AI/ML 工作負(fù)載要求能在各種類型的異構(gòu)環(huán)境中以低成本快速訪問(wèn)大量數(shù)據(jù)。企業(yè)需要不斷優(yōu)化升級(jí)數(shù)據(jù)平臺(tái),確保模型訓(xùn)練的工作負(fù)載在能夠有效地訪問(wèn)數(shù)據(jù),保持高吞吐量和高 GPU 利用率 。
Alluxio 作為一款強(qiáng)大的分布式統(tǒng)一大數(shù)據(jù)虛擬文件系統(tǒng),已經(jīng)在眾多領(lǐng)域展現(xiàn)出了其卓越的應(yīng)用價(jià)值,并且為AI/ML訓(xùn)練賦能提供了一個(gè)全新的解決方案,其核心密碼有四個(gè)方面組成:
01 通過(guò)數(shù)據(jù)抽象化統(tǒng)一數(shù)據(jù)孤島
Alluxio作為數(shù)據(jù)抽象層,可以做到數(shù)據(jù)無(wú)縫訪問(wèn)而不拷貝和移動(dòng)數(shù)據(jù),無(wú)論是在本地還是在云上的數(shù)據(jù)都留在原地。通過(guò)Alluxio,數(shù)據(jù)被抽象化從而呈現(xiàn)統(tǒng)一的視圖,大大降低數(shù)據(jù)收集階段的復(fù)雜性。
由于Alluxio已經(jīng)實(shí)現(xiàn)與存儲(chǔ)系統(tǒng)的集成,機(jī)器學(xué)習(xí)框架只需與Alluxio交互即可從其連接的任何存儲(chǔ)中訪問(wèn)數(shù)據(jù)。因此,我們可以利用來(lái)自任何數(shù)據(jù)源的數(shù)據(jù)進(jìn)行訓(xùn)練,提高模型訓(xùn)練質(zhì)量。在無(wú)需將數(shù)據(jù)手動(dòng)移動(dòng)到某一集中的數(shù)據(jù)源的情況下,包括Spark、Presto、PyTorch和TensorFlow在內(nèi)所有的計(jì)算框架都可以訪問(wèn)數(shù)據(jù),不必?fù)?dān)心數(shù)據(jù)的存放位置。
02 通過(guò)分布式緩存實(shí)現(xiàn)數(shù)據(jù)本地性
Alluxio的分布式緩存,讓數(shù)據(jù)均勻地分布在集群中,而不是將整個(gè)數(shù)據(jù)集復(fù)制到每臺(tái)機(jī)器上,如圖1所示。當(dāng)訓(xùn)練數(shù)據(jù)集的大小遠(yuǎn)大于單個(gè)節(jié)點(diǎn)的存儲(chǔ)容量時(shí),分布式緩存尤其有用,而當(dāng)數(shù)據(jù)位于遠(yuǎn)端存儲(chǔ)時(shí),分布式緩存會(huì)把數(shù)據(jù)緩存在本地,有利于數(shù)據(jù)訪問(wèn)。此外,由于在訪問(wèn)數(shù)據(jù)時(shí)不產(chǎn)生網(wǎng)絡(luò)I/O,機(jī)器學(xué)習(xí)訓(xùn)練速度更快、更高效。
如上圖所示,對(duì)象存儲(chǔ)中存有全部訓(xùn)練數(shù)據(jù),兩個(gè)文件(/path1/file1和/path2/file2)代表數(shù)據(jù)集。我們不在每臺(tái)訓(xùn)練節(jié)點(diǎn)上存儲(chǔ)所有文件塊,而是將文件塊分布式地存儲(chǔ)在多臺(tái)機(jī)器上。為了防止數(shù)據(jù)丟失和提高讀取并發(fā)性,每個(gè)塊可以同時(shí)存儲(chǔ)在多個(gè)服務(wù)器上。
03 優(yōu)化整個(gè)工作流的數(shù)據(jù)共享
在模型訓(xùn)練工作中,無(wú)論是在單個(gè)作業(yè)還是不同作業(yè)之間,數(shù)據(jù)讀取和寫入都有很大程度的重疊。Alluxio可以讓計(jì)算框架訪問(wèn)之前已經(jīng)緩存的數(shù)據(jù),供下一步的工作負(fù)載進(jìn)行讀取和寫入,如圖2所示。比如在數(shù)據(jù)準(zhǔn)備階段使用Spark進(jìn)行ETL數(shù)據(jù)處理,那么數(shù)據(jù)共享可以確保輸出數(shù)據(jù)被緩存,供后續(xù)階段使用。通過(guò)數(shù)據(jù)共享,整個(gè)數(shù)據(jù)工作流都可以獲得更好的端到端性能。
04 通過(guò)并行執(zhí)行數(shù)據(jù)預(yù)加載、緩存和訓(xùn)練來(lái)編排數(shù)據(jù)工作流
Alluxio通過(guò)實(shí)現(xiàn)預(yù)加載和按需緩存來(lái)縮短模型訓(xùn)練的時(shí)間。如圖3所示,通過(guò)數(shù)據(jù)緩存從數(shù)據(jù)源加載數(shù)據(jù)可以與實(shí)際訓(xùn)練任務(wù)并行執(zhí)行。因此,訓(xùn)練在訪問(wèn)數(shù)據(jù)時(shí)將得益于高數(shù)據(jù)吞吐量,不必等待數(shù)據(jù)全部緩存完畢才開始訓(xùn)練。
雖然一開始會(huì)出現(xiàn)I/O延遲,但隨著越來(lái)越多的數(shù)據(jù)被加載到緩存中,I/O等待時(shí)間會(huì)減少。在本方案中,所有環(huán)節(jié),包括訓(xùn)練數(shù)據(jù)集從對(duì)象存儲(chǔ)加載到訓(xùn)練集群、數(shù)據(jù)緩存、按需加載用于訓(xùn)練的數(shù)據(jù)以及訓(xùn)練作業(yè)本身,都可以并行地、相互交錯(cuò)地執(zhí)行,從而極大地加速了整個(gè)訓(xùn)練進(jìn)程。
了解更多Alluxio與AI/ML模型訓(xùn)練傳統(tǒng)方案的對(duì)比分析,具體性能測(cè)試情況,以及來(lái)自廣泛行業(yè)的應(yīng)用案例,歡迎閱讀《分布式統(tǒng)一大數(shù)據(jù)虛擬文件系統(tǒng)——Alluxio原理、技術(shù)與實(shí)踐》。
直播預(yù)告
直播主題
**Alluxio: 加速新一代大數(shù)據(jù)與AI變革 | 《分布式統(tǒng)一大數(shù)據(jù)虛擬文件系統(tǒng) Alluxio原理、技術(shù)與實(shí)踐》新書發(fā)布會(huì) **
直播時(shí)間
9 月 21日(星期四)20:00 - 21:30
本次直播主要介紹Alluxio的技術(shù)原理、核心功能、使用方法,以及Alluxio在大數(shù)據(jù)分析、AI/ML等場(chǎng)景的實(shí)戰(zhàn)案例。
直播觀看方式
微信搜索視頻號(hào):IT閱讀排行榜,預(yù)約直播