中文字幕亚洲精品乱码,青草青草久热国产精品,两性午夜福利国产一级毛片,日韩精品一区二区三区视频,久久不卡免费视频久久高清精品,人人妻人人澡人人爽不卡视频,亚洲国产一区二区精品,亚洲一区二区三区AV,中文亚洲av片在线观看,日韩性人妻诱慰无码

會(huì)員服務(wù) 登錄 注冊(cè)
×
資訊活動(dòng)

如何構(gòu)建數(shù)據(jù)底座 助力生成式AI

發(fā)布時(shí)間:2024-10-10 來(lái)源:金屬加工

隨著AI大模型的興起,數(shù)字基礎(chǔ)設(shè)施行業(yè)正面臨前所未有的變革壓力,尤其是作為“三大件”之一的存儲(chǔ)領(lǐng)域。AI大模型,如ChatGPT和Sora,以其卓越的表現(xiàn)刷新了人們對(duì)人工智能的認(rèn)知,但這些成就背后是對(duì)計(jì)算資源、網(wǎng)絡(luò)連接和數(shù)據(jù)存儲(chǔ)能力的極限挑戰(zhàn)。

傳統(tǒng)上,存儲(chǔ)被視為數(shù)據(jù)的倉(cāng)庫(kù),但在AI大模型的背景下,存儲(chǔ)系統(tǒng)已轉(zhuǎn)變?yōu)閿?shù)據(jù)處理和分析的積極參與者。存儲(chǔ)設(shè)備不僅要提供足夠的空間來(lái)容納快速增長(zhǎng)的數(shù)據(jù)量,還要具備高效的數(shù)據(jù)管理能力,以確保數(shù)據(jù)可以被迅速地訪(fǎng)問(wèn)、處理和利用。特別是在數(shù)據(jù)預(yù)處理、模型訓(xùn)練和實(shí)時(shí)應(yīng)用等關(guān)鍵環(huán)節(jié),存儲(chǔ)性能直接影響到AI模型的訓(xùn)練速度和最終的業(yè)務(wù)效果。

長(zhǎng)久以來(lái),AI領(lǐng)域的焦點(diǎn)集中在算法模型的開(kāi)發(fā)與訓(xùn)練上,企業(yè)投入大量資源構(gòu)建復(fù)雜模型以提升預(yù)測(cè)準(zhǔn)確率和任務(wù)執(zhí)行能力。然而,隨著模型的不斷成熟和應(yīng)用場(chǎng)景的多樣化,如何高效地將這些模型應(yīng)用于實(shí)際業(yè)務(wù)場(chǎng)景,即AI推理,成為了新的關(guān)注點(diǎn)。推理階段涉及到模型在實(shí)時(shí)環(huán)境中處理數(shù)據(jù)、做出決策的過(guò)程,它直接影響到用戶(hù)體驗(yàn)和業(yè)務(wù)效率。

存儲(chǔ)性能差異:

  • 訓(xùn)練階段:AI模型訓(xùn)練是一個(gè)高度數(shù)據(jù)密集型的過(guò)程,需要頻繁地讀取大量訓(xùn)練數(shù)據(jù),對(duì)存儲(chǔ)的讀取速度和帶寬有著極高的要求。同時(shí),訓(xùn)練過(guò)程中還會(huì)產(chǎn)生大量中間結(jié)果和模型檢查點(diǎn),需要快速寫(xiě)入存儲(chǔ)以備后續(xù)使用或恢復(fù)訓(xùn)練狀態(tài)。
  • 推理階段:相比之下,推理過(guò)程更多地依賴(lài)于模型而非原始數(shù)據(jù),對(duì)存儲(chǔ)的讀寫(xiě)性能要求相對(duì)較低,但對(duì)響應(yīng)時(shí)間和低延遲有更高要求。推理系統(tǒng)需要快速地從存儲(chǔ)中檢索模型參數(shù),并對(duì)輸入數(shù)據(jù)進(jìn)行實(shí)時(shí)處理,確保用戶(hù)體驗(yàn)的流暢性。

存儲(chǔ)容量與成本差異:

  • 在訓(xùn)練階段,企業(yè)可能會(huì)選擇高性能的全閃存存儲(chǔ)來(lái)滿(mǎn)足大數(shù)據(jù)量和高IOPS的需求,這通常意味著較高的成本。
  • 隨著重點(diǎn)轉(zhuǎn)向推理,對(duì)存儲(chǔ)容量的需求可能減少,但同時(shí)對(duì)成本效益的追求增加,企業(yè)可能會(huì)傾向于采用更為經(jīng)濟(jì)的存儲(chǔ)解決方案,如混合存儲(chǔ)或分層存儲(chǔ)策略,以平衡成本與性能。

數(shù)據(jù)訪(fǎng)問(wèn)模式差異:

  • 訓(xùn)練階段數(shù)據(jù)訪(fǎng)問(wèn)往往涉及大量隨機(jī)讀寫(xiě)
  • 推理則主要是模型參數(shù)的讀取和少量的輸出數(shù)據(jù)寫(xiě)入,這要求存儲(chǔ)系統(tǒng)能夠優(yōu)化讀取路徑,減少讀取延遲,提高I/O效率。

AI應(yīng)用程序在處理大規(guī)模數(shù)據(jù)集和復(fù)雜模型訓(xùn)練時(shí),往往展現(xiàn)出獨(dú)特的IO模型,特別是當(dāng)提到"數(shù)百萬(wàn)個(gè)小IO讀寫(xiě)操作"時(shí),AI工作負(fù)載,尤其是在深度學(xué)習(xí)訓(xùn)練階段,經(jīng)常涉及對(duì)大量小塊數(shù)據(jù)的頻繁讀取和寫(xiě)入操作。

小IO請(qǐng)求相比大塊連續(xù)讀寫(xiě)更容易造成存儲(chǔ)設(shè)備的隨機(jī)訪(fǎng)問(wèn)壓力,降低IOPS和吞吐量。AI訓(xùn)練對(duì)數(shù)據(jù)訪(fǎng)問(wèn)延遲非常敏感,頻繁的小I/O可能會(huì)累積延遲,影響訓(xùn)練效率和模型收斂速度。大量并發(fā)的小I/O請(qǐng)求可能導(dǎo)致存儲(chǔ)資源過(guò)度碎片化,影響存儲(chǔ)空間的有效利用率。

為了優(yōu)化訓(xùn)練效率,實(shí)踐中可能采取以下策略:

  • 分層存儲(chǔ):采用多層次存儲(chǔ)方案,將頻繁訪(fǎng)問(wèn)的數(shù)據(jù)或活躍數(shù)據(jù)緩存在高速存儲(chǔ)(如SSD)中,而較少訪(fǎng)問(wèn)的數(shù)據(jù)則存儲(chǔ)在低成本但容量大的存儲(chǔ)(如HDD)中。
  • 數(shù)據(jù)預(yù)處理:在訓(xùn)練前進(jìn)行數(shù)據(jù)預(yù)處理,如數(shù)據(jù)壓縮、數(shù)據(jù)增強(qiáng)等,減少實(shí)際需要從存儲(chǔ)中讀取的數(shù)據(jù)量。
  • I/O優(yōu)化:利用軟件層面的優(yōu)化,如異步I/O、數(shù)據(jù)預(yù)讀取策略,減少I(mǎi)/O等待時(shí)間,提高數(shù)據(jù)讀取效率。
  • 分布式訓(xùn)練:采用分布式訓(xùn)練策略,將數(shù)據(jù)集分割到多個(gè)計(jì)算節(jié)點(diǎn)上,每個(gè)節(jié)點(diǎn)獨(dú)立處理一部分?jǐn)?shù)據(jù),這樣可以分散對(duì)單一存儲(chǔ)系統(tǒng)的讀取壓力,同時(shí)利用多個(gè)存儲(chǔ)設(shè)備的總帶寬。
  • 分布式存儲(chǔ):采用分布式文件系統(tǒng)或?qū)ο蟠鎯?chǔ)解決方案,通過(guò)并行處理小I/O請(qǐng)求來(lái)分散負(fù)載,提高整體系統(tǒng)吞吐量。
  • 數(shù)據(jù)預(yù)加載和預(yù)處理:提前將數(shù)據(jù)加載到內(nèi)存或更快的存儲(chǔ)層,并進(jìn)行必要的預(yù)處理,減少實(shí)時(shí)I/O需求。

根據(jù)相關(guān)預(yù)測(cè),到2028年,四分之三擁有生成式 AI 訓(xùn)練數(shù)據(jù)的組織將部署單一存儲(chǔ)平臺(tái)來(lái)存儲(chǔ)數(shù)據(jù),這一比例高于 2024 年的 10%。大多數(shù)企業(yè)將不必為生成式AI構(gòu)建新的存儲(chǔ)基礎(chǔ)設(shè)施,因?yàn)樗麄儗⑽⒄{(diào)現(xiàn)有的大型語(yǔ)言模型(LLMs),而不是訓(xùn)練新模型。

大規(guī)模生成式AI部署將需要獨(dú)特的存儲(chǔ)性能和數(shù)據(jù)管理功能,用于生成式AI工作流程的數(shù)據(jù)攝取、訓(xùn)練、推理和歸檔階段。將數(shù)據(jù)直接引入現(xiàn)成的LLM或部署生成式AI時(shí),獲取“GenAI in a box”融合存儲(chǔ)解決方案。

在使用少量數(shù)據(jù)進(jìn)行訓(xùn)練或采用預(yù)訓(xùn)練模型時(shí),使用現(xiàn)有的企業(yè)存儲(chǔ)平臺(tái):存儲(chǔ)區(qū)域網(wǎng)絡(luò) (SAN)、網(wǎng)絡(luò)附加存儲(chǔ) (NAS)、對(duì)象存儲(chǔ)或超融合基礎(chǔ)設(shè)施 (HCI)。如果要運(yùn)行大規(guī)模生成式AI應(yīng)用程序,需要構(gòu)建一個(gè)端到端存儲(chǔ)基礎(chǔ)設(shè)施平臺(tái),該平臺(tái)可以支持生成式AI工作流程的所有應(yīng)用階段:數(shù)據(jù)攝取、訓(xùn)練和微調(diào)、推理和歸檔。它應(yīng)該能夠靈活地管理來(lái)自多個(gè)來(lái)源的數(shù)據(jù),包括數(shù)據(jù)中心、邊緣和公有云。

在大多數(shù)情況下,組織在架構(gòu)生成式AI基礎(chǔ)設(shè)施時(shí),服務(wù)器可能需要進(jìn)行重大更新,從基于 CPU 遷移到基于 GPU,以滿(mǎn)足對(duì)計(jì)算能力的極端需求,特別是在語(yǔ)言模型具有許多參數(shù)的情況下。然而,雖然存儲(chǔ)是生成式AI堆棧中的關(guān)鍵層,完成模型訓(xùn)練時(shí)很容易成為瓶頸,但存儲(chǔ)經(jīng)常被組織所忽視。如果選型不當(dāng),存儲(chǔ)可能會(huì)減慢 GPU 的整體數(shù)據(jù)傳輸以及模型檢查點(diǎn)和恢復(fù)過(guò)程,從而造成GPU速度的降低和關(guān)鍵計(jì)算資源的浪費(fèi)。

沒(méi)有一種存儲(chǔ)部署類(lèi)型適合所有企業(yè),也沒(méi)有一個(gè)單一的功能列表可以指出生成式AI 應(yīng)用程序的最佳存儲(chǔ)類(lèi)型。如果選擇錯(cuò)誤的存儲(chǔ)部署類(lèi)型或忽略生成式AI所需的關(guān)鍵功能,那么可能會(huì)帶來(lái)一個(gè)高昂的代價(jià)。

生成式AI使用的存儲(chǔ)需要三組獨(dú)特的功能:

  • 單一、可擴(kuò)展的數(shù)據(jù)湖存儲(chǔ)平臺(tái),可以托管用于模型訓(xùn)練的所有數(shù)據(jù)。無(wú)論是基于文件或基于對(duì)象的用例、吞吐量或延遲敏感的工作負(fù)載、大型或小型文件、元數(shù)據(jù)密集型或數(shù)據(jù)密集型訪(fǎng)問(wèn)量大的工作負(fù)載。
  • 一個(gè)可提供足夠高的性能的特定功能集,以在訓(xùn)練階段保持服務(wù)器上的 GPU 占用,并足夠快地完成模型檢查點(diǎn)和恢復(fù)過(guò)程。如果存儲(chǔ)無(wú)法足夠快地將數(shù)據(jù)提供給 GPU,這些 GPU 就會(huì)閑置,這相當(dāng)于浪費(fèi)。
  • 一組可提供跨本地部署、多個(gè)云和邊緣位置的全局?jǐn)?shù)據(jù)管理功能。訓(xùn)練或完善模型所需的數(shù)據(jù)可能來(lái)自多個(gè)位置。如果沒(méi)有全局?jǐn)?shù)據(jù)管理數(shù)據(jù),則必須對(duì)其進(jìn)行復(fù)制,這會(huì)導(dǎo)致操作復(fù)雜性和容量浪費(fèi)。

大多數(shù)組織將采用現(xiàn)有的人工智能模型,或根據(jù)其現(xiàn)有業(yè)務(wù)數(shù)據(jù)重新訓(xùn)練現(xiàn)有模型,并可選擇根據(jù)其業(yè)務(wù)需求添加特定的外部數(shù)據(jù)。對(duì)于在少量數(shù)據(jù)上使用現(xiàn)有 LLMs 的企業(yè)來(lái)說(shuō),一體化、全棧、生成式AI一體式融合存儲(chǔ)解決方案很可能是最佳選擇。

當(dāng)主要使用現(xiàn)有數(shù)據(jù)進(jìn)行微調(diào)時(shí),有兩種部署存儲(chǔ)的方法:投資專(zhuān)用的生成式AI盒裝解決方案。這些通常是超融合解決方案,由適當(dāng)大小的存儲(chǔ)、計(jì)算和網(wǎng)絡(luò)以及預(yù)訓(xùn)練的 LLM(類(lèi)似于 Nutanix 的 GPT-in-a-Box)組成。使用現(xiàn)有的存儲(chǔ)基礎(chǔ)設(shè)施,無(wú)論數(shù)據(jù)是存儲(chǔ)在文件、對(duì)象或塊存儲(chǔ)、外部或直連存儲(chǔ)還是超融合存儲(chǔ)中。對(duì)于這種方法,如果組織擁有一個(gè)數(shù)據(jù)管理軟件層,可以提供跨不同存儲(chǔ)孤島、本地、邊緣和/或公共云中的數(shù)據(jù)訪(fǎng)問(wèn),則會(huì)有所幫助。

大規(guī)模生成式AI部署需要先進(jìn)的模型訓(xùn)練和推理能力以及全面的數(shù)據(jù)管理能力。一些 GenAI 工作負(fù)載以 PB 級(jí)數(shù)據(jù)量而聞名,這些數(shù)據(jù)量對(duì)于 GenAI 工作流程的各個(gè)階段有不同的性能和操作要求。對(duì)于這些工作負(fù)載,通常使用數(shù)據(jù)湖或分布式存儲(chǔ)系統(tǒng)(例如 Hadoop 或 Spark)來(lái)存儲(chǔ)訓(xùn)練數(shù)據(jù)和中間輸出。在訓(xùn)練、微調(diào)和推理方面,專(zhuān)門(mén)的 GPU 優(yōu)化的高吞吐量基礎(chǔ)設(shè)施堆棧至關(guān)重要。對(duì)于整個(gè)流程,具體實(shí)踐者應(yīng)該:

  • 將數(shù)據(jù)直接引入現(xiàn)成的LLM或運(yùn)行生成式AI部署時(shí),獲取生成式AI盒裝融合存儲(chǔ)解決方案。
  • 使用現(xiàn)有的企業(yè)存儲(chǔ)平臺(tái)(SAN、NAS、DFS 或 HCI)來(lái)運(yùn)行小規(guī)模生成式AI試點(diǎn)。
  • 投資數(shù)據(jù)管理解決方案,以提供跨現(xiàn)有存儲(chǔ)的通用訪(fǎng)問(wèn),以及支持自定義標(biāo)記和基于元數(shù)據(jù)搜索能力。
  • 在考慮其他供應(yīng)商的新產(chǎn)品之前,請(qǐng)先了解現(xiàn)有存儲(chǔ)供應(yīng)商的生成式AI功能。供應(yīng)商正在快速為 GenAI 構(gòu)建新功能并推出新的專(zhuān)用解決方案。

存儲(chǔ)在此堆棧中發(fā)揮著重要作用,存儲(chǔ)解決方案的選擇取決于人工智能模型的大小。對(duì)于較小的型號(hào),本地連接的磁盤(pán)存儲(chǔ)可能就足夠了。但較大的模型通常需要基于對(duì)象存儲(chǔ)或并行文件系統(tǒng)的共享存儲(chǔ)。對(duì)于大規(guī)模 GenAI 系統(tǒng),可擴(kuò)展、高容量和低延遲存儲(chǔ)組件的集成對(duì)于處理非結(jié)構(gòu)化數(shù)據(jù)操作時(shí)的最佳性能至關(guān)重要。

大規(guī)模 GenAI 部署將通過(guò)增加數(shù)據(jù)量、需要支持不同的數(shù)據(jù)類(lèi)型以及需要高效的數(shù)據(jù)版本控制和生命周期管理來(lái)影響非結(jié)構(gòu)化數(shù)據(jù)存儲(chǔ)領(lǐng)域。網(wǎng)絡(luò)和存儲(chǔ)基礎(chǔ)設(shè)施必須適應(yīng)高吞吐量,同時(shí)將數(shù)據(jù)丟失降至最低。它還必須是可組合的,從而支持 GenAI 工作負(fù)載不斷變化的需求。此外,GenAI 數(shù)據(jù)平臺(tái)必須在 GenAI 工作負(fù)載的不同階段之間實(shí)現(xiàn)混合數(shù)據(jù)管理,以實(shí)現(xiàn)數(shù)據(jù)管道的自動(dòng)化。最后,GenAI數(shù)據(jù)平臺(tái)必須支持高于平常的數(shù)據(jù)安全標(biāo)準(zhǔn),以保護(hù)敏感數(shù)據(jù)。

傳統(tǒng)的存儲(chǔ)基礎(chǔ)設(shè)施方法不適用于 GenAI 工作負(fù)載,因?yàn)槠涔ぷ髁鞒叹哂挟悩?gòu)性。不僅應(yīng)該關(guān)注用于訓(xùn)練 GenAI 模型的高性能存儲(chǔ),還應(yīng)該構(gòu)建端到端工作流程策略,包括跨邊緣、公共云和本地存儲(chǔ)解決方案提供數(shù)據(jù)管理功能的能力。上表概述了如何評(píng)估存儲(chǔ)平臺(tái)以滿(mǎn)足大規(guī)模實(shí)施的要求。

目前,GenAI 的早期采用者正在與超大規(guī)模公共云提供商合作,因?yàn)檫@些提供商可以快速容納任何規(guī)模的試點(diǎn)。為大規(guī)模 GenAI 部署構(gòu)建基礎(chǔ)設(shè)施,應(yīng)該:

  • 選擇能夠?yàn)槊嫦驇?順序批處理工作負(fù)載和小文件/隨機(jī) I/O 工作負(fù)載提供高性能的供應(yīng)商和產(chǎn)品,因?yàn)榇蠖鄶?shù)傳統(tǒng)解決方案無(wú)法為提供良好的性能。
  • 使用共享存儲(chǔ)方法來(lái)整合數(shù)據(jù)平臺(tái)并消除生成式AI數(shù)據(jù)管道階段之間的移動(dòng),并提高存儲(chǔ)效率。
  • 通過(guò)使用高性能結(jié)構(gòu)消除瓶頸并最大限度地提高 GPU 利用率,實(shí)現(xiàn)現(xiàn)有存儲(chǔ)網(wǎng)絡(luò)的現(xiàn)代化。
  • 開(kāi)發(fā)跨不同人工智能數(shù)據(jù)管道階段和部署選項(xiàng)(邊緣、核心和公共云)的集成數(shù)據(jù)管理方法,以避免引入存儲(chǔ)孤島。

總而言之,AI市場(chǎng)正經(jīng)歷著快速的增長(zhǎng),這一增長(zhǎng)動(dòng)力來(lái)源于技術(shù)的進(jìn)步、數(shù)據(jù)可用性的增加以及對(duì)自動(dòng)化和智能決策的需求。各行各業(yè)的企業(yè)開(kāi)始認(rèn)識(shí)到AI在提升效率、改善客戶(hù)體驗(yàn)以及獲取競(jìng)爭(zhēng)優(yōu)勢(shì)方面的價(jià)值。AI市場(chǎng)涵蓋了廣泛的產(chǎn)品和服務(wù),包括AI軟件平臺(tái)、支持AI的硬件以及AI服務(wù)。隨著算法的不斷優(yōu)化,尤其是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域的突破,AI技術(shù)得以迅速發(fā)展,能夠處理更復(fù)雜的問(wèn)題。同時(shí),互聯(lián)網(wǎng)、物聯(lián)網(wǎng)(IoT)設(shè)備和社交媒體等產(chǎn)生的海量數(shù)據(jù)為AI模型提供了豐富的學(xué)習(xí)素材,促進(jìn)了AI解決方案的優(yōu)化和創(chuàng)新,選擇合理的數(shù)據(jù)存儲(chǔ)方案,進(jìn)一步加速AI落地。

制服丝袜国产日韩一区| 亚洲a∨无码日韩精品影片| a毛片视频/国产精品第1页| 男人女人午夜视频免费| 国产一级a毛一级a看免费视频| 人妻仑刮八A级毛片免费看| 久久精品国产亚洲AV麻豆蜜芽| 久久午夜夜伦鲁鲁一区二区| 精品久久人人妻人人做精品| 国产一区二区三区精品视频| 久久综合中文字幕一区二区三区| 最近中文字幕MV高清在线视频| 国产午夜无码视频免费网站| 无码人妻一区二区三区精品视频| 人妻AV无码系列一区二区三区| 亚洲乱码国产一区三区久久午夜无码鲁丝片| 亚洲欧洲日韩一区三区四区| 成年美女黄网站色大片不卡| 小宝极品内射国产在线| 不卡高清无码精品免费在线观| 国产在线精品一区二区不卡麻豆| 无码AⅤ精品影院亚洲AV无码成人专区片在线观看| 日韩av无码精品人妻系列| 国产成人无码Av在线播放无广告| 亚洲午夜福利国产门事件| 老牛精品久久久久久中文| 久久久精品欧美一区二区三区| 美丽人妻无套中出中文字幕 | 亚洲AV无一区二区三区久久| 精品精品久久久久AAAA| 欧美日韩免费一区二区三区播放| 亚洲欧美一区二区三区在线| 国产小受呻吟GV视频在线观看| 99久久麻豆AV一二三区| 日本免费高清视频二区| 波多野结衣一区二区免费视频| 午夜亚洲国产理论片二级港台二级| 亚洲av手机在线观看| 无码专区狠狠躁躁天天躁| 欧美人妻免费大片一级a一级久久三| 国产特黄A级三级三级三级|