BLOG

Pamięć masowa i moc obliczeniowa: potrzeby w zakresie przepływów roboczych wykorzystujących sztuczną inteligencję.

Dyski twarde oraz dyski SSD dołączają do GPU, CPU, HBM oraz DRAM jako istotne komponenty wykorzystywane w zastosowaniach AI.

Spis treści

storage-and-compute-tandem-needs-for-ai-thumbnail-image storage-and-compute-tandem-needs-for-ai-thumbnail-image storage-and-compute-tandem-needs-for-ai-thumbnail-image

Zastosowanie sztucznej inteligencji (AI) na całym świecie stale rośnie. Jednocześnie możliwości rozwiązań IT, które obsługują sztuczną inteligencję, gwałtownie rosną. Następuje bezprecedensowa innowacyjność. 

Obecnie procesor (logiczny) przyciąga najwięcej uwagi liderów korporacyjnych i inwestorów ze względu na jego wkład w sztuczną inteligencję. Oczywiście procesory mają zasadnicze znaczenie dla sztucznej inteligencji i obliczeń o wysokiej wydajności. Jednak sukces AI nie zależy wyłącznie od mocy obliczeniowej i wydajności. Równie ważne jest to, że zastosowania AI opierają się na pamięci masowej danych, która zapewnia początkowe repozytorium nieprzetworzonych danych, tworząc punkty kontrolne, budujące zaufanie do przepływów roboczych AI oraz przechowujące wnioski i wyniki analizy AI. 

Pomyślne wdrożenie sztucznej inteligencji wymaga synergii zasobów obliczeniowych i pamięci masowej danych. 

W miarę jak duże centra danych zwiększają możliwości związane ze sztuczną inteligencją, staje się jasne, że zastosowania AI nie opierają się wyłącznie na obliczeniowej stronie architektury centrum danych AI. Klaster obliczeniowy składa się z procesorów o wysokiej wydajności, pamięci o wysokiej przepustowości (HBM), pamięci dynamicznej o swobodnym dostępie (DRAM) i szybkich lokalnych dysków półprzewodnikowych (SSD) – tworząc zaawansowany silnik do trenowania AI. Komponenty klastra obliczeniowego są umieszczone lokalnie, zazwyczaj tuż obok siebie, ponieważ dodatkowa odległość może powodować opóźnienia i problemy z wydajnością.

Zastosowania związane ze sztuczną inteligencją zależą również od klastra pamięci masowej, który obejmuje sieciowe dyski twarde o dużej pojemności oraz sieciowe dyski SSD (o większej pojemności w porównaniu z wydajniejszymi lokalnymi dyskami SSD w klastrze obliczeniowym). Klaster pamięci masowej jest połączony w sieć (rozproszony), ponieważ powoduje to mniejsze obawy związane z wydajnością pamięci masowej w dużej skali. Odległość komponentów jest mniej znaczącym czynnikiem przy obliczaniu całkowitego opóźnienia w porównaniu z klastrami obliczeniowymi, gdzie oczekiwane opóźnienie może wynosić nanosekundy. Dane ostatecznie trafiają do klastra pamięci masowej, składającego się głównie z pojemnych dysków twardych, gdzie są przechowywane przez długi czas.

W tym artykule omówiono współdziałanie mocy obliczeniowej i pamięci masowej w różnych fazach typowego przepływu roboczego AI.

Wydajność i skalowalność dla AI.

Niektóre technologie w przepływach roboczych wykorzystujących sztuczną inteligencję cechują się większą wydajnością, a inne większą skalowalnością, lecz każda z nich stanowi integralną część procesu. Pamięć instalowana w urządzeniu jest wysoce wydajna i składa się zazwyczaj z modułów HBM lub DRAM podłączonych do procesorów graficznych (GPU) i procesorów centralnych (CPU) lub jednostek przetwarzania danych (DPU). Zespoły DPU to funkcjonalne silniki odciążające dołączone do procesora, które pomagają w realizacji określonych zadań. Niektóre architektury z nich korzystają, podczas gdy inne nie. Wysoka przepustowość pamięci pozwala na wydajne pobieranie danych i trenowanie modeli AI.

Niskie opóźnienia i wystarczająca pojemność dysków SSD pozwalają na szybkie wnioskowanie i częsty dostęp do przechowywanych treści. W architekturze centrum danych AI szybkie lokalne dyski SSD są dołączone do klastra obliczeniowego, w pobliżu procesorów i pamięci. Lokalne dyski SSD zazwyczaj korzystają z pamięci składającej się z trzech poziomów i odznaczają się wysoką trwałością, jednak są droższe niż sieciowe dyski SSD i nie mają tak dużej pojemności. 

Sieciowe dyski SSD o większej pojemności pamięci masowej w porównaniu z lokalnymi dyskami SSD są częścią klastra pamięci masowej, realizując inne zadania w ramach przepływów roboczych związanych z zastosowaniem AI. Ich szybkość nie dorównuje szybkości lokalnych dysków SSD. Sieciowe dyski SSD są mniej trwałe pod względem liczby zapisów dysku dziennie, nadrabiają to jednak większą pojemnością.

Sieciowe dyski twarde, również będące częścią klastra pamięci masowej architektury centrum danych AI, są najbardziej skalowalnymi i wydajnymi urządzeniami informatycznymi w przepływach roboczych związanych z AI. Szybkość dostępu tych urządzeń jest umiarkowana, ale charakteryzują się za to bardzo wysoką pojemnością, co stanowi idealne rozwiązanie w przypadku instancji niewymagających szybkiego i częstego dostępu.

Nieskończona pętla AI.

Przepływy robocze związane z AI funkcjonują w nieskończonej pętli wykorzystywania i tworzenia, wymagając nie tylko procesorów i pamięci, lecz także komponentów pamięci masowej. Powiązane ze sobą etapy przepływu roboczego związanego z AI obejmują pozyskiwanie danych, trenowanie modeli, tworzenie treści, przechowywanie treści oraz zachowywanie i ponowne wykorzystanie danych. Przyjrzyjmy się rolom, które przetwarzanie i pamięć masowa odgrywają na tych etapach.

Krok 1: pozyskiwanie danych.

Etap pozyskiwania danych obejmuje definiowanie, odkrywanie i przygotowywanie danych do analizy AI.

Moc obliczeniowa: Procesory GPU odgrywają fundamentalną rolę na etapie pozyskiwania danych, umożliwiając szybkie wstępne przetwarzanie i transformację danych. Stanowią one uzupełnienie dla CPU, przeprowadzając równolegle powtarzające się obliczenia, podczas gdy główna aplikacja pracuje na jednostce CPU. CPU działa jak jednostka podstawowa, zarządzając wieloma zadaniami obliczeniowymi ogólnego przeznaczenia, podczas gdy GPU wykonuje mniejszy zestaw bardziej wyspecjalizowanych zadań.

Pamięć masowa: Na etapie pozyskiwania danych zarówno sieciowe dyski SSD, jak i sieciowe dyski twarde są używane do przechowywania ogromnych ilości danych potrzebnych do stworzenia czegoś nowego. Sieciowe dyski SSD działają jak natychmiast dostępna warstwa danych, oferując wyższą wydajność. Sieciowe dyski twarde zapewniają dużą pojemność, dużą gęstość zapisu i skalowalność, a także możliwość długoterminowego przechowywania i ochrony danych w stanie surowym.

Krok 2: trenowanie modeli.

Na etapie trenowania model uczy się na podstawie przechowywanych danych. Trenowanie to proces realizowany metodą prób i błędów, w ramach którego model staje się zbieżny i zabezpieczony punktami kontrolnymi. Trenowanie wymaga szybkiego dostępu do danych.

Moc obliczeniowa: Procesory GPU odgrywają kluczową rolę na etapie trenowania modelu, gdzie możliwości przetwarzania równoległego pozwalają im radzić sobie z ogromnymi obciążeniami obliczeniowymi związanymi z głębokim uczeniem. Trenowanie sztucznej inteligencji obejmuje tysiące zwielokrotnień macierzy, które procesory GPU obsługują jednocześnie, przyspieszając proces i umożliwiając uczenie złożonych modeli o miliardach parametrów. Procesory CPU współpracują z procesorami GPU, organizując przepływ danych między pamięcią a zasobami obliczeniowymi. Procesory CPU zarządzają takimi zadaniami jak przygotowywanie partii i zarządzanie kolejką, dzięki czemu właściwe dane są dostarczane do GPU w odpowiednim czasie. Zajmują się również optymalizacją hiperparametrów modelu, przeprowadzając obliczenia, które mogą nie wymagać równoległej mocy przetwarzania GPU.

W uczeniu modeli HBM i DRAM mają zasadnicze znaczenie dla szybkiego dostępu do danych, utrzymując aktywne zestawy danych w pobliżu procesorów. Interfejs HBM, które jest zazwyczaj zintegrowany z GPU, znacząco zwiększa szybkość przetwarzania danych, zapewniając GPU dostęp do najczęściej wykorzystywanych danych podczas trenowania.

Lokalne dyski SSD służą jako pamięć masowa o szybkim dostępie do zestawów danych używanych na tym etapie. Przechowują pośrednie wyniki trenowania i pozwalają na szybkie odzyskiwanie dużych zbiorów danych. Są one szczególnie przydatne w przypadku modeli treningowych, które wymagają szybkiego dostępu do dużych ilości danych, takich jak modele rozpoznawania obrazów obejmujące miliony obrazów.

Pamięć masowa: Dyski twarde w przystępnej cenie przechowują ogromne ilości danych potrzebnych do trenowania modeli AI Oprócz zapewniania wymaganej skalowalnej pojemności dyski twarde pomagają zachować integralność danych – przechowując i chroniąc replikowane wersje tworzonych treści. Dyski twarde są opłacalne w porównaniu z innymi opcjami pamięci masowej, gdyż dostarczają niezawodną, długoterminową pamięć masową oraz umożliwiają wydajną ochronę dużych zestawów danych i zarządzanie nimi.

Sieciowe dyski twarde i sieciowe dyski SSD przechowują między innymi punkty kontrolne w celu ochrony i udoskonalenia trenowania modeli. Punkty kontrolne to zapisane migawki ze stanu modelu w określonych momentach podczas jego trenowania, dostrajania i adaptacji. Te migawki mogą być później użyte w celu udowodnienia własności intelektualnej lub przedstawienia, w jaki sposób algorytm doszedł do danych wniosków. Gdy dyski SSD są używane w punktach kontrolnych, punkty kontrolne są zapisywane w krótkich odstępach czasu (tj. co minutę) ze względu na ich niskie opóźnienia. Jednak te dane są zazwyczaj nadpisywane po krótkim czasie z powodu małej pojemności tych dysków w porównaniu z dyskami twardymi. Natomiast punkty kontrolne na dyskach twardych są zazwyczaj zapisywane w wolniejszych odstępach czasu (np. co pięć minut), lecz mogą być utrzymywane niemal w nieskończoność ze względu na skalowalną pojemność dysku twardego.

Krok 3: tworzenie treści.

Faza tworzenia treści obejmuje proces wnioskowania, który wykorzystuje wytrenowany model do tworzenia danych wyjściowych.

Moc obliczeniowa: Podczas tworzenia treści procesory GPU wykonują zadania związane z wnioskowaniem przez AI, stosując wytrenowany model do nowych danych wejściowych. Ten paralelizm pozwala procesorom GPU przeprowadzać wiele operacji wnioskowania jednocześnie, co czyni je niezastąpionymi w zastosowaniach w czasie rzeczywistym, takich jak generowanie treści wideo lub konwersacyjne systemy AI. Podczas gdy procesory GPU dominują w zadaniach obliczeniowych podczas tworzenia treści, procesory CPU odgrywają kluczową rolę w zarządzaniu logiką sterowania i w realizacji wszelkich operacji, które wymagają przetwarzania szeregowego. Obejmuje to generowanie skryptów, obsługę danych wprowadzanych przez użytkownika i uruchamianie w tle zadań o niższym priorytecie, które nie wymagają wysokiej przepustowość GPU.

Etap tworzenia treści korzysta z pamięci HBM i DRAM. Pamięć odgrywa tutaj kluczową rolę w dostępie do danych w czasie rzeczywistym, przechowując wyniki wnioskowań AI i dostarczając je z powrotem do modelu w celu dalszego udoskonalenia. Pamięć DRAM o dużej pojemności pozwala na wielokrotne iteracje tworzenia treści bez spowalniania przepływu pracy, zwłaszcza w zastosowaniach takich jak generowanie materiałów wideo lub przetwarzanie obrazu w czasie rzeczywistym.

Podczas tworzenia treści lokalne dyski SSD zapewniają dużą szybkość odczytu/zapisu niezbędną do przetwarzania w czasie rzeczywistym. Niezależnie od tego, czy sztuczna inteligencja generuje nowe obrazy, filmy czy tekst, dyski SSD pozwalają systemowi radzić sobie z częstymi i szybkimi operacjami we/wy bez zatorów, gwarantując szybkie tworzenie treści.

Pamięć masowa: Pamięć główna na etapie tworzenia opiera się na HBM, DRAM i lokalnych dyskach SSD.

Krok 4: przechowywanie treści.

Na etapie przechowywania treści nowo utworzone dane są zapisywane w celu dalszego udoskonalania oraz zapewniania jakości i zgodności.

Moc obliczeniowa:
Chociaż procesory GPU i CPU nie są bezpośrednio zaangażowane w długoterminowe przechowywanie, mogą pomagać w kompresowaniu lub szyfrowaniu danych w miarę ich przygotowywania do przechowywania. Ich zdolność do szybkiego przetwarzania dużych woluminów danych oznacza, że treści są gotowe do archiwizacji bez opóźnień. Pamięć jest używana jako tymczasowa pamięć podręczna przed przeniesieniem danych do pamięci długoterminowej. DRAM przyspiesza operacje zapisu, szybko i sprawnie zapisując treści generowane przez AI. Jest to szczególnie ważne w zastosowaniach wykorzystujących sztuczną inteligencję w czasie rzeczywistym, w których opóźnienia w przechowywaniu danych mogą prowadzić do powstawania „wąskich gardeł”.

Pamięć masowa: Pamięć masowa opiera się zarówno na sieciowych dyskach SSD, jak i sieciowych dyskach twardych, które zapisują dane w celu stałego udoskonalania oraz zapewniania jakości i zgodności z przepisami. Sieciowe dyski SSD dostarczają odpowiednią warstwę danych i są wykorzystywane do krótkoterminowego i szybkiego przechowywania treści generowanych przez AI. Ze względu na niższą pojemność w porównaniu z dyskami twardymi dyski SSD zazwyczaj przechowują treści, które są często używane lub muszą być natychmiast dostępne do edycji i dopracowywania.

Proces iteracji prowadzi do powstania nowych, sprawdzonych danych do przechowania w pamięci masowej. Dane te są zapisywane w celu dalszego doskonalenia, zapewniania jakości i zgodności z przepisami. Dyski twarde przechowują i chronią replikowane wersje tworzonych treści oraz dostarczają pojemność o znaczeniu krytycznym do przechowywania treści generowanych w procesach AI. Nadają się do tego szczególnie dobrze, ponieważ oferują dużą pojemność pamięci masowej przy relatywnie niskim koszcie w porównaniu z innymi opcjami pamięci masowej, takimi jak dyski SSD.

Krok 5: zachowanie danych.

Na etapie zachowania danych replikowane zestawy danych są przechowywane w różnych regionach i środowiskach. Na tym etapie zazwyczaj wykorzystywane są zasoby pamięci masowej.

Pamięć masowa: Przechowywane dane to podstawa godnej zaufania sztucznej inteligencji, dzięki której naukowcy danych mogą zagwarantować, że modele będą działać zgodnie z oczekiwaniami. Sieciowe dyski SSD są stosowane do zabezpieczenia wydajności i połączenia dysków twardych z lokalną warstwą SSD, wspomagając przepływ danych w ekosystemie.

Dyski twarde to podstawowe nośniki danych wymagające długoterminowej pamięci masowej i ochrony danych. Pomagają one zachować wyniki tworzenia treści za pomocą AI, bezpiecznie przechowując wygenerowane treści, dzięki czemu można uzyskać do nich dostęp w razie potrzeby. Zapewniają również skalowalność potrzebną do wydajnej obsługi rosnącej ilości danych.

Krok 6: ponowne wykorzystanie danych.

Wreszcie, na etapie ponownego wykorzystania danych, dane źródłowe, dane z trenowania i wnioskowania są stosowane do następnej iteracji przepływu pracy.

Moc obliczeniowa: Procesory GPU odgrywają znaczącą rolę w fazie ponownego wykorzystania danych, uruchamiając na nowo modele zarchiwizowanych zestawów danych pod kątem nowych wniosków lub dodatkowego uczenia, co pozwala na ponowne rozpoczęcie cyklu danych AI. Ich zdolność do przeprowadzania równoległych obliczeń na dużych zbiorach danych pozwala systemom AI stale zwiększać dokładność modeli przy minimalnych nakładach czasowych. Procesory CPU wysyłają zapytania i pobierają przechowywane dane do ponownego wykorzystania. Wydajnie filtrują i przetwarzają dane historyczne, dostarczając odpowiednie fragmenty z powrotem do modeli wykorzystywanych w trenowaniu. W wielkoskalowych systemach AI procesory CPU często wykonują te zadania, jednocześnie zarządzając interakcjami między systemami pamięci masowej i klastrami obliczeniowymi.

Gdy dane historyczne są odzyskiwane w celu ponownego wykorzystania w innej iteracji analizy modelu AI, pamięć gwarantuje szybki dostęp do dużych zbiorów danych. HBM pozwala na szybkie wczytywanie zestawów danych do pamięci GPU, gdzie można je natychmiast wykorzystać do ponownego szkolenia lub wnioskowania w czasie rzeczywistym.

Pamięć masowa: Treści wyjściowe są przesyłane z powrotem do modelu, co poprawia jego dokładność i umożliwia tworzenie nowych modeli. Sieciowe dyski twarde oraz dyski SSD obsługują tworzenie rozproszonych geograficznie danych AI. Surowe zbiory danych i wyniki stają się źródłem nowych przepływów roboczych. Dyski SSD przyspieszają odzyskiwanie wcześniej przechowywanych danych. Niski poziom opóźnień zapewnia szybką reintegrację tych danych w ramach przepływów roboczych wykorzystujących sztuczną inteligencję, skracając czasy oczekiwania i zwiększając ogólną wydajność systemu. Dyski twarde spełniają wymagania w zakresie pojemności na etapie ponownego wykorzystania danych AI, umożliwiając wdrażanie kolejnych iteracji modelu przy zachowaniu rozsądnych koszów.

Pamięć masowa stanowi podstawę sztucznej inteligencji.

Jak widzieliśmy, procesy produkcyjne wykorzystujące sztuczną inteligencję wymagają wysokowydajnych procesorów oraz rozwiązań pamięci masowej danych. Pamięć instalowana w urządzeniu oraz dyski SSD znajdują swoje miejsce w zastosowaniach AI ze względu na ich dużą prędkość, która pozwala na szybkie wnioskowanie. My jednak lubimy myśleć o dyskach twardych jako o podstawie sztucznej inteligencji. Są one szczególnie ważne ze względu na ich niedrogą skalowalność, która jest niezbędna w wielu przepływach pracy wykorzystujących sztuczną inteligencję.

Dyski twarde Seagate z technologią Mozaic 3+™ – naszą unikatową implementacją technologii zapisu magnetycznego wspomaganego termicznie (HAMR) – stanowią doskonały wybór do zastosowań wykorzystujących sztuczną inteligencję ze względu na ich gęstość powierzchniową, wydajność i korzyści płynące z optymalizacji przestrzeni. Zapewniają one niespotykaną wcześniej gęstość powierzchniową na poziomie ponad 3 TB na talerz, są obecnie dostępne w pojemnościach rozpoczynających się od 30 TB i trafiają do klientów korzystających z rozwiązań hiperskalowych. Seagate testuje już platformę Mozaic osiągającą poziom ponad 4 TB i ponad 5 TB na talerz.

W porównaniu z obecną generacją dysków twardych z technologią magnetycznego zapisu prostopadłego (PMR) dyski twarde Mozaic 3+ wymagają czterokrotnie mniej energii podczas pracy i emitują dziesięciokrotnie mniej dwutlenku węgla na terabajt.

W przypadku obciążeń związanych ze sztuczną inteligencją moc obliczeniowa i pamięć masowa działają w tandemie. Przetwarzanie zorientowane na moc obliczeniową oraz pamięć – a także wysokowydajne dyski SSD – mają zasadnicze znaczenie w zastosowaniach związanych z AI. Podobnie jest w przypadku skalowalnych rozwiązań pamięci masowej danych, z dyskami twardymi Seagate pełniącymi najważniejsze funkcje w tym zakresie.