Nakłady inwestycyjne a koszty działalności w odniesieniu do przesyłania danych
Dowiedz się więcej na temat podejścia do pamięci masowej polegającego na porównaniu nakładów inwestycyjnych i kosztów działalności oraz sposobu, w jaki wpływa ono na koszty pamięci masowej, zarządzania, przesyłania danych i ich wykorzystywania.
Świat pamięci masowej podlega radykalnym zmianom. Organizacje oceniają nowe podejścia do radzenia sobie z tempem zmian, które powstają w celu optymalizacji transferu danych oraz pamięci masowej na brzegu sieci dla zapewniania większej wydajności, odporności i korzyści cenowych. Niezależnie od tego, czy chodzi o petabajty przesyłanych danych lub małe urządzenia pamięci masowej używane na brzegu sieci, nowe możliwości pojawiają się i zapewniają organizacjom nowe sposoby na kontrolowanie kosztów.
Przygotowywanie
Dodatkowo zmienia się lokalizacja danych. W przeszłości organizacje przechowywały większość swoich danych w lokalnych centrach danych lub w jednej chmurze. Obecnie organizacje posiadają zestawy danych na wielu platformach pamięci masowej w różnych lokalizacjach, w więcej niż jednej chmurze i na brzegu sieci. Do 2025 roku IDC przewiduje, że aż 12,6 ZB pojemności – w dyskach HDD, flash, na taśmach, nośnikach optycznych – będzie zarządzanych przez przedsiębiorstwa. Dostawcy usług w chmurze będą zarządzali 51% tej pojemności, co oznacza, że 49% pojemności będzie podlegać zarządzaniu przez przedsiębiorstwa na brzegu sieci i w centrum.
Wzrasta również ilość przenoszonych danych. Organizacje przesyłaj teraz średnio 36% swoich danych z brzegu sieci do chmury, a woluminy podwajają się co dwa lata. Gartner przewiduje, że do 2025 roku 75% danych generowanych przez przedsiębiorstwa będzie tworzonych na brzegu sieci, a większość z nich będzie przenoszona z centrum do chmury.
Zarządzanie i wykorzystywanie danych w wydajny pod względem kosztów sposób staje się najważniejszym priorytetem. Organizacje już teraz widzą, że budżety przeznaczone na pamięć masową przekraczają oczekiwania, a przekroczenia kosztów chmury stają się nową normalnością. W 2020 roku 42,6% organizacji zakończyło rok, przekraczając swoje budżety na chmurę. Organizacje starają się radzić sobie poprzez przejście do rozwiązań dostarczanych jako usługa, które dają im większą kontrolę nad kosztami.
Dane stanowią najważniejszy zasób i muszą być używane w wydajny sposób, nie tylko przez usługodawców, ale również przez organizacje poszukujące wydajności operacyjnej opartej na danych, zwrotu z inwestycji i możliwości w zakresie dodatkowych inwestycji. Potrzeba posiadania nowych rozwiązań, które wspierają te wymagania, jest szczególnie widoczna w przypadku pamięci masowej na brzegu sieci i przesyłania danych. Przy przesyłaniu danych z punktów końcowych na brzeg sieci, do centrum oraz chmury i z powrotem, znaczenia nabierają nowe technologie. Bezprecedensowy i nieprzewidywalny wzrost danych w połączeniu z przyspieszającymi zmianami w zakresie lokalizacji danych i ich przenoszenia, a także rosnąca presja na zarządzanie danymi z zachowaniem kontroli nad kosztami oraz wykorzystanie danych oznaczają, że stare podejścia do pamięci masowej nie nadążają za potrzebą wykorzystania danych w wydajny sposób i potrzebne są w związku z tym nowe pomysły.
Czołowe organizacje uznają wartość danych za cenny zasób. Zauważają również wpływ, jaki może mieć brak wydajności w zakresie zarządzania danymi, blokując lub ograniczając wartość tych aktywów. Niektóre organizacje próbowały uporać się z tym brakiem efektywności poprzez spoglądanie na pamięć masową z całościowej perspektywy, zwracając uwagę na ograniczenia, możliwości i różne opcje w zakresie różnych typów pamięci masowej zamiast korzystania z jednego zespołu zajmującego się podstawową pamięcią masową, innego zajmującego się pamięcią masową na brzegu sieci itd. To podejście jest często opisywane jako StorageOps i zapewnia organizacjom lepsze zrozumienie korzyści, ograniczeń, możliwości i wad.
Inne organizacje przyjmują kompleksowe podejście poprzez poprawę szybkości i sprawności strumieni danych, często określanych jako DataOps. DataOps poprawia dostępność oraz integrację danych, jednocześnie ograniczając przekroczenia kosztów. Jest to rozwiązanie zakorzenione w sprawnych metodologiach, które ma na celu utrzymanie najwyższego możliwego stopnia optymalizacji wydajności danych, począwszy od ich pozyskiwania, poprzez ochronę, przenoszenie, aż po wykorzystanie.
Niezależnie od podejścia, każda organizacja musi zarządzać kosztami pamięci masowej danych, zarządzania, ich przesyłania i wykorzystania. Dlatego zrozumienie podejścia do pamięci masowej opartego na nakładach kapitałowych w stosunku do kosztów działalności ma znaczenie.
Jak wiadomo, wiele organizacji chce zarządzać swoimi budżetami pamięci masowej w bardziej skuteczny sposób poprzez przejście od modelu nakładów kapitałowych do kosztów działalności w zakresie adaptacji pamięci masowej. Aby wyrazić to prościej, przy rozważaniu potrzeby wykorzystania pamięci masowej organizacje mają dwie opcje:
To podejście często ogranicza organizacje, które muszą ponosić znaczące koszty płatne z góry, liczyć się z utratą wartości w okresie od trzech do pięciu lat, kosztami zarządzania, obowiązkami w zakresie naprawy i konserwacji, potrzebą dodawania rozszerzenia dysku w miarę wzrostu zestawów danych oraz problemem utraconych kosztów, jeśli platforma nie zapewnia odpowiednich funkcji, skalowalności i wydajności, jakie są potrzebne na przestrzeni czasu. Często powoduje to zmniejszenie dostępnej gotówki, zmusza organizacje do realizacji stałej, czasami nieprzewidywalnej konserwacji oraz ponoszenia kosztów modernizacji i powoduje w efekcie blokadę technologiczną.
To podejście sprawa, że organizacja zarządza stałymi rachunkami od usługodawcy (chmury publicznej) lub usługodawców (wielu chmur publicznych). Rachunki są zazwyczaj powiązane z pojemnością i liczbą zarządzanych obiektów. Usługodawca jest odpowiedzialny za naprawę i konserwację. Dodawanie pojemności odbywa się sprawnie i powoduje jedynie zwiększenie miesięcznego rachunku. W niektórych krajach nakłady kapitałowe zapewniają korzyści podatkowe. W teorii, jeśli usługa się nie sprawdza, łatwiej jest przeprowadzić migrację do innej usługi bez obawy o utracone koszty lub potrzebę wycofania lokalnego systemu pamięci masowej.
Coraz więcej organizacji traktuje pamięć masową jako nakład kapitałowy. Poleganie na dostawcy lub dostawcach usług w chmurze w celu zapewniania gotowej platformy pamięci masowej jako usługi upraszcza dostęp i zapewnia zespołom StorageOps lub DataOps sposób na dodanie nowych usług bez ponoszenia znaczących kosztów płatnych z góry. W coraz większym stopniu widzimy przejście od nakładów kapitałowych do kosztów działalności dla wszystkich rodzajów pamięci masowej, włączają w to przesyłanie danych masowych oraz pamięć masową na brzegu sieci. Model oparcia pamięci masowej na kosztach działalności może być bardzo sensownym rozwiązaniem – chyba że koszty staną się nieprzewidywalne i będą znacząco narastać.
Wycena 1.0: pamięć masowa traktowana jako tradycyjny nakład kapitałowy
Rzeczywistość pamięci masowej dostarczanej jako usługa jest często skomplikowana poprzez mylący model kosztów, co jest szczególnie widoczne w przypadku pamięci masowej na brzegu sieci oraz możliwości migracji danych zapewnianych przez czołowych dostawców chmury.
Oto, co można zobaczyć dla jednego regionu centrum danych w jednej chmurze po zapoznaniu się z cenami czołowych dostawców chmury:
Innymi słowy, jest to model wyceny, który jest niemal niemożliwy do zrozumienia i niesamowicie trudny do zarządzania. W miarę jak zestawy danych oraz potrzeby się zmieniają, koszty stają się coraz bardziej nieprzewidywalne, co może wymknąć się spod kontroli i doprowadzić do przekroczenia budżetu i frustracji.
Dla tego samego portfolio pamięci masowej na brzegu sieci od dostawcy usług w chmurze, składającego się z kilku urządzeń używanych do agregacji na brzegu sieci, zautomatyzowanego przesyłania danych i nawet fizycznych wysyłek danych, modele cenowe są bardzo skomplikowane. Oferują one:
Co gorsze, ich portfolio pamięci masowej na brzegu sieci stanowi zablokowany ekosystem, który działa tylko z ich chmurą. Efektem są ograniczenia przypominające nakłady kapitałowe, z tym że opłaty odbywają się co miesiąc zamiast jako koszt płatny z góry.
W hybrydowym, wielochmurowym świecie z infrastrukturą na brzegu sieci dane są rozproszone pomiędzy dziesiątkami, setkami lub nawet tysiącami lokalizacji. Koszt złożonych i ściśle chronionych ekosystemów podkopuje wszystko, co starają się osiągnąć zespoły odpowiedzialne za pamięć masową lub dane. Można dostrzec, jak łatwo przekroczyć koszty i trafić na wyzwania budżetowe przy modelu opartym na kosztach działalności, który jest zawiły i nieprzewidywalny.
Zespoły StorageOps i DataOps poszukują prostoty. Jak ustaliliśmy, istnieje gwałtownie rosnąca potrzeba posiadania pamięci masowej na brzegu sieci oraz zwiększenia możliwości w zakresie przesyłania danych, jednak modele cenowe oraz ograniczenia ekosystemów negatywnie wpływają na wprowadzanie rozwiązań.
Sprzedawca ma możliwość stworzenia modelu wyceny, który na potrzeby niniejszego dokumentu możemy nazwać OpEx 2.0. Jest to model, który rozpoznaje potrzeby organizacji w zakresie prostoty, przejrzystości i otwartości. Charakteryzowałyby go wszystkie korzyści związane z modelem opartym na kosztach działalności (opłata za zużycie, brak kosztów płatnych z góry, brak konserwacji, brak kosztów utraconych), lecz jednocześnie oferowałby uproszczoną wycenę i otwarty ekosystem. Organizacje mogą płacić za to, czego naprawdę potrzebują i kiedy tego potrzebują, dzięki użyciu modelu, który jest prosty i przejrzysty.
Niektóry sprzedawcy pracowali nad dostarczeniem modelu wyceny OpEx 2.0 dla pamięci masowej na brzegi sieci oraz usługi przesyłania danych dla przedsiębiorstw. Pomysł polega na oferowaniu niezależnego od sprzedawcy, wielochmurowego rozwiązania pamięci masowej na brzegu sieci, o jasnym modelu wyceny i braku ograniczeń. Te rozwiązania umożliwiają przedsiębiorstwom gromadzenie, przechowywanie, przenoszenie i aktywowanie danych bez ograniczeń zamkniętego ekosystemu lub przekraczania kosztów. Idealne rozwiązanie oferuje samodzielnie zarządzaną usługę subskrypcji, która umożliwia organizacjom zwiększenie lub zmniejszenie na bieżąco wymagań w zakresie pamięci masowej, bez opłat i w prosty sposób. Niezależnie od tego, czy organizacje potrzebują przesyłania danych i pamięci masowej na brzegu sieci z miesiąca na miesiąc, czy chcą się rozliczać rocznie, odpowiedni dostawca powinien być w stanie zapewnić szeroką gamę urządzeń z funkcjami potrzebnymi do odniesienia sukcesu.
Odpowiednia usługa, przy założeniu jednej, niskiej ceny, obejmowałaby:
W Seagate dostarczamy to, co jest potrzebne. Dzięki naszemu portfolio pamięci masowych do brzegu sieci i rozwiązań do przesyłania danych możesz zbudować pamięć masową na brzegu sieci lub infrastrukturę przesyłania danych w modelu OpEx 2.0, który omija wszystkie niepotrzebne zawiłości innych modeli OpEx.
Klienci korporacyjni coraz częściej rozważają modele pamięci masowej opartej na subskrypcji, zakładające „płatność za wykorzystanie” w celu obsługi przesyłania danych od brzegu sieci do chmury. Ponoszenie nakładów wyłącznie na usługi chmury zwiększy się z 217 mld USD w 2021 do 524 mld w 2025 roku według raportu IDC Semiannual Public Cloud Services Tracker (2021H1, listopad 2021), przy czym infrastruktura pamięci masowej dostępnej jako usługa (IaaS) osiągnie w sumie 93 mld USD. Dodatkowo badanie Gartner Competitive Landscape: Consumption-Based Pricing for On-Premises Infrastructures (październik 2020 r.), pokazało, że 53 procent firm zgodziło się, że wdrożenie technologii opartej na subskrypcji jest teraz ich preferowanym modelem.
Działy IT są również bardziej skłonne rozważać fizyczne przenoszenie danych jako integralną część ich ogólnych strategii w zakresie danych. Istnieją konkurencyjne rozwiązania do przesyłania danych, jednak większość z nich nie oferuje takiego samego poziomu integracji środowiska wielochmurowego, jaki może zapewnić Lyve Mobile. Wiele przedsiębiorstw przechodzi do bardziej opartego na chmurze rozwiązania w zakresie danych, dostępnego „jako usługa”, zamiast dodawania większej ilości umieszczonego lokalnie sprzętu. Lyve Mobile zaprojektowano jako rozwiązanie komplementarne dla szerokiej gamy takich usług, włączając w to pamięć masową w chmurze i usługi zapewniające odpowiednie możliwości w zakresie przetwarzania.
Klienci w branżach takich jak media i rozrywka, nauki o ziemi i służba zdrowia, który generują masowe zestawy niestrukturyzowanych danych, polegają na elastyczności i przystępnej cenie, jaką oferują modele oparte na subskrypcji. Zapłata wyłącznie za sprzęt, oprogramowanie i usługi, które są potrzebne, pozwala zminimalizować koszty, jednocześnie stanowiąc zapewnienie dla klientów, że ich infrastruktura danych będzie wspierała operacje od punktów końcowych do chmury.
Korzyści z pamięci masowej bazującej na subskrypcji obejmują:
Korzystanie z Lyve Mobile bazującego na kosztach działalności sprawia, że partnerzy mogą uporać się z dużą liczbą potrzeb w zakresie stałego przesyłania danych oraz standardowych zastosowań obejmujących ich pobieranie i przenoszenie, przy jednoczesnym zmniejszaniu ogólnych kosztów operacyjnych oraz całkowitego kosztu posiadania dla klientów.
Wykorzystanie elastycznych modeli płatności pozwala klientom Lyve Mobile na zmianę skali projektów w górę lub w dół co miesiąc, umożliwiając maksymalizację korzyści z usług przesyłania danych i jednocześnie zapewniając oszczędzanie kosztów na niewystarczająco wykorzystywanych aktywach, które zazwyczaj pojawiają się w tradycyjnym modelu zakupów. Ta strategia pomaga również partnerom uprościć zarządzanie urządzeniami w terenie, szybko odświeżać/zmieniać technologię i przewidywać zmianę wymagań lub wieku rozwiązań, bez konieczności rozmieszania dodatkowych aktywów.
Pamięć masowa Lyve Mobile do brzegu sieci oraz rodzina rozwiązań umożliwiających przesyłanie danych w ramach usługi mogą pomóc organizacji w unikaniu ograniczeń OpEx 1.0 za pomocą otwartej platformy, które zapewnia jasną wycenę.
Aby dowiedzieć się więcej na temat Lyve Mobile, odwiedź stronę: https://www.seagate.com/products/data-transport.