Jakie kwestie należy wziąć pod uwagę, chcąc zbudować wysokodostępne środowisko składowania danych w firmie? Do dyspozycji jest szereg możliwości uwzględniających specyficzne potrzeby przedsiębiorstw w zależności od ich wielkości czy branży.
Celem wdrażania mechanizmów wysokiej dostępności (High Availability) jest niedopuszczenie do przestoju kluczowych procesów biznesowych przedsiębiorstwa lub – jeżeli awaria nastąpi – zminimalizowanie ich wpływu na działanie organizacji. Zapewnienie wysokiej dostępności jest szczególnie istotne dla firm, których biznes zależy od utrzymywania stałego dostępu do usług dla klientów (np. serwisy online, platformy muzyczne i VOD, banki), lub organizacji, gdzie przerwanie ciągłości pracy skutkuje wysokimi kosztami jej ponownego uruchomienia (np. przemysł, produkcja, wydobycie).
Zagwarantowanie nieprzerwanego działania infrastruktury IT jest przy tym dużym wyzwaniem, ponieważ tego typu projekty muszą obejmować wiele obszarów: od usunięcia możliwości wystąpienia pojedynczego punktu awarii (serwera, węzła pamięci masowej, urządzenia sieciowego, aplikacji itd.), poprzez zapewnienie redundantnych ścieżek dostępu do sieci i równomiernego rozłożenia ruchu, aż po możliwość błyskawicznego odzyskania krytycznych danych oraz dostępu do kluczowych aplikacji biznesowych po wystąpieniu awarii. Od tego zależeć będzie, czy (na ile) firmowa architektura IT będzie odporna na awarie czy spadki wydajności. W oczywisty sposób im większy stopień jej skomplikowania, tym zapewnienie wysokiej dostępności będzie trudniejsze.
Żadna aplikacja nie może działać prawidłowo, gdy nie ma dostępu do zasilających ją danych, dlatego ważnym elementem strategii w obszarze gwarantowania wysokiej dostępności firmowych aplikacji jest sposób ich składowania i przetwarzania. Strategia składowania danych będzie wpływała zarówno na wydajność, poziom zabezpieczeń oraz topologię, jak i system plików, sposoby dostępu czy metody zapewnienia zgodności z wymaganiami ustawodawcy.
Dane on-site, w chmurze czy pomiędzy?
W przypadku składowania danych w środowisku on-premise ważne jest ustalenie newralgicznych dla prawidłowego działania zaplecza IT punktów w architekturze informatycznej firmy. W grę wchodzą wirtualizacja i rozwiązania klastrowe, równoważenie obciążenia, zapewnianie dostępu do sieci itd.
Zagwarantowanie wysokiej dostępności danych po stronie własnej infrastruktury IT przekłada się na znaczne koszty dublowania serwerów, macierzy dyskowych itd. Nakłady te będą istotne już w przypadku budowania środowiska Active-Passive, a zwłaszcza Active-Active. Z punktu widzenia dostępności należy pamiętać, że tradycyjne środowiska NAS są zazwyczaj instalowane w pojedynczej lokalizacji (nawet jeżeli uwzględnione zostały redundantne elementy infrastruktury), co może przełożyć się na opóźnienia w odpowiedzi na zapytania wysyłane przez użytkowników znajdujących się daleko od centrum danych.
Skalowanie lokalnych rozwiązań typu NAS możliwe jest w jednym z dwóch modeli: pionowym (scale-up) oraz poziomym (scale-out). Pierwszy oznacza inwestycję w nowe, charakteryzujące się większą mocą obliczeniową czy przestrzenią dyskową serwery; drugi dodawanie do istniejącego zaplecza nowych urządzeń, między które rozdzielany będzie wzrastający ruch czy rosnący strumień danych. Oba modele generują koszty; scale-up skokowo, wraz z wymianą sprzętu na wydajniejsze odpowiedniki nowej generacji. Scale-out umożliwia zapanowanie nad kosztami poprzez sukcesywne zwiększanie nakładów wraz ze wzrostem zapotrzebowania i dodawaniem kolejnych węzłów. Wadą tej metody jest wyższy koszt rozbudowy w zestawieniu ze zwiększaniem zasobów w ramach tego samego urządzenia skalowanego w górę.
Zaletą posiadania własnej serwerowni czy centrum danych jest możliwość zapewnienia (przynajmniej w teorii) pełnej kontroli nad danymi, niezależnie od ich typu. To ułatwia spełnienie wymagań regulatora, zwłaszcza w regulowanych w dużym stopniu branżach, takich jak bankowość czy finanse.
W obszarze składowania danych szybko wzrasta popularność chmury obliczeniowej. Tego typu usługi oferuje wielu dostawców, zarówno polskich, jak i zagranicznych. Konkurencyjne ceny wykorzystania przestrzeni dyskowej (przeważnie w euro lub dolarach per 1 GB) i niska bariera wejścia sprawiają, że przedsiębiorstwa coraz chętniej sięgają po tę wygodną formę składowania danych. Co istotne, chmurę nieporównywalnie łatwiej skalować niż w przypadku środowisk on-premise.
Biorąc pod uwagę zapewnienie wysokiej dostępności, przeniesienie danych w chmurę oznacza przesunięcie akcentów z zapewniania redundancji własnych macierzy dyskowych na rzecz dostępności łączy o wysokiej przepustowości. W tym modelu przedsiębiorstwo jest bowiem zależne od możliwości skomunikowania się z usługodawcą oraz niezawodności oferowanych przez niego usług dostępowych czy chmurowych. Choć wyspecjalizowani dostawcy rozwiązań cloud computing mają zazwyczaj znacznie bardziej rozbudowane mechanizmy wysokiej dostępności niż ich klienci, to im także zdarzają się przestoje. Przykładem są niedawne problemy z dostępnością sieci szkieletowej OVH czy zeszłoroczne ataki na Dyn, amerykańskiego dostawcę usług chmurowych i DNS.
Wykorzystanie chmury obliczeniowej do składowania danych wymaga, by pamiętać o elementach ryzyka. Chodzi np. O to, jakie są narzucane przez regulatora bądź politykę firmy ograniczenia co do rodzaju danych gromadzonych w chmurze? Jakie SLA – i w jakiej cenie – oferuje dostawca chmury obliczeniowej? Czy konieczna będzie konwersja danych i dostosowanie posiadanych aplikacji do obsługi API udostępnianego przez danego usługodawcę? Jakie będą realne koszty przejścia w chmurę, skoro wiele polskich przedsiębiorstw ma problemy z oszacowaniem nawet tego, jakie są całkowite koszty utrzymania danych po stronie ich własnej infrastruktury (sprzęt i amortyzacja, praca specjalistów, biura, klimatyzacja, dostęp do sieci etc.)? Nie mając ustalonego punktu wyjścia, trudno ustosunkować się do oferty dostawców.
Wspomniane wyżej kwestie sprawiają, że chętnie rozważaną przez działy IT opcją stają się środowiska hybrydowe, łączące wygodę i elastyczność chmury publicznej z daleko posuniętą możliwością panowania nad firmowymi danymi, charakterystyczną dla środowisk lokalnych.
Źródło : Computerworld