„Gorączka złota” w zakresie gromadzenia i analizowania wielkich zbiorów danych (ang. Big Data) trwa, napędzana przez nabierający znaczenia trend Internetu Rzeczy (ang. Internet of Things). Sytuacja ta stwarza coraz większe problemy w zakresie bezpieczeństwa sieci firmowych i centrów przetwarzania danych. Istnieją trzy kluczowe obszary, które można zoptymalizować, aby lepiej wykorzystać ich potencjał.
Pierwszym z nich jest agregacja. Coraz częściej zamiast przetwarzać surowe dane i ograniczać ich ilość u źródła do poziomu ułatwiającego zarządzanie, są one przesyłane do centralnego repozytorium i przechowywane w celu ich analizowania pod różnym kątem w dłuższym okresie. W dzisiejszych czasach przedsiębiorstwa każdego dnia przesyłają wiele terabajtów danych do odległych lokalizacji. Już sama ilość danych wymusza modernizację sieci szkieletowych i centrów przetwarzania danych, na przykład przez wdrażanie przełączników 100 GbE w celu zapewnienia obsługi przesyłania danych z prędkością 10 Gb/s lub większą.
Ponadto taka sytuacja stwarza problemy w zakresie ochrony brzegów sieci (np. firewalle), a wiele rozwiązań dostępnych dziś na rynku nie jest w stanie obsłużyć tak wielkiej liczby sesji i napływu danych. Przykładowo firewall wyposażony w porty 10 GbE lub zapewniający łączną przepustowość rzędu 40 Gb/s może w rzeczywistości nie posiadać wewnętrznych ścieżek przetwarzania pozwalających obsłużyć pojedynczy przepływ danych z prędkością 10 Gb/s. Przeciążenie sieci LAN w wyniku normalnej działalności przedsiębiorstwa może spowodować jeszcze większe nasycenie procesora urządzenia sieciowego lub zasobów pamięci, a w efekcie zatrzymać lub nawet odrzucić duże przepływy danych.
Drugim obszarem jest przetwarzanie. Przepływy wielkich zbiorów danych nie są symetryczne. Surowe dane przychodzące niekoniecznie są identyczne pod względem formatu i ilości, co dane wychodzące. Dane przechowywane w macierzach pamięci masowej są na ogół analizowane przez grupę serwerów pośrednich, następnie ich ilość jest zmniejszana i udostępniana (najczęściej przez systemy frontowe serwerów WWW) w formie ograniczonego zestawu informacji przed opuszczeniem centrum przetwarzania danych. Oznacza to większe zapotrzebowanie na przepustowość oraz coraz większy ruch poprzeczny (ze wschodu na zachód – ang. east-west) w ramach centrum przetwarzania danych, zamiast w kierunku Internetu lub innych miejsc (z północy na południe – ang. north-south). Z wielu opracowań branżowych wynika, że ruch ze wschodu na zachód stanowi obecnie nawet 70% ruchu generowanego przez centrum przetwarzania danych. Przewiduje się, że trend ten będzie przybierać na sile ze względu na rosnące znaczenie analizy wielkich zbiorów danych.
Taki rodzaj ruchu należy dzielić na segmenty i kontrolować nie tylko w celu blokowania poprzecznego ruchu zagrożeń typu APT i ataków mających swoje źródło wewnątrz centrum, lecz także w celu zabezpieczenia danych, których wyciek lub ujawnienie może spowodować problemy. Architektury bezpieczeństwa sieciowego muszą ewoluować z architektur zorientowanych na bezpieczeństwo brzegów sieci lub bram w kierunku wielowarstwowych hybrydowych architektur, w których większa część ruchu ze wschodu na zachód jest wirtualizowana i wyodrębniana przez zastosowanie wirtualizacji serwerów lub sieci i przetwarzania w chmurze.
Trzecim obszarem jest dostęp. W ramach analizy dane są archiwizowane przez długi okres. Kto może uzyskiwać dostęp do konkretnych danych i w jakim celu? Często mamy do czynienia nie z pojedynczym zestawem danych, lecz z wieloma repozytoriami, które można łączyć i analizować jako całość. Każdy zestaw danych może zawierać dane poufne lub objęte szczególną ochroną, które mogą podlegać określonym regulacjom prawnym lub kontrolom wewnętrznym. Ponadto dostęp do danego zestawu ma często więcej niż jedna grupa analityków czy badaczy, a z czasem uzyskują go również inne osoby. Dobrym przykładem udanego zarządzania dostępem jest pewna duża firma farmaceutyczna, której wielkie zbiory danych zostały udostępnione nie tylko pracownikom wewnętrznym, lecz także wykonawcom, stażystom i naukowcom. Dla każdej grupy utworzono oddzielne testowe środowisko analityczne oraz nadano im uprawnienia dostępu do określonych zestawów danych, które grupy te mogły analizować i łączyć.
W takim kontekście działy informatyczne muszą w zasadniczy sposób zmienić swoją strategię bezpieczeństwa sieci, zamiast stopniowo dostosowywać się do zmieniających się potrzeb w zakresie bezpieczeństwa centrum przetwarzania danych. W wielu przypadkach infrastruktura centrum przetwarzania danych jest konsolidowana i przekształcana nie tylko z uwagi na rosnące znaczenie analizy wielkich zbiorów danych, lecz także trendy, takie jak przetwarzanie w chmurze i oprogramowanie jako usługa (SaaS). Na potrzeby tej transformacji działy informatyki powinny rozważyć wdrożenie architektury cechującej się:
- wysoką wydajnością – możliwość obsługi większych zbiorów danych, większa przepustowość sieci, szybkie porty (np. 40 Gb/100 Gb), duża gęstość portów, jak również skalowalność i elastyczność w celu zapewnienia obsługi coraz większych zbiorów danych;
- bezpieczeństwem – zwiększenie bezpieczeństwa brzegów sieci dzięki lepszej segmentacji wewnętrznej w celu zabezpieczenia ruchu danych ze wschodu na zachód i monitorowania zagrożeń typu APT i zagrożeń wewnętrznych;
- konsolidacją – integracja wielu funkcji bezpieczeństwa, od podstawowych, takich jak firewall/sieć VPN, ochrona przed szkodliwym oprogramowaniem i system zapobiegania włamaniom, po zaawansowane, takie jak kontrola dostępu i silne uwierzytelnianie.
Ponadto klienci mogą sami rozważyć możliwości wykorzystania wielkich zbiorów danych do zapewnienia sobie większego poziomu bezpieczeństwa. W sieciach i centrach przetwarzania danych wdrażanych jest coraz więcej punktów kontrolnych i mechanizmów monitorowania. Ponadto dostępne są narzędzia do zarządzania informacjami związanymi z bezpieczeństwem i zdarzeniami oraz do zarządzania logami (SIEM, ang. Security Information and Event Management), które mogą agregować coraz większe ilości danych o zdarzeniach i logów bezpieczeństwa. Dzięki temu można na szerszą skalę prowadzić analizy wielkich zbiorów danych, a tym samym zapewnić większy stopień bezpieczeństwa całemu centrum przetwarzania danych.
źródło: Robert Dąbrowski, starszy inżynier systemowy, FORTINET