Informacje

GAZETA BANKOWA: Sztuczna inteligencja kontra hakerzy

Gazeta Bankowa

Gazeta Bankowa

Najstarszy magazyn ekonomiczny w Polsce.

  • Opublikowano: 25 marca 2018, 19:59

    Aktualizacja: 25 marca 2018, 19:59

  • 0
  • Powiększ tekst

Do obrony przed cyberzagrożeniami zaprzęgnięto sztuczną inteligencję. Choć podstawy matematyczne i algorytmy dla sztucznej inteligencji istnieją od wielu dziesięcioleci, dopiero od niedawna moc obliczeniowa pozwala w pełni wykorzystać ich potencjał. Pomoże ona skrócić czas niezbędny do wykrycia zagrożeń, co ma kluczowe znaczenie dla powstrzymywania hakerów i minimalizacji szkód wywołanych atakiem. Problem w tym, że z jej możliwości mogą skorzystać też cyberprzestępcy – pisze w „Gazecie Bankowej” Marek Jaślan

Zeszłoroczne głośne cyberataki wymuszające okupy (tzw. ransomware), takie jak wirus Wannacry, pokazały wielu firmom i instytucjom słabości ich infrastruktury informatycznej. W wielu przypadkach wzbudziły też obawy przed kolejnymi tego typu uderzeniami. Tym bardziej, że prognozy w tym zakresie nie uspokajają, wręcz przeciwnie – cyberprzestępcy mają być jeszcze aktywniejsi. Izraelska firma Check Point zauważa, że dziś trzeba mówić o piątej generacji cyberataków, które charakteryzują się głównie dużą skalą i szybkim przemieszczaniem się między wieloma środowiskami. Są to wyrafinowane ataki na sieci mobilne, chmurę i sieci korporacyjne, które omijają używane obecnie przez większość firm konwencjonalne systemy obrony, oparte na wykrywaniu statycznym.

A wszystko to ma wpływ na biznes. Z opublikowanego na początku tego roku badania Cisco 2018 Privacy Maturity Benchmark Study wynika, że obawy związane z zapewnieniem bezpieczeństwa danych powodują znaczące opóźnienia cyklu sprzedaży produktów w przypadku 65 proc. globalnych firm. Badanie wykazało również, że prawidłowo wdrożone, dojrzałe systemy ochrony danych zmniejszają straty wynikające z cyberataków. Aż 74 proc. firm niedysponujących takimi rozwiązaniami w ostatnim roku odnotowało straty powyżej 500 tys. dol. spowodowane utratą danych, w porównaniu do 39 proc. w przypadku organizacji, które wdrożyły takie rozwiązania.

Jak jednak wskazuje wielu analityków zajmujących się cyberbezpieczeństwem, dziś największym wyzwaniem dla zespołów zajmujących się cyberobroną jest bycie na bieżąco ze stale zmieniającymi się metodami cyberataków, które są coraz bardziej różnorodne. Według danych IBM Research, zespoły zajmujące się bezpieczeństwem spędzają rocznie ponad 20 tys. godzin, przesiewając informacje dotyczące zdarzeń w sieci – a tych w średniej wielkości firmie może być nawet 200 tys. dziennie – starając się odróżnić realne zagrożenie od fałszywych alarmów. Firma ta nie ma wątpliwości, że w tej sytuacji istnieje konieczność wykorzystania sztucznej inteligencji do cyberochrony, która wspomoże pracę analityków, by zespoły mogły opanować rosnącą liczbę incydentów. A ich liczba – ocenia IBM – podwoi się w ciągu najbliższych pięciu lat. (…)

Jednak w zachwytach nad możliwościami sztucznej inteligencji należy pamiętać, że każdy kij ma dwa końce. Już rok temu Andy Powell, szef ds. bezpieczeństwa cybernetycznego w Capgemini w Wielkiej Brytanii na łamach portalu bbc.com ostrzegał, że sztuczna inteligencja w rękach cyberprzestępców jeszcze wzmocni złośliwe oprogramowanie, będzie wykorzystywać pozyskane dane do wysyłania e-maili z phishingiem, które będą wyglądać jak autentyczne wiadomości wysłane przez człowieka. Według firmy Balabit jest to realne zagrożenie. Jej eksperci zauważają, że najtrudniejsza może być sytuacja, kiedy cyberprzestępcy zaczną opracowywać metody, które będą próbować osłabiać i dezorientować algorytmy obronne AI. Problem znany jest w przestrzeni badawczej jako „adversarial machine learning” („przeciwne uczenie maszynowe”) i jest szczególnie trudnym wyzwaniem do pokonania. Sprawienie, by komputer „uczył się” w prawidłowy sposób nie jest łatwe: dane z prawdziwego życia są nieuporządkowane, a ataki stosunkowo rzadkie, co znacznie utrudnia pracę sztucznej inteligencji. Tworzenie algorytmów, które są odporne na działania podjęte przez inteligentnego napastnika, który celowo działa tak, by je zmylić, wymaga szczególnej ostrożności i wiedzy.

Jednak nie ma innego wyjścia, jak przystąpić do „wyścigu zbrojeń” i wykorzystywać siłę sztucznej inteligencji również do działań obronnych.

Marek Jaślan

Cały tekst o cyberbezpieczeństwie oraz więcej informacji i komentarzy o światowej i polskiej gospodarce oraz sektorze finansowym znajdziesz w bieżącym wydaniu „Gazety Bankowej” do kupienia w kioskach i salonach prasowych

Gazeta Bankowa” dostępna jest także jako e-wydanie, także na iOS i Android – szczegóły na http://www.gb.pl/e-wydanie-gb.html

Powiązane tematy

Komentarze