Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Ponad 66% firm planuje w najbliższych latach wdrożyć algorytmy AI/ML w obszarze cyberbezpieczeństwa, wynika z analiz ekspertów F5

Algorytmy sztucznej inteligencji i uczenia maszynowego to dzisiaj gorący temat. Według raportu F5, ponad 66% organizacji planuje je wdrożyć w obszarze cyberbezpieczeństwa. Jednocześnie, eksperci przyznają, że choć wiele firm deklaruje gotowość do wykorzystania inteligentnych narzędzi, to nie każda organizacja wie, co konkretnie chce w ten sposób usprawnić. Dowiedz się, w jakich wyzwaniach cybernetycznych sprawdzą się algorytmy AI/ML

Podczas spotkań biznesowych można zauważyć, że wielu decydentów dostrzega palącą potrzebę otwarcia swoich firm na nowatorskie technologie. Niektórzy z nich są świetnie zorientowani i wyznaczają konkretne priorytety, jednak wiele przedsiębiorstw wciąż porusza się w sferze dużej ogólności. Dlatego przygotowaliśmy listę wyzwań w sferze cyberbezpieczeństwa, z którymi zmaga się biznes i w których algorytmy AI/ML mogą być bardzo użyteczne.

 

Przeciwdziałanie zautomatyzowanym atakom hackerskim

Zorganizowane ataki są często przeprowadzane przez sieci zdalnie sterowanych komputerów (nazywanych botami) kierowane przez cyberprzestępców. Takie działania wprowadzają szereg różnych zagrożeń dla organizacji, związanych zarówno z trudnościami operacyjnymi, czy pogorszeniem się wizerunku firmy. Ingerencje przestępców w kluczowe procesy przedsiębiorstwa polegające na blokowaniu lub wykupywaniu zapasów, wykradaniu danych, obciążaniu infrastruktury cyfrowej stanowią poważne wyzwanie dla zespołów cyberbezpieczeństwa. Najtrudniejsze w tym wszystkim jest odróżnienie ruchu sieciowego rzeczywistych użytkowników od szumu generowanego przez boty.

 

Rozdzielenie czynności w sieci wykonywanych przez ludzi i zautomatyzowane programy w teorii jest dość proste. Jednak w praktyce, jest to bardzo złożony proces, który wymaga zastosowania wielu różnych technik monitorowania aktywności użytkowników. Dołączenie algorytmów AI do cyber-obrony pozwala efektywniej śledzić ruch w firmowej sieci i rozróżnić, kto jest człowiekiem, a kto botem – tłumaczy Bartłomiej Anszperger, Solution Engineering Manager F5 w Polsce.

 

Unikanie ryzyka fraudów

Tego rodzaju oszustwa stanowią coraz większe wyzwanie dla przedsiębiorstw, a w szczególności dla tych, które regularnie dokonują transakcji online. Firmy ponoszą straty w wyniku fraudów na dwa sposoby – poprzez przejęcie konta (ATO) lub otwarcie fałszywego konta (AO). Atak typu ATO najczęściej wiąże się z przechwyceniem konta przez nieautoryzowanego użytkownika przy użyciu naruszonych danych uwierzytelniających – ang. man-in-the-browser (MITB). Natomiast otwarcie fałszywego konta wiąże się z działaniem oszusta, który otwiera nowe konto przy użyciu skradzionych lub zsyntetyzowanych danych osobowych.

 

 

Wykrywanie fraudów wiąże się z generowaniem dużej liczby fałszywych alarmów, które powodują szum informacyjny i utrudniają pracę cyberobrony. Aby zachować skuteczność należy zrozumieć intencję użytkownika końcowego, który wchodzi w interakcję z aplikacją online. Dlatego właśnie w procesie monitorowania ruchu stosuje się algorytmy AI/ML. Służą do analizy zachowania użytkownika, charakterystyki jego urządzenia oraz sieci/środowiska, z którego się łączy. To kolejny przykład owocnego zastosowania sztucznej inteligencji w standardowych procesach biznesowych.

 

Bezpieczeństwo API

Zabezpieczenie interfejsów API to kolejny obszar, w którym inteligentne technologie pomagają rozwiązywać trudne problemy. Wraz z wykładniczym wzrostem liczby połączeń za pomocą API, organizacje stanęły przed wyzwaniem związanym z bezpieczeństwem rozproszonych zasobów cyfrowych. Rozwój środowisk hybrydowych w 2023 i w nadchodzących latach stał się jednym z motywów przewodnich tegorocznej edycji badania F5 – State of Application Strategy. 85% zapytanych decydentów IT zadeklarowało, że wdrożyło aplikacje i interfejsy API w środowiskach rozproszonych obejmujących wiele chmur publicznych, a także w lokalizacjach lokalnych i brzegowych.

 

 

Cyber-obrona aplikacji i systemów łączonych za pomocą interfejsów API sprowadza się do inwentaryzacji i monitorowania aktywności połączeń. To kolejne pole do zastosowania algorytmów sztucznej inteligencji. Dlatego F5 w ramach pakietu usług Distributed Cloud Services zapewnia automatyczne wykrywanie API. Ale także umożliwia egzekwowanie zasad i wykrywanie anomalii w ramach ujednoliconej usługi WAAP, upraszczając operacje i wprowadzając je w życie za pomocą jednej konsoli zarówno dla aplikacji, jak i ochrony API. Wszystko to są konkretne zastosowania algorytmów AI/ML, które pomagają przedsiębiorstwom zwiększyć bezpieczeństwo ich aplikacji i interfejsów API.

 

Wnioski i podsumowanie

Przeciwdziałanie zagrożeniom w cyberprzestrzeni przypomina wyścig zbrojeń, algorytmy sztucznej inteligencji są kolejnym orężem wykorzystywanym zarówno przez cyber-obrońców, jak i przestępców. Dlatego aby skutecznie chronić swój biznes przed działalnością grup hackerskich należy stale aktualizować swoje polityki bezpieczeństwa. Wśród wniosków w cytowanym już raporcie SOAS znalazło się stwierdzenie, że sztuczna inteligencja pomaga zwiększyć efektywność pracy cyber-obrońców. Pozwala to na wykonywanie większej liczby działań bez konieczności rozbudowywania działów bezpieczeństwa o kolejne etaty i stanowiska. W dobie optymalizacji biznesu ma to kluczowe znaczenie.

 

Wprowadzenie algorytmów AI do narzędzi odpowiedzialnych za cyberbezpieczeństwo daje firmom nowe możliwości zabezpieczenia swoich procesów. Monitorowanie ruchu, weryfikacja użytkowników, wykrywanie fałszywych alarmów i wiele innych czynności może być dzisiaj wykonywane przez sztuczną inteligencję. Wyręczenie ludzi przez AI w powtarzalnych, wręcz rutynowych, czynnościach, daje przestrzeń specjalistom na działania koncepcyjne i lepsze formułowanie polityk bezpieczeństwa – podsumowuje Bartłomiej Anszperger.

 

Cyberterroryzm groźniejszy niż wojna jądrowa?

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE