Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Stwierdzono pierwszy przypadek wykorzystania deepfake’ów video w złej wierze. Jedno z zagrożeń, przed którymi firma Trend Micro przestrzegała od dawna, staje się rzeczywistością.

Trend Micro od ponad trzydziestu lat zapewnia bezpieczeństwo cybernetyczne globalnym przedsiębiorstwom, instytucjom rządowym i konsumentom. Jednym ze sposobów tej ochrony jest przewidywanie, skąd mogą nadejść następne zagrożenia, oraz opracowywanie metod ich zwalczania z wyprzedzeniem. Od kilku lat ostrzegamy przed coraz bardziej zaawansowanymi technicznie deepfake’ami – materiałami audio i video utworzonymi z wykorzystaniem sztucznej inteligencji w celu wprowadzenia odbiorcy w błąd. Niestety, zdarzenia z końca kwietnia br. pokazały, że technologia ta bardzo szybko się rozwija.

 

Choć szczegóły nt. tego zdarzenia są przedmiotem dyskusji, nie ulega wątpliwości, że sprawy zaszły daleko. Na nowe zagrożenia muszą się przygotować nie tylko firmy z branży cyberbezpieczeństwa, lecz także organy regulacyjne i instytucje rządowe. Takie organizacje jak Unia Europejska i amerykańska Federalna Komisja Handlu (FTC) podejmują zdecydowane działania, aby poprzez odpowiednie regulacje ograniczyć możliwości wykorzystania sztucznej inteligencji na czyjąkolwiek szkodę. Liderzy zespołów odpowiedzialnych za cyberbezpieczeństwo powinni włączyć deepfake’i w swoje plany modelowania zagrożeń, a cała branża – podążyć naszą ścieżką i szukać sposobów blokowania takich oszustw.

 

Czym są deepfake’i?

Słowo „deepfake” powstało w wyniku połączenia wyrażeń deep learning („głębokie uczenie” – odmiana uczenia maszynowego) i fake media („fałszywe wiadomości multimedialne”). Istnieją różne sposoby tworzenia tego rodzaju treści. Najczęściej wykorzystuje się do tego technologię głębokich sieci neuronowych o nazwie „autoencoder”. Jest ona wykorzystywana do pobierania, kompresowania i przekształcania treści video. Dzięki temu można tak połączyć nagrania z dwoma różnymi osobami, aby mimika i gesty osoby A imitowały osobę B. W efekcie pozwala to „włożyć” dowolne słowa w usta każdej osoby.

 

Najnowszy przypadek wykorzystania tej technologii pokazuje, jak bardzo rozwinęła się ona w ciągu zaledwie kilku lat. Ofiarą fałszerzy padli politycy z Wielkiej Brytanii, Łotwy, Estonii, Litwy i Holandii, którzy zostali „wmontowani” w widekonferencje z Leonidem Wołkowem, bliskim współpracownikiem i szefem personelu rosyjskiego lidera opozycji Aleksieja Nawalnego. Zrzut ekranu opublikowany przez jednego z tych polityków pokazuje, jak wiarygodnie odtworzono jego wizerunek na fałszywym materiale wideo. Pojawiają się również inne próby zastosowania deepfake’ów, a w związku z nimi pytania o kierunki rozwoju tej technologii.

 

Czas wszcząć alarm

Osoby, które potrafią się efektywnie posługiwać technologią deepfake, mają praktycznie nieograniczone możliwości szerzenia fałszywych informacji dotyczących przedstawicieli najwyższych sfer rządowych. Co gorsza, sfałszowane nagrania mogą zostać użyte podczas wyborów przez wrogie państwa lub cyberprzestępców żądających okupu, aby podważyć zaufanie do kandydatów. To nie wszystko. Jak już objaśnialiśmy w 2018 roku, technologię deepfake mogą wykorzystać sprawcy ataków z wykorzystaniem biznesowych wiadomości e-mail (ang. Business Email Compromise – BEC) w celu nakłonienia pracowników działu finansowego firmy do dokonania przelewów dużych sum pieniężnych na rzecz osób trzecich.

 

Łatwo sobie wyobrazić dyrektora generalnego, który za pośrednictwem programu Zoom przekazuje odpowiednie polecenie. Taki komunikat może przekonać wielu pracowników. Tę metodę z powodzeniem stosowano już w deepfake’ach audio, które w 2019 roku nakłoniły pewnego dyrektora w Wielkiej Brytanii do przelania z firmowego konta kwoty liczonej w setkach tysięcy. W jednej z naszych prognoz na rok 2020 przewidzieliśmy, że nowa fala oszustw w przedsiębiorstwach będzie oparta właśnie na technologii deepfake.

 

Co dalej?

Wymuszenia finansowe i inżynieria społeczna oraz operacje wywierania wpływu, których celem jest destabilizacja demokracji, to dopiero początek. Jak niedawno stwierdził jeden z ekspertów, gdy technologia sztucznej inteligencji stanie się bardziej zaawansowana i powszechna, przekonujące deepfake’i będzie w stanie tworzyć każdy użytkownik smartfona. Może to nastąpić już w połowie tej dekady.

 

Co możemy zrobić w takiej sytuacji?

Przedsiębiorstwa powinny odpowiednio przygotować zespoły odpowiedzialne za bezpieczeństwo. W celu lepszego zrozumienia,  jak technologia może zostać wykorzystana w złej wierze, warto zwracać uwagę na nasze (i nie tylko) ostrzeżenia. Na początek np. można przeczytać artykuł, który niedawno opublikowaliśmy wspólnie z ONZ i Europolem, na temat wykorzystywania sztucznej inteligencji i związanych z nią nadużyć.

 

Staramy się również spojrzeć w dalszą przyszłość i przewidzieć, w jaki sposób sztuczna inteligencja i deepfake’i mogą w najbliższych latach zostać użyte w cybernetycznym wyścigu zbrojeń. Będzie można o tym przeczytać w raporcie „Projekt 2030”, który zostanie opublikowany na tegorocznej konferencji RSA. Należy zaznaczyć, że już teraz musimy nauczyć się lepiej szkolić pracowników w wykrywaniu fałszywych informacji i używaniu do tego odpowiednich narzędzi.

 

Ze sztuczną inteligencją wykorzystywaną w złej wierze będziemy mieć do czynienia jeszcze długo. Podejmując konkretne działania w celu lepszego zbadania takich zagrożeń, możemy zyskać przewagę taktyczną nad ich sprawcami. Jak wiadomo, ostrożności nigdy nie za wiele.

 

 

 

Huawei w odpowiedzi na nowe potrzeby związane z przyspieszeniem cyfryzacji otworzył swoje największe na świecie Centrum Cyberbezpieczeństwa i Ochrony Prywatności.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE