Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Zwiększa się popularność kampanii internetowych wykorzystujących AI, ale ich wpływ na razie jest ograniczony – twierdzą naukowcy

Należąca do Google’a amerykańska firma zajmująca się bezpieczeństwem cybernetycznym Mandiant powiedziała w czwartek, że w ostatnich latach zaobserwowała rosnące wykorzystanie sztucznej inteligencji (AI) do prowadzenia manipulacyjnych kampanii informacyjnych online, chociaż wykorzystanie tej technologii w innych włamaniach cyfrowych było jak dotąd ograniczone. 

Jak podaje Reuters, naukowcy z firmy z Wirginii odkryli „liczne przypadki” od 2019 r., w których treści generowane przez sztuczną inteligencję, takie jak sfabrykowane zdjęcia profilowe, były wykorzystywane w motywowanych politycznie kampaniach online. Według raportu, obejmowały one kampanie grup powiązanych z rządami Rosji, Chin, Iranu, Etiopii, Indonezji, Kuby, Argentyny, Meksyku, Ekwadoru i Salwadoru.

Na przykład prochińska kampania informacyjna o nazwie Dragonbridge rozrosła się „wykładniczo” na 30 platformach społecznościowych i w 10 różnych językach, odkąd po raz pierwszy została wymierzona w prodemokratycznych protestujących w Hongkongu w 2019 r., powiedziała Sandra Joyce, wiceprezes Mandiant Intelligence.

Chiny zaprzeczyły oskarżeniom USA o udział w takich kampaniach wywierania wpływu w przeszłości. Firma Mandiant, która pomaga organizacjom publicznym i prywatnym w reagowaniu na naruszenia cyfrowe, twierdzi, że nie widziała jeszcze, aby sztuczna inteligencja odgrywała kluczową rolę w zagrożeniach ze strony Rosji, Iranu, Chin czy Korei Północnej.

Skala takiego użycia AI może się jednak zwiększyć na fali niedawnego boomu generatywnych modeli sztucznej inteligencji, takich jak ChatGPT, które znacznie ułatwiają tworzenie przekonujących fałszywych filmów, obrazów, tekstu i kodu komputerowego.

Urzędnicy ds. bezpieczeństwa ostrzegają przed wykorzystywaniem takich modeli przez cyberprzestępców. Generatywna sztuczna inteligencja umożliwiłaby grupom o ograniczonych zasobach tworzenie treści o wyższej jakości na potrzeby kampanii wywierania wpływu na dużą skalę, twierdzą naukowcy z Mandiant.

Oczekuje się, że wykorzystanie sztucznej inteligencji do włamań cyfrowych pozostanie niskie w najbliższym czasie, stwierdzili naukowcy. „Jak dotąd nie widzieliśmy ani jednej reakcji na incydent, w której sztuczna inteligencja odegrała rolę” – powiedziała Joyce. – „Tak naprawdę nie zostały wprowadzone do żadnego praktycznego zastosowania, które przewyższałoby to, co można by zrobić za pomocą zwykłego narzędzia, które widzieliśmy. Równoczęśnie możemy być bardzo pewni, że jest to problem, który z czasem będzie się powiększał”.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE