Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Biały Dom ogłasza konkurs na rozwiązania AI zabezpieczające systemy rządowe przed cyberatakami 

Biały Dom poinformował w środę, że ogłosił konkurs cybernetyczny o wartości wielu milionów dolarów, aby zachęcić do wykorzystania sztucznej inteligencji (AI) do znajdowania i naprawiania luk w zabezpieczeniach infrastruktury rządu USA w obliczu rosnącego wykorzystania tej technologii przez hakerów do złośliwych celów. 

Reuters cytuje fragment oświadczenia wydanego specjalnie dla agencji przez Anne Neuberger, zastępczynię doradcy rządu USA ds. bezpieczeństwa narodowego ds. cybernetyki i nowych technologii:

„Cyberbezpieczeństwo to wyścig między atakiem a obroną. Wiemy, że atakujący już wykorzystują sztuczną inteligencję do przyspieszenia identyfikowania luk w zabezpieczeniach lub tworzenia złośliwego oprogramowania”.

Dwuletni konkurs ma łączny budżet około 20 milionów dolarów nagród i będzie prowadzony przez Agencję Zaawansowanych Projektów Badawczych w Obronie (DARPA), czyli  organ rządu USA odpowiedzialny za tworzenie technologii dla bezpieczeństwa narodowego – tak oświadczył Biały Dom.

Rząd zapowiedział ponadto, że Google, Anthropic, Microsoft i OpenAI – amerykańskie firmy technologiczne stojące na czele rewolucji AI – udostępnią swoje systemy, aby sprostać temu wyzwaniu. Konkurs jest oficjalną próbą walki z pojawiającym się zagrożeniem, które eksperci wciąż próbują w pełni zrozumieć.

W ubiegłym roku firmy amerykańskie uruchomiły szereg generatywnych narzędzi sztucznej inteligencji, takich jak ChatGPT, które umożliwiają użytkownikom tworzenie przekonujących filmów, obrazów, tekstów i kodu komputerowego.

Chińskie firmy uruchomiły podobne modele, aby nadrobić zaległości. Eksperci twierdzą, że takie narzędzia mogą znacznie ułatwić na przykład przeprowadzanie masowych kampanii hakerskich lub tworzenie fałszywych profili w mediach społecznościowych w celu rozpowszechniania fałszywych informacji i propagandy.

„Naszym celem w wyzwaniu DARPA AI jest katalizowanie większej społeczności obrońców cybernetycznych, którzy używają uczestniczących modeli sztucznej inteligencji do szybszego ścigania się – wykorzystując generatywną sztuczną inteligencję do wzmocnienia naszej cyberobrony” – powiedziała Neuberger.

Open Source Security Foundation (OpenSSF), amerykańska grupa ekspertów starających się poprawić bezpieczeństwo oprogramowania open source, będzie odpowiedzialna za zapewnienie, że „zwycięski kod oprogramowania zostanie natychmiast wykorzystany” – powiedział rząd USA.

Liczne amerykańskie organizacje, od grup opieki zdrowotnej po firmy produkcyjne i instytucje rządowe, były hakowane jako cele w ostatnich latach, a urzędnicy ostrzegali przed przyszłymi zagrożeniami, zwłaszcza ze strony zagranicznych przeciwników.

Przytoczony komentarz Neuberger na temat sztucznej inteligencji odzwierciedlają nastroje, które wypowiedział kanadyjski szef cyberbezpieczeństwa Samy Khoury w zeszłym miesiącu. Powiedział, że jego agencja widziała wykorzystywanie sztucznej inteligencji do wszystkiego, od tworzenia e-maili phishingowych i pisania złośliwego kodu komputerowego po szerzenie dezinformacji.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE