Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

CEO Google’a podkreśla, że AI może dostarczyć skuteczne narzędzia w walce z cyberzagrożeniami

W kontekście coraz częściej pojawiających się obaw związanych z potencjalnie przestępczymi zastosowaniami sztucznej inteligencji dyrektor generalny Google’a, Sundar Pichai na Konferencji Bezpieczeństwa w Monachium stwierdził, że narzędzia AI mogą pomóc rządom i firmom przyspieszyć wykrywanie zagrożeń ze strony wrogich podmiotów i reagowanie na nie.

Zdaniem Pichai, szybki rozwój sztucznej inteligencji może pomóc we wzmocnieniu zabezpieczeń przed zagrożeniami w cyberprzestrzeni.

„Mamy słuszność, martwiąc się o wpływ AI na cyberbezpieczeństwo. Jednak, jak sądzę, sztuczna inteligencja faktycznie wzmacnia naszą obronę w zakresie cyberbezpieczeństwa” – powiedział Pichai delegatom na konferencji pod koniec ubiegłego tygodnia.

Według firmy badawczej Cybersecurity Ventures cyberataki będą kosztować światową gospodarkę szacunkowo 8 bilionów dolarów w 2023 roku, a do 2025 roku suma ta ma wzrosnąć do 10,5 biliona dolarów.

W zeszłym tygodniu Google ogłosił nową inicjatywę oferującą narzędzia AI i inwestycje w infrastrukturę mające na celu zwiększenie bezpieczeństwa w Internecie. Bezpłatne narzędzie o otwartym kodzie źródłowym o nazwie Magika ma pomóc użytkownikom wykryć złośliwe oprogramowanie – podała firma w oświadczeniu.

Pichai powiedział, że narzędzia te są już wykorzystywane w produktach firmy, takich jak Google Chrome i Gmail, a także w jej systemach wewnętrznych.

Publikacja zbiegła się z podpisaniem przez główne firmy w ramach konferencji paktu o podjęciu „rozsądnych środków ostrożności”, aby zapobiec wykorzystywaniu narzędzi sztucznej inteligencji do zakłócania demokratycznych głosów w roku wyborczym w 2024 r. i później. Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok i X, dawniej Twitter, znalazły się wśród sygnatariuszy nowego porozumienia, które określa ramy określające, w jaki sposób firmy muszą reagować na deepfake’i generowane przez sztuczną inteligencję, mające na celu oszukanie wyborców.

W styczniowym raporcie brytyjskiego Narodowego Centrum Bezpieczeństwa Cybernetycznego – części GCHQ, krajowej agencji wywiadowczej – stwierdzono, że sztuczna inteligencja tylko zwiększy te zagrożenia, obniżając próg wejścia dla cyberhakerów i umożliwiając bardziej szkodliwą aktywność cybernetyczną, w tym ataki oprogramowania ransomware.

Jednak Pichai powiedział, że sztuczna inteligencja skraca również czas potrzebny obrońcom na wykrycie ataków i zareagowanie na nie. Powiedział, że zmniejszy to tzw. dylemat obrońców, w którym cyberhakerzy muszą odnieść sukces tylko raz w systemie, podczas gdy obrońca musi odnieść sukces za każdym razem, aby go chronić.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE