W kontekście coraz częściej pojawiających się obaw związanych z potencjalnie przestępczymi zastosowaniami sztucznej inteligencji dyrektor generalny Google’a, Sundar Pichai na Konferencji Bezpieczeństwa w Monachium stwierdził, że narzędzia AI mogą pomóc rządom i firmom przyspieszyć wykrywanie zagrożeń ze strony wrogich podmiotów i reagowanie na nie.
Zdaniem Pichai, szybki rozwój sztucznej inteligencji może pomóc we wzmocnieniu zabezpieczeń przed zagrożeniami w cyberprzestrzeni.
„Mamy słuszność, martwiąc się o wpływ AI na cyberbezpieczeństwo. Jednak, jak sądzę, sztuczna inteligencja faktycznie wzmacnia naszą obronę w zakresie cyberbezpieczeństwa” – powiedział Pichai delegatom na konferencji pod koniec ubiegłego tygodnia.
Według firmy badawczej Cybersecurity Ventures cyberataki będą kosztować światową gospodarkę szacunkowo 8 bilionów dolarów w 2023 roku, a do 2025 roku suma ta ma wzrosnąć do 10,5 biliona dolarów.
W zeszłym tygodniu Google ogłosił nową inicjatywę oferującą narzędzia AI i inwestycje w infrastrukturę mające na celu zwiększenie bezpieczeństwa w Internecie. Bezpłatne narzędzie o otwartym kodzie źródłowym o nazwie Magika ma pomóc użytkownikom wykryć złośliwe oprogramowanie – podała firma w oświadczeniu.
Pichai powiedział, że narzędzia te są już wykorzystywane w produktach firmy, takich jak Google Chrome i Gmail, a także w jej systemach wewnętrznych.
Publikacja zbiegła się z podpisaniem przez główne firmy w ramach konferencji paktu o podjęciu „rozsądnych środków ostrożności”, aby zapobiec wykorzystywaniu narzędzi sztucznej inteligencji do zakłócania demokratycznych głosów w roku wyborczym w 2024 r. i później. Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok i X, dawniej Twitter, znalazły się wśród sygnatariuszy nowego porozumienia, które określa ramy określające, w jaki sposób firmy muszą reagować na deepfake’i generowane przez sztuczną inteligencję, mające na celu oszukanie wyborców.
W styczniowym raporcie brytyjskiego Narodowego Centrum Bezpieczeństwa Cybernetycznego – części GCHQ, krajowej agencji wywiadowczej – stwierdzono, że sztuczna inteligencja tylko zwiększy te zagrożenia, obniżając próg wejścia dla cyberhakerów i umożliwiając bardziej szkodliwą aktywność cybernetyczną, w tym ataki oprogramowania ransomware.
Jednak Pichai powiedział, że sztuczna inteligencja skraca również czas potrzebny obrońcom na wykrycie ataków i zareagowanie na nie. Powiedział, że zmniejszy to tzw. dylemat obrońców, w którym cyberhakerzy muszą odnieść sukces tylko raz w systemie, podczas gdy obrońca musi odnieść sukces za każdym razem, aby go chronić.