Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Obecni i byli pracownicy OpenAI, Google DeepMind ostrzegają przed zagrożeniami związanymi ze sztuczną inteligencją

Grupa obecnych i byłych pracowników firm zajmujących się sztuczną inteligencją, w tym wspieranego przez Microsoft OpenAI i Google DeepMind firmy Alphabet, wyraziła obawy dotyczące zagrożeń stwarzanych przez powstającą technologię.

W liście otwartym stwierdzono, że motywy finansowe firm zajmujących się sztuczną inteligencją utrudniają skuteczny nadzór.

„Nie wierzymy, że dostosowane struktury ładu korporacyjnego są wystarczające, aby to zmienić” – czytamy w liście.

Grupa ponadto ostrzega przed zagrożeniami związanymi z nieuregulowaną sztuczną inteligencją, począwszy od rozprzestrzeniania się dezinformacji po utratę niezależnych systemów sztucznej inteligencji i pogłębienie istniejących nierówności, co może doprowadzić do „wyginięcia człowieka”.

Naukowcy znaleźli przykłady generatorów obrazów od firm takich jak OpenAI i Microsoft, które produkują zdjęcia z dezinformacją związaną z głosowaniem, pomimo polityki przeciwko takim treściom.

Firmy zajmujące się sztuczną inteligencją mają „słabe zobowiązania” do dzielenia się z rządami informacjami na temat możliwości i ograniczeń swoich systemów, napisano w liście, dodając, że nie można polegać na tych firmach, aby dobrowolnie udostępniały te informacje.

List otwarty jest najnowszym, w którym podniesiono obawy dotyczące bezpieczeństwa technologii generatywnej sztucznej inteligencji, która może szybko i tanio tworzyć tekst, obrazy i dźwięk podobne do ludzkich.

Grupa wezwała firmy zajmujące się sztuczną inteligencją do ułatwienia obecnym i byłym pracownikom procesu zgłaszania obaw związanych z ryzykiem i nieegzekwowania umów o zachowaniu poufności, które zabraniają krytyki.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE