Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Naukowcy twierdzą, że narzędzia AI OpenAI i Microsoftu są w stanie wygenerować obrazy wyborcze wprowadzające w błąd

Center for Countering Digital Hate (CCDH), amerykańska organizacja non-profit monitorująca mowę nienawiści w Internecie, wykorzystała narzędzia generatywnej sztucznej inteligencji do stworzenia obrazów przedstawiających prezydenta USA Joe Bidena leżącego w szpitalnym łóżku oraz pracowników wyborczych niszczących maszyny do głosowania, co rozbudziło obawy przed możliwymi fałszerstwami w listopadowych wyborach prezydenckich w USA. 

Narzędzia do tworzenia obrazów oparte na sztucznej inteligencji oferowane przez takie firmy jak OpenAI i Microsoft, mogą być wykorzystywane do tworzenia zdjęć, które mogłyby promować dezinformację wyborczą, jak podali badacze w środowym raporcie. Dzieje się tak mimo faktu, że w każdym z nich obowiązują zasady, które powinny zapobiec tworzeniu wprowadzających w błąd treści

„Możliwość wykorzystania takich obrazów generowanych przez sztuczną inteligencję jako ‘fotograficzne dowody’ może zaostrzyć rozprzestrzenianie się fałszywych twierdzeń, co stanowi poważne wyzwanie dla zachowania uczciwości wyborów” – stwierdzili w raporcie badacze CCDH.

CCDH wzięło pod lupę ChatGPT Plus OpenAI, Image Creator Microsoftu, Midjourney i DreamStudio Stability AI, z których każdy może generować obrazy na podstawie podpowiedzi tekstowych.

Raport jest następstwem ogłoszenia podanego w zeszłym miesiącu, że OpenAI, Microsoft i Stability AI znalazły się w grupie 20 firm technologicznych, które podpisały porozumienie o współpracy mającej na celu zapobieganie zakłócaniu przez AI wyborów odbywających się na całym świecie w tym roku. Midjourney nie znalazł się w pierwszej grupie sygnatariuszy.

CCDH twierdzi, że narzędzia sztucznej inteligencji generowały nieprawdziwe obrazy w 41% testów przeprowadzonych przez badaczy i były najbardziej podatne na monity z prośbą o zdjęcia przedstawiające oszustwa wyborcze, takie jak karty do głosowania wyrzucone do kosza, a nie zdjęcia Bidena lub byłego prezydenta USA Donalda Trumpa. Z raportu wynika, że ChatGPT Plus i Image Creator skutecznie blokowały wszystkie monity o przesłanie zdjęć kandydatów.

Ze wszystkich narzędzi to Midjourney wypadło najgorzej, generując mylące obrazy w 65% testów przeprowadzonych przez badaczy. Niektóre obrazy tego narzędzia są dostępne publicznie dla innych użytkowników, a CCDH stwierdziła, że istnieją dowody na to, że niektórzy ludzie już korzystają z tego narzędzia do tworzenia wprowadzających w błąd treści politycznych. Firmy zapowiedziały aktualizację narzędzi.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE