Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

ChatGPT OpenAI oskarżony w Austrii

Wspierany przez Microsoft startup OpenAI w poniedziałek stał się celem skargi o ochronę prywatności złożonej przez grupę rzeczników NOYB za rzekome nienaprawienie nieprawidłowych informacji dostarczonych przez jego generatywnego chatbota AI ChatGPT, który może naruszać unijne przepisy dotyczące prywatności.

ChatGPT, który zapoczątkował boom na GenAI pod koniec 2022 roku, może naśladować ludzkie rozmowy i wykonywać zadania, takie jak tworzenie streszczeń długich tekstów, pisanie wierszy, a nawet generowanie pomysłów na imprezę tematyczną. Można by rzec, że jej możliwości są wręcz nieograniczone.

NOYB stwierdziło, że skarżący w tej sprawie, który jest również osobą publiczną, zapytał ChatGPT o swoje urodziny i wielokrotnie otrzymywał błędne informacje, zamiast poinformować użytkowników, że chatbot nie posiada niezbędnych danych. Grupa stwierdziła, że OpenAI odrzuciła wniosek skarżącego o sprostowanie lub usunięcie danych, twierdząc, że poprawienie danych nie jest możliwe, a także nie ujawniła żadnych informacji na temat przetwarzanych danych, ich źródeł ani odbiorców.

NOYB poinformował, że złożył skargę do austriackiego organu ochrony danych z prośbą o zbadanie przetwarzania danych przez OpenAI i środków podjętych w celu zapewnienia dokładności danych osobowych przetwarzanych przez duże modele językowe firmy.

“Oczywiste jest, że firmy nie są obecnie w stanie sprawić, by chatboty takie jak ChatGPT były zgodne z prawem UE podczas przetwarzania danych dotyczących osób fizycznych” – powiedziała w oświadczeniu Maartje de Graaf, prawnik NOYB ds. ochrony danych. – Jeśli system nie może generować dokładnych i przejrzystych wyników, nie może być wykorzystywany do generowania danych o osobach fizycznych. Technologia musi być zgodna z wymogami prawnymi, a nie odwrotnie” – dodała.

W przeszłości OpenAI przyznało, że narzędzie ma tendencję do reagowania “wiarygodnie brzmiącymi, ale niepoprawnymi lub bezsensownymi odpowiedziami”, co uważa za trudne do naprawienia.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE