Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

AI nie jest bezstronne – udowodniono uprzedzenia GPT 3.5

Okazuje się, po raz kolejny zresztą, że sztuczna inteligencja zwykle powiela uprzedzenia swoich twórców. 

Gdy zaczynał się “boom na AI”, jedną z popularnych wizji zastosowania sztucznej inteligencji była pomoc w codziennej pracy biurowej. AI miało być pomocne np. w zadaniach realizowanych przez działy HR, poprzez filtrowanie napływających CV. Każdy kto kiedykolwiek prowadził proces rekrutacyjny wie, że olbrzymia większość spływających CV jest niekoniecznie trafiona. AI może być więc dobrym “sitem” pozwalającym wyłowić najlepszych kandydatów. Wymaga jednak pewnych zmian…

Bloomberg ujawnił, że GPT 3.5 firmy OpenAI ma poważny defekt. Narzędzie wykazywało preferencje dotyczące rasy w pytaniach dotyczących rekrutacji, co może prowadzić do promowania rasizmu w procesach związanych z zatrudnianiem. Dziennikarze przeprowadzili eksperyment, w którym do systemu rekrutacyjnego wprowadzili fikcyjne imiona i CV. Wyniki wskazały, że GPT 3.5 faworyzował niektóre grupy etniczne, co nie spełnia standardów stosowanych do oceny dyskryminacji zawodowej. Imiona zostały podzielone na cztery kategorie rasowe w oparciu o częstotliwość występowania w danych grupach (Biali, Latynosi, Czarni i Azjaci) oraz pod względem płci, a następnie zgłoszone do czterech różnych ofert pracy.

Wyniki eksperymentu wykazały, że GPT 3.5 nie tylko preferował określone grupy etniczne w zależności od stanowiska, ale również nierówno oceniał równorzędne CV w zależności od płci i rasy. Na przykład, imiona kobiet częściej były przypisywane do stanowisk związanych z działem zasobów ludzkich, podczas gdy kobiety czarne były rzadziej wybierane na stanowiska techniczne, takie jak inżynier oprogramowania.

OpenAI w oświadczeniu dla Bloomberga podkreśliło, że wyniki te nie odzwierciedlają tego, w jaki sposób większość klientów w praktyce wykorzystuje ich oprogramowanie. Firma zaznaczyła, że wiele przedsiębiorstw dostosowuje odpowiedzi, aby zminimalizować wpływ ewentualnych uprzedzeń. Jednak badanie wywołało zaniepokojenie wśród społeczności badawczej, rekruterów i prawników, podnosząc kwestię konieczności bardziej skrupulatnego monitorowania i regulacji w obszarze generatywnej sztucznej inteligencji.

Jest to ciekawe także w kontekście niedawnych problemów Google Gemini, które usilnie usuwało historyczne postaci rasy białej, w ramach “różnorodności”:

Google wstrzymuje generator obrazów Gemini AI po utworzeniu niedokładnych zdjęć historycznych

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE