Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Były lider ds. bezpieczeństwa OpenAI, Jan Leike, dołącza do konkurencyjnego start-upu AI Anthropic

Jan Leike, jeden z głównych badaczy bezpieczeństwa w OpenAI, który zrezygnował z firmy zajmującej się sztuczną inteligencją na początku tego miesiąca, powiedział we wtorek, że dołączył do konkurencyjnego start-upu AI Anthropic.

Leike ogłosił swoją rezygnację z OpenAI 15 maja, na kilka dni przed rozwiązaniem przez firmę grupy superalignment, którą współkierował. Zespół ten, utworzony w 2023 r., koncentrował się na długoterminowych zagrożeniach związanych ze sztuczną inteligencją. Współzałożyciel OpenAI Ilya Sutskever ogłosił swoje odejście w poście na X 14 maja.

„Cieszę się, że mogę dołączyć do @AnthropicAI, aby kontynuować misję superalignment – napisał Leike na X we wtorek. – Mój nowy zespół będzie pracował nad skalowalnym nadzorem, generalizacją od słabego do silnego i zautomatyzowanymi badaniami nad wyrównaniem”.

Leike dodał też:

„Odejście od tej pracy było jedną z najtrudniejszych rzeczy, jakie kiedykolwiek zrobiłem, ponieważ musimy pilnie dowiedzieć się, jak sterować i kontrolować systemy AI znacznie mądrzejsze od nas”.

Bezpieczeństwo sztucznej inteligencji szybko zyskało na znaczeniu w całym sektorze technologicznym, odkąd OpenAI wprowadziła ChatGPT pod koniec 2022 r., zapoczątkowując boom na produkty i inwestycje związane z generatywną sztuczną inteligencją. Niektórzy w branży wyrazili zaniepokojenie, że firmy zbyt szybko udostępniają publicznie potężne produkty AI bez odpowiedniego uwzględnienia potencjalnych szkód społecznych.

OpenAI poinformowało we wtorek, że utworzyło nową komisję ds. bezpieczeństwa i ochrony, zarządzaną przez kierownictwo wyższego szczebla, w tym dyrektora generalnego Sama Altmana. Komitet będzie rekomendował zarządowi firmy „decyzje dotyczące bezpieczeństwa i ochrony projektów i operacji OpenAI”.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE