Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Kolejne firmy podpisały list piętnujący przepisy dot. AI w Unii Europejskiej

Na początku tego roku Meta Platforms ujawniło, że jego model języka open source Llama nie zostanie wydany w UE, podkreślając, że środowisko regulacyjne bloku jest czynnikiem stojącym za tą decyzją. 

Ponad 40 dyrektorów i badaczy, w tym Ekholm, dyrektor generalny Meta Platforms, Mark Zuckerberg i szef Spotify, Daniel Ek, podpisało list, w którym stwierdzono, że Europa „stała się mniej konkurencyjna i mniej innowacyjna w porównaniu z innymi regionami” z powodu „niespójnego podejmowania decyzji regulacyjnych”.

Dyrektor generalny Ericssona, Borje Ekholm, dołączył do innych liderów technologicznych, podpisując otwarty list krytykujący przepisy Unii Europejskiej (UE) dotyczące sztucznej inteligencji i prywatności danych, ostrzegając prawodawców, że fragmentaryczne podejście jeszcze bardziej ograniczy rozwój gospodarczy i technologiczny bloku.

Firmy, w tym instytucje technologiczne i badawcze, również ubolewały nad interwencjami organów ochrony danych, co doprowadziło do niepewności co do tego, jakiego rodzaju zestawy danych można wykorzystać do trenowania modeli.

„Oznacza to, że następna generacja modeli sztucznej inteligencji typu open source oraz produktów i usług, które na nich budujemy, nie zrozumie ani nie odzwierciedli europejskiej wiedzy, kultury ani języków” – czytamy w liście, ostrzegając, że kontynent przegapi innowacje, takie jak asystent Meta AI, a europejskie wdrożenie usługi zostanie opóźnione z powodu obaw o prywatność danych.

Przełomowa ustawa UE o sztucznej inteligencji oficjalnie weszła w życie w zeszłym miesiącu, wymagając od firm spełnienia wymogów przejrzystości, opublikowania szczegółowego raportu dotyczącego treści wykorzystywanych w szkoleniach dotyczących sztucznej inteligencji oraz przeprowadzenia testów bezpieczeństwa przed wprowadzeniem produktów AI.

Brak jasności i harmonizacji przepisów regulujących rozwój i wdrażanie sztucznej inteligencji uniemożliwi UE czerpanie korzyści z modeli open source i multimodalnych, które sygnatariusze opisali jako „dwa filary innowacji w zakresie sztucznej inteligencji”.

W liście argumentowano ponadto, że niedostępność „modeli pionierskich”, takich jak Llama, pozbawi „Europejczyków postępu technologicznego, z którego korzystają w USA, Chinach i Indiach”, ponieważ technologia ta poczyniła postępy w badaniach w różnych branżach.

„[Unijne organy regulacyjne] mogą zdecydować się na ponowne potwierdzenie zasady harmonizacji zapisanej w ramach regulacyjnych, takich jak RODO, aby innowacje w zakresie sztucznej inteligencji odbywały się tutaj na taką samą skalę i z taką samą szybkością, jak gdzie indziej. Albo może nadal odrzucać postęp, zdradzać ambicje jednolitego rynku i przyglądać się, jak reszta świata opiera się na technologiach, do których Europejczycy nie będą mieli dostępu” – dodano w liście.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

Exit mobile version