Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Jedna z czołowych postaci tajwańskiego sektora high-tech twierdzi, że rosnące wymagania obliczeniowe na potrzeby AI skutkują znacznym wzrostem zapotrzebowania w obszarze serwerów i sieci

ChatGPT, Midjourney, Dell-E, Bard i wiele, wiele innych modeli generatywnej sztucznej inteligencji działa z nami już od miesięcy, ale skutkiem tego jest wzrost zapotrzebowania w obszarach infrastruktury – co może być pobudzające dla branży. 

LLM (ang. large language models, duże modele językowe) stojące za generatywną sztuczną inteligencją wymagają przetwarzania ogromnych ilości danych na potrzeby szkolenia i szybszej transmisji, co stwarza lukratywne możliwości biznesowe dla producentów. Prezes ASUS Cloud i Taiwan Web Service Corporation (TWSC) Peter Wu podkreślił różnice między tradycyjną sztuczną inteligencją a generatywną sztuczną inteligencją, nazywając je odpowiednio AI 1.0 i 2.0.

Wu zwrócił uwagę, że sztuczna inteligencja 1.0 polega na budowaniu konkretnych modeli poprzez uczenie się pod nadzorem oraz wymaga tworzenia i etykietowania projektów. Proces ten należy powtórzyć dla różnych modeli i może rozwiązać tylko określone problemy. Z drugiej strony generatywna sztuczna inteligencja AI 2.0 jest inna. Po zbudowaniu modelu może on uczyć się autonomicznie. Z punktu widzenia aplikacji generatywna sztuczna inteligencja jest również inteligentniejsza i bardziej wszechstronna.

Ilość danych szkoleniowych, które należy przetworzyć w przypadku AI 2.0, jest również znacznie większa niż w poprzednich modelach AI. Wcześniejsze modele miały parametry liczone w dziesiątkach tysięcy, podczas gdy generatywna sztuczna inteligencja wymaga obecnie dziesiątek miliardów parametrów. Wu zauważył, że wiele osób będzie miało poczucie, że maszyna jest inteligentna, korzystając z ChatGPT. Dzieje się tak dlatego, że gdy model przekroczy próg 40–60 miliardów parametrów, osiąga swego rodzaju, jak określa to prezes „oświecenie”. Chodzi o przekroczenie poziomu, który dla wielu użytkowników będzie oznaczać znaczne złudzenie dobrego naśladowania realnej inteligencji.

GPT-3 OpenAI ma 175 miliardów parametrów, a GPT-3.5 ma około 200 miliardów parametrów. GPT-4 został ogłoszony 14 marca 2023 r., ale nie ujawniono liczby parametrów. Niektóre szacunki sugerują, że parametry GPT-4 mogą być kilkukrotnie liczniejsze niż w GPT-3.

Aby uczynić sztuczną inteligencję mądrzejszą i zwiększyć liczbę parametrów, konieczne są odpowiednie ulepszenia sprzętu sprzętowego. Wcześniejsze architektury, które wymagały tylko jednego procesora graficznego lub nawet procesora, wymagają teraz przetwarzania równoległego z setkami procesorów graficznych. Ta zmiana wymaga zmian w serwerach, switchach sieciowych, a nawet w całej architekturze centrum danych. Mówiąc wprost; na rewolucji AI może zyskać pokaźna część branży.

Jeśli ktokolwiek miał wątpliwości, to tak, grafika na początku tego wpisu powstała dzięki generatywnej AI.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE