Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Jedna z czołowych postaci tajwańskiego sektora high-tech twierdzi, że rosnące wymagania obliczeniowe na potrzeby AI skutkują znacznym wzrostem zapotrzebowania w obszarze serwerów i sieci

ChatGPT, Midjourney, Dell-E, Bard i wiele, wiele innych modeli generatywnej sztucznej inteligencji działa z nami już od miesięcy, ale skutkiem tego jest wzrost zapotrzebowania w obszarach infrastruktury – co może być pobudzające dla branży. 

LLM (ang. large language models, duże modele językowe) stojące za generatywną sztuczną inteligencją wymagają przetwarzania ogromnych ilości danych na potrzeby szkolenia i szybszej transmisji, co stwarza lukratywne możliwości biznesowe dla producentów. Prezes ASUS Cloud i Taiwan Web Service Corporation (TWSC) Peter Wu podkreślił różnice między tradycyjną sztuczną inteligencją a generatywną sztuczną inteligencją, nazywając je odpowiednio AI 1.0 i 2.0.

Wu zwrócił uwagę, że sztuczna inteligencja 1.0 polega na budowaniu konkretnych modeli poprzez uczenie się pod nadzorem oraz wymaga tworzenia i etykietowania projektów. Proces ten należy powtórzyć dla różnych modeli i może rozwiązać tylko określone problemy. Z drugiej strony generatywna sztuczna inteligencja AI 2.0 jest inna. Po zbudowaniu modelu może on uczyć się autonomicznie. Z punktu widzenia aplikacji generatywna sztuczna inteligencja jest również inteligentniejsza i bardziej wszechstronna.

Ilość danych szkoleniowych, które należy przetworzyć w przypadku AI 2.0, jest również znacznie większa niż w poprzednich modelach AI. Wcześniejsze modele miały parametry liczone w dziesiątkach tysięcy, podczas gdy generatywna sztuczna inteligencja wymaga obecnie dziesiątek miliardów parametrów. Wu zauważył, że wiele osób będzie miało poczucie, że maszyna jest inteligentna, korzystając z ChatGPT. Dzieje się tak dlatego, że gdy model przekroczy próg 40–60 miliardów parametrów, osiąga swego rodzaju, jak określa to prezes „oświecenie”. Chodzi o przekroczenie poziomu, który dla wielu użytkowników będzie oznaczać znaczne złudzenie dobrego naśladowania realnej inteligencji.

GPT-3 OpenAI ma 175 miliardów parametrów, a GPT-3.5 ma około 200 miliardów parametrów. GPT-4 został ogłoszony 14 marca 2023 r., ale nie ujawniono liczby parametrów. Niektóre szacunki sugerują, że parametry GPT-4 mogą być kilkukrotnie liczniejsze niż w GPT-3.

Aby uczynić sztuczną inteligencję mądrzejszą i zwiększyć liczbę parametrów, konieczne są odpowiednie ulepszenia sprzętu sprzętowego. Wcześniejsze architektury, które wymagały tylko jednego procesora graficznego lub nawet procesora, wymagają teraz przetwarzania równoległego z setkami procesorów graficznych. Ta zmiana wymaga zmian w serwerach, switchach sieciowych, a nawet w całej architekturze centrum danych. Mówiąc wprost; na rewolucji AI może zyskać pokaźna część branży.

Jeśli ktokolwiek miał wątpliwości, to tak, grafika na początku tego wpisu powstała dzięki generatywnej AI.