Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Klaster AI Tesli o wartości 300 milionów dolarów rozpoczyna dziś działalność

Tesla uruchomi swój długo oczekiwany superkomputer we wtorek. Maszyna będzie wykorzystywana do różnych zastosowań sztucznej inteligencji (AI), ale klaster jest tak potężny, że może być również używany do wymagających obciążeń obliczeniowych o wysokiej wydajności (HPC). W rzeczywistości superkomputer oparty na układzie Nvidia H100 będzie jedną z najpotężniejszych maszyn na świecie.

Nowy klaster Tesli będzie wykorzystywać 10 000 obliczeniowych procesorów graficznych Nvidia H100, które będą oferować szczytową wydajność 340 FP64 PFLOPS dla obliczeń technicznych i 39,58 INT8 ExaFLOPS dla aplikacji AI. W rzeczywistości 340 FP64 PFLOPS Tesli jest wyższe niż 304 FP64 PFLOPS oferowane przez Leonardo, czwarty na świecie superkomputer o najwyższej wydajności.

Dzięki nowemu superkomputerowi Tesla znacznie zwiększa swoje możliwości obliczeniowe, aby trenować swoją technologię w pełni autonomicznej jazdy (FSD). Może to nie tylko uczynić Teslę bardziej konkurencyjną od innych producentów samochodów, ale także sprawić, że firma stanie się właścicielem jednego z najszybszych superkomputerów na świecie.

“Ze względu na szkolenie wideo w świecie rzeczywistym, możemy mieć największe zbiory danych szkoleniowych na świecie, pojemność pamięci podręcznej hot tier przekraczającą 200PB – rzędy wielkości więcej niż LLM” – wyjaśnił Tim Zaman, AI Infra & AI Platform Engineering Manager w Tesla.

Podczas gdy nowy klaster oparty na H100 ma znacznie poprawić szybkość szkolenia Tesli, Nvidia ma trudności z zaspokojeniem popytu na te procesory graficzne. W rezultacie Tesla inwestuje ponad 1 miliard dolarów w rozwój własnego superkomputera, Dojo, który jest zbudowany na specjalnie zaprojektowanym, wysoce zoptymalizowanym układzie system-on-chip.

Dojo nie tylko przyspieszy szkolenie FSD, ale także będzie zarządzać przetwarzaniem danych dla całej floty pojazdów Tesli. Tesla jednocześnie wprowadza do sieci swój klaster GPU Nvidia H100 wraz z Dojo, co zapewni firmie niezrównaną moc obliczeniową w branży motoryzacyjnej.

Elon Musk ujawnił niedawno, że Tesla planuje wydać ponad 2 miliardy dolarów na szkolenia w zakresie sztucznej inteligencji w 2023 roku i kolejne 2 miliardy dolarów w 2024 roku specjalnie na obliczenia do szkolenia FSD. Podkreśla to zaangażowanie Tesli w pokonywanie wąskich gardeł obliczeniowych i powinno zapewnić znaczną przewagę nad rywalami.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE