Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Samsung planuje wzmocnić swoją pozycję na rynku pamięci HBM

Sztuczna inteligencja staje się coraz bardziej popularnym trendem. Warto jednak pamiętać, że oznacza to globalny wzrost zapotrzebowania na pamięć HBM. Te szybkie moduły zapewniają odpowiednie możliwości dla serwerów wykonujących obliczenia na potrzeby AI. Dlatego też Samsung chce zwiększyć swoje możliwości w obszarze tych właśnie pamięci. 

Według informacji z koreańskich mediów, Samsung Electronics planuje utworzyć biuro rozwoju pamięci HBM, aby wzmocnić swoją konkurencyjność na rynku HBM. Rozmiar zespołu nie został jeszcze ustalony. Jeśli grupa zadaniowa zostanie podniesiona do rangi biura rozwoju, Samsung utworzy specjalistyczne zespoły projektowe i rozwojowe do pracy nad pamięciami HBM. Wyścig jest w tym przypadku intensywny i “łeb w łeb”. Pod względem postępu w badaniach i rozwoju, trzej główni producenci osiągnęli już etap HBM3e.

Co do Samsunga, w lutym firma wypuściła swój pierwszy produkt HBM3e 12H DRAM o pojemności 36 GB, będący obecnie największym produktem HBM Samsunga. Obecnie Samsung dostarcza próbki HBM3e 12H klientom, a masowa produkcja ma ruszyć w drugiej połowie tego roku.

Z kolei Micron Technology ogłosił rozpoczęcie masowej produkcji pamięci o wysokiej częstotliwości “HBM3e”, która będzie wykorzystywana w najnowszym układzie AI od NVIDII, jednostce przetwarzania grafiki Tensor Core “H200”. Wysyłka H200 jest planowana na drugi kwartał 2024 roku. Inny ważny gracz, SK Hynix, zgodnie z informacjami od Business Korea, planuje rozpocząć masową produkcję HBM3e w pierwszej połowie 2024 roku.

Globalna pojemność pamięci HBM ma się podwoić w porównaniu do ubiegłego roku. Z perspektywy popytu przewiduje się, że ponad 60% przyszłego zapotrzebowania na HBM będzie wynikać z głównego zastosowania serwerów AI.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE