Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Koprocesor Intel AI Naural, który wbudowany jest w jednostki Intela, otrzymuje nowy sterownik GNA, dla jeszcze lepszej integracji

Przyszłość AI i głębokiego uczenia ma szereg zastosowań w nauce i obliczeniach na poziomie kwantowym. Uczenie maszynowe i sztuczna inteligencja były głównymi kierunkami rozwoju przez ostatnie dwa lata. Trzech największych producentów — AMD, NVIDIA i Intel — wprowadziło swoje zaawansowane urządzenia i oprogramowanie w kilku superkomputerach i różnych nowych aplikacjach. Teraz Intel aktualizuje oprogramowanie dla koprocesorów GNA pod system operacyjny Linux.

Koprocesor GNA od Intela został wprowadzony na rynek w procesorze Cannon Lake w 2018 roku. Został zbudowany na 10nm rdzeniu i ostatnio doczekał się wprowadzenia poleceń AVX-512. Cannon Lake został zastąpiony przez procesory Intel Ice Lake i zaprzestał produkcji linii Cannon Lake na początku 2020 roku. Koprocesory GNA znajdują się obecnie w procesorach z rodzin Gemini Lake, Elkhart Lake, Ice Lake i wyższych, a celem koprocesora jest umożliwienie przypisania zasobów procesora do wykorzystania w innych obszarach przetwarzania AI, np. podczas rozpoznawania mowy i redukcji szumów i innych.

Obecnie integracja koprocesora GNA jest w czwartym wariancie, a Intel zmienił kodowanie, aby uwzględnić Linux Direct Rendering Manager framework lub DRM. Inżynierowie DRM bardzo prosili o tę integrację, aby umieścić bibliotekę GNA w ramach AI i DRM w głównym jądrze Linuksa i jego podsystemach.

Biblioteka składa się z następujących elementów TensorFlow, Caffe, PaddlePaddle, PyTorch, mxnet, Keras i ONNX, a Intel wykorzystuje ją do optymalizacji w swoich procesorach, iGPU, GPU, VPU i FPGA. Biblioteka GNA Intela wykorzystuje również firmowy zestaw narzędzi OpenVINO, pozwalając programistom na korzystanie z zestawu do rozwoju głębokiego uczenia w celu usprawnienia rozwoju i łatwej dystrybucji na kilka platform jednocześnie z szerszą bazą wsparcia i zoptymalizowanym API. W systemie Linux wprowadzono wersję trzecią ze zaktualizowanym wsparciem dla nowszych scenariuszy rozwoju i głębokiego uczenia.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE