Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Nvidia AI Enterprise 4.0 z nowymi funkcjami związanymi z LLM i środowiskiem Kubernetes

Nvidia wprowadza nową wersję swojego pakietu oprogramowania Nvidia AI Enterprise z nowymi funkcjonalnościami do tworzenia i dostosowywania aplikacji opartych na dużych modelach językowych oraz wdrażania modeli AI w kontenerach Kubernetes.

Wprowadzony w 2021 roku, Nvidia AI Enterprise dostarcza organizacjom Framework AI, czyli wstępnie przeszkolone modele i narzędzia, niezbędne m.in. do tworzenia i wdrażania aplikacji opartych na sztucznej inteligencji.

Nowe funkcje w Nvidia AI Enterprise 4.0 obejmują Nvidia NeMo, platformę w chmurze, umożliwiającą tworzenie, dostosowywanie i wdrażanie dużych modeli językowych do różnych zastosowań generatywnej sztucznej inteligencji, takich jak generowanie obrazów, wideo i modeli 3D na podstawie podpowiedzi tekstowych.

Nowa wersja będzie również zawierać Nvidia Triton Management Service, który automatyzuje proces wdrażania modeli AI poprzez wiele instancji Triton Inference Server w klastrach Kubernetes, aby zoptymalizować wydajność i wykorzystanie sprzętu.

Kolejną nadchodzącą funkcją jest Nvidia Base Command Manager Essentials, czyli oprogramowanie do zarządzania klastrami, które pomaga organizacjom “maksymalizować wydajność i wykorzystanie serwerów AI w centrach danych, środowiskach wielochmurowych i hybrydowych”.

Nvidia AI Enterprise została certyfikowana do działania na systemach certyfikowanych przez Nvidię, w tym na systemach Nvidia DGX oraz głównych platformach chmurowych, oraz nowo ogłoszonych stacjach roboczych Nvidia RTX.

Pakiet oprogramowania został zintegrowany z usługami ServiceNow, Snowflake i Dell Technologies, a także z partnerskimi usługami Amazon Web Services, Google Cloud i Microsoft Azure. Integracja jest również planowana z kilkoma narzędziami MLOps, w tym z Azure Machine Learning od Microsoftu, ClearML, Domino Data Labs, Run:AI oraz Weight & Biases.

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE