Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

OpenAI zatrudnia zespół do współpracy z dostawcami sprzętu nad „współprojektowaniem przyszłych akceleratorów AI”

OpenAI zatrudnia zespół do „współprojektowania przyszłego sprzętu od różnych dostawców pod kątem programowalności i wydajności”.

W ogłoszeniu o pracę dla „HW/SW Co-design Engineer”, firma zajmująca się generatywną sztuczną inteligencją stwierdziła, że zespół będzie „wspierał ważne akceleratory AI, a my będziemy współprojektować sprzęt/oprogramowanie przyszłych akceleratorów AI”.

Od kandydatów oczekuje się „głębokiej znajomości GPU i/lub innych akceleratorów AI” oraz „dobrego doświadczenia z CUDA [Nvidii] lub powiązanym językiem programowania akceleratorów”. Pracownik będzie współpracował z zespołem projektantów sprzętu OpenAI, którym kieruje Richard Ho, wcześniej pracujący w firmie Lightmatter zajmującej się chipami fotonicznymi i były lider rodziny chipów TPU AI firmy Google.

OpenAI korzysta obecnie z chmury Azure Microsoftu w ramach inwestycji o wartości 13 miliardów dolarów, jaką gigant technologiczny poczynił w laboratorium AI w zeszłym roku. Inwestycja ta miała głównie formę kredytów w chmurze. Deweloper ChatGPT zobowiązał się pomóc w rozwoju chipów AI Microsoftu, w tym akceleratora Maia AI, który ogłosił w listopadzie ubiegłego roku.

Uważa się również, że start-up rozważał zbudowanie własnego sprzętu chipowego i ocenił potencjalny cel przejęcia. Dyrektor generalny Sam Altman oddzielnie próbował zebrać miliardy dla swojej własnej firmy produkującej chipy i obecnie domaga się aż 7 bilionów dolarów.

OpenAI wcześniej obiecało kupić chipy o wartości 51 milionów dolarów od firmy Rain AI zajmującej się chipami neuromorficznymi, w której Altman jest inwestorem. Jednak na razie OpenAI przy opracowywaniu swoich dużych modeli językowych opiera się głównie na procesorach graficznych Nvidii, co pomaga podnieść wycenę firmy produkującej chipy do ponad 2 bilionów dolarów.