Nowe chipy AI Meta działają szybciej niż wcześniej

Meta obiecuje, że następna generacja niestandardowych chipów AI będzie potężniejsza i będzie w stanie znacznie szybciej trenować modele klasyfikacyjne.

Meta Training and Inference Accelerator (MTIA) został zaprojektowany tak, aby najlepiej współpracować z modelami rankingowymi i rekomendacyjnymi Meta. Chipy mogą pomóc w zwiększeniu efektywności szkolenia i ułatwieniu wnioskowania — zwanego również rzeczywistym zadaniem wnioskowania.

Jak stwierdziła firma w poście na blogu, MTIA stanowi dużą część jej długoterminowego planu budowy infrastruktury wokół wykorzystania sztucznej inteligencji w swoich usługach. Chce zaprojektować swoje chipy tak, aby współpracowały z obecną infrastrukturą technologiczną i przyszłymi zmianami w jednostkach przetwarzania grafiki.

„Spełnienie naszych ambicji w zakresie niestandardowego krzemu oznacza inwestowanie nie tylko w krzem obliczeniowy, ale także w przepustowość pamięci, możliwości sieciowe i pojemność, a także w inne platformy sprzętowe nowej generacji” – stwierdziła Meta w swoim poście.

Meta ogłosiła wersję MTIA v1 w maju 2023 r., skupiając się na udostępnieniu tych chipów centrom danych. Chip MTIA nowej generacji będzie prawdopodobnie również przeznaczony dla centrów danych. Oczekiwano, że MTIA v1 nie zostanie wydany wcześniej niż w 2025 r., ale Meta twierdzi, że obecnie w produkcji znajdują się dwa chipy MTIA.

Obecnie MTIA szkoli głównie algorytmy klasyfikacji i rekomendacji, ale Meta twierdzi, że celem jest ostateczne rozszerzenie możliwości chipa, aby rozpocząć szkolenie generatywnej sztucznej inteligencji, takiej jak modele języka lamy.

Meta stwierdziła, że ​​nowy układ MTIA „koncentruje się przede wszystkim na zapewnieniu właściwej równowagi między mocą obliczeniową, przepustowością pamięci i pojemnością pamięci”. Ten chip będzie miał 256 MB wbudowanej pamięci o częstotliwości 1,3 GHz w porównaniu do 128 MB pamięci 800 GHz w pierwszej wersji. Wyniki wczesnych testów przeprowadzonych przez Meta wykazały, że nowy chip działał trzy razy lepiej niż wersja pierwszej generacji w czterech ocenianych przez firmę modelach.

READ  Andy Gacy, dyrektor generalny Amazon, otrzymał w 2021 r. 213 mln dolarów rekompensaty

Konkurencja w zakupie potężnych chipów uwydatniła potrzebę stosowania dedykowanych chipów do zasilania modeli AI. Popyt na chipy wzrósł tak bardzo, że Nvidia, która obecnie dominuje na rynku chipów AI, jest warta 2 biliony dolarów.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *