Meta mit Details zum neuen KI-Chip: Schnelleres Training der Ranking-Modelle!

1 min lesen
 Foto: 482385584 -AdobeStock

Meta verspricht, dass die nächste Generation seiner maßgeschneiderten KI-Chips leistungsfähiger sein werde und die Ranking-Modelle deutlich schneller trainieren könne. Zu Beginn des Jahres hatte Reuters berichtet, dass Meta eine neue Version eines speziellen Rechenzentrumschips plane, um den steigenden Bedarf an Rechenleistung für KI-Produkte in Facebook, Instagram und WhatsApp zu bewältigen. Der Chip sollte dazu beitragen, die Abhängigkeit von NVIDIAs KI-Chips zu reduzieren und gleichzeitig die Energiekosten zu senken.

Der neue Meta Training and Inference Accelerator (MTIA) Chip sei Teil eines umfassenden Unternehmensprojekts, das auch andere Hardwaresysteme in Betracht ziehe, wie CNBC berichtete.

MTIA-Chips befinden sich in der Produktion

Meta hatte den MTIA v1 im Mai 2023 angekündigt und sich zunächst auf die Bereitstellung der Chips für Rechenzentren konzentriert. Die nächste Generation des Chips dürfte ebenfalls auf Rechenzentren ausgerichtet sein, schrieb das amerikanische Technikportal "The Verge". Die Markteinführung des MTIA v1 sei nicht vor 2025 erwartet worden, aber beide MTIA-Chips würden sich nun in der Produktion befinden, hieß es weiter. Derzeit trainiere der MTIA hauptsächlich Ranking- und Empfehlungsalgorithmen, aber das Ziel könnte sein, die Fähigkeiten des Chips zu erweitern, um auch generative KI-Modelle wie die Llama-Sprachmodelle zu trainieren.

Nächste Version des Chips übertrifft den Vorgänger um das Dreifache

Seit einiger Zeit wird bereits an dem MTIA v2-Projekt gearbeitet, das intern als Artemis bezei

Dieser Artikel ist erschienen in...