Skip to main content
Allgemein

Zuckerbergs KI-Pläne sprengen alle Dimensionen – Rechenzentren so groß wie Städte

Meta-Chef Mark Zuckerberg hat angekündigt, gigantische neue Rechenzentren bauen zu wollen, um seine ambitionierten KI-Ziele zu erreichen. In einem Interview mit The Verge spricht er davon, dass man künftig „Infrastruktur auf dem Level ganzer Städte“ errichten müsse. Die Vision: eine massiv skalierte KI-Welt, in der der Konzern mit Modellen wie LLaMA (Large Language Model Meta AI) ganz vorne mitspielt.

Zuckerberg will nicht nur mithalten, sondern dominieren – mit einer eigenen, offenen KI-Plattform. Schon bis Ende 2024 soll Meta über 340.000 Nvidia H100-GPUs einsetzen. Rechnet man die anderen Chipsysteme dazu, sollen die Rechenkapazitäten sogar dem Gegenwert von rund 600.000 H100 entsprechen. Diese Hardware bildet das Rückgrat für LLaMA 3, das in zwei Versionen (8B und 70B) bereits veröffentlicht wurde. Für 2025 ist mit LLaMA 4 die nächste Generation geplant.

Im Gegensatz zu Konkurrenten wie OpenAI setzt Meta auf Open Source. Zuckerberg betont, dass Offenheit ein strategischer Vorteil sei, um Innovationen voranzutreiben und ein breites Ökosystem aufzubauen. Gleichzeitig lässt die Ankündigung der Megarechenzentren aufhorchen: Energieverbrauch, Umweltfolgen und Kontrolle über derartige Infrastrukturen werden zu neuen Debattenthemen.

Zuckerbergs Vision: Künstliche Intelligenz als neue Plattform – so fundamental wie das Smartphone oder das Internet selbst. Die dafür nötige Infrastruktur soll nicht weniger als die physische Welt selbst herausfordern.

Quelle: Golem – Meta: Mark Zuckerberg plant Rechenzentren so groß wie Städte

Leave a Reply

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..