IPO September 2024 - Begrenzte Finanzhistorie. Daten basieren auf IPO-Prospekt und ersten Quartalsberichten.
CBRS
NASDAQ

Cerebras Systems, Inc.

Hersteller des größten KI-Chips der Welt. Cerebras revolutioniert KI-Training und -Inferenz mit der Wafer-Scale Engine - einem kompletten Silizium-Wafer als einzelnem Chip.

Halten

Kennzahlen auf einen Blick

Kurs28,00 USD
Marktkapitalisierung~7 Mrd. USD
KGVn/a (Verlust)
Dividende
Umsatz 2025e0,1 Mrd. USD

Cerebras Systems Aktienkurs

Chart bereitgestellt von TradingView

Unternehmensprofil

Cerebras Systems hat den größten Chip der Welt gebaut: die Wafer-Scale Engine (WSE-3). Während konventionelle KI-Chips wie NVIDIAs H100 auf einem kleinen Die sitzen, nutzt Cerebras einen kompletten 300mm-Silizium-Wafer als einzelnen Chip - mit 4 Billionen Transistoren und 900.000 KI-optimierten Kernen.

Der Vorteil: Ein einzelnes CS-3-System kann KI-Modelle trainieren und ausführen, für die sonst hunderte NVIDIA-GPUs in einem Cluster vernetzt werden müssten. Das eliminiert die Komplexität der GPU-Cluster-Programmierung und reduziert den Energieverbrauch pro Berechnung.

Cerebras bietet zusätzlich einen Cloud-Inferenz-Service, der bis zu 20x schnellere LLM-Inferenz als GPU-basierte Lösungen liefert. Das Unternehmen ging im September 2024 an die Börse und befindet sich in einer sehr frühen Wachstumsphase.

Wichtige Fakten zu Cerebras

Gründung
2016
Hauptsitz
Sunnyvale, Kalifornien
CEO
Andrew Feldman
Mitarbeiter
~450

Stammdaten

SymbolCBRS
ISINUS15672K1016
WKNA40Y48
SektorHalbleiter
IndexNASDAQ

Geschäftssegmente

CS-3 Hardware (Wafer-Scale Engine)

70% Anteil
Umsatz 2025e
~0,07 Mrd. USD
Wachstum
+200%

Der CS-3 ist der größte KI-Chip der Welt - ein kompletter Wafer mit 4 Billionen Transistoren und 900.000 KI-Kernen. Kein GPU-Cluster nötig: Ein einzelnes CS-3-System ersetzt hunderte NVIDIA-GPUs für KI-Training.

Produkte & Lösungen
CS-3 Wafer-Scale EngineCS-3 Cluster SystemsMemoryX (off-chip memory)SwarmX (fabric interconnect)
Ausblick
Schnelles Wachstum bei KI-Forschungsinstituten und Regierungen

Cerebras Cloud & Inference

30% Anteil
Umsatz 2025e
~0,03 Mrd. USD
Wachstum
+150%

Cloud-basierte KI-Inferenz auf Cerebras-Hardware. Bietet die schnellste LLM-Inferenz weltweit - bis zu 20x schneller als GPU-basierte Lösungen.

Produkte & Lösungen
Cerebras Inference CloudModel HostingFine-Tuning ServicesAPI Access
Ausblick
Hohes Potenzial durch überlegene Inferenz-Geschwindigkeit

Technologie-Highlight: Wafer-Scale Engine CS-3

4 Bio.
Transistoren auf einem Wafer
900.000
KI-optimierte Kerne
20x
schnellere LLM-Inferenz vs. GPUs

Der CS-3 nutzt einen kompletten 300mm-Silizium-Wafer als einzelnen Chip. Zum Vergleich: NVIDIAs H100 hat 80 Mrd. Transistoren auf einem kleinen Die. Der CS-3 hat 4 Billionen Transistoren - 50x mehr. MemoryX und SwarmX ermöglichen die Skalierung über mehrere CS-3-Systeme.

Finanzkennzahlen (begrenzte Historie)

JahrUmsatz (USD)Op. VerlustCapExCash
2025e0,1 Mrd.-0,2 Mrd.~0,1 Mrd.~0,8 Mrd.
20240,08 Mrd.-0,15 Mrd.~0,05 Mrd.~0,3 Mrd.

Quelle: Cerebras IPO-Prospekt und Quartalsberichte. IPO September 2024 - sehr begrenzte öffentliche Finanzhistorie.

SWOT-Analyse Cerebras Systems

Stärken

  • +Einzigartige Wafer-Scale-Technologie - größter KI-Chip der Welt (CS-3)
  • +Bis zu 20x schnellere LLM-Inferenz als GPU-basierte Systeme
  • +Kein GPU-Cluster nötig: Vereinfacht KI-Training und -Inferenz drastisch
  • +Starkes Team mit Erfahrung aus AMD, Intel und SeaMicro
  • +Keine Abhängigkeit von NVIDIA - eigene Chip-Architektur

Schwächen

  • -Noch sehr früh - minimaler Umsatz (~0,1 Mrd. USD)
  • -Nicht profitabel mit hohem Cash-Burn
  • -IPO erst September 2024 - sehr begrenzte öffentliche Finanzhistorie
  • -Abhängigkeit von TSMC für Wafer-Fertigung
  • -Kleine Kundenbasis - wenige Großkunden machen Großteil des Umsatzes

Chancen

  • KI-Inferenz wird zum größten Workload - Cerebras hat Geschwindigkeitsvorteil
  • Regierungen und Forschungsinstitute bevorzugen Nicht-NVIDIA-Alternativen
  • Sovereign AI: Länder wollen eigene KI-Chips ohne US-Hyperscaler-Abhängigkeit
  • LLM-Training auf einem System statt GPU-Cluster senkt Komplexität
  • Wachsender Markt für KI-Inferenz-as-a-Service

Risiken

  • NVIDIA dominiert mit 80%+ Marktanteil bei KI-Chips
  • AMD, Intel und Google (TPU) als weitere Wettbewerber
  • Kunden könnten bei NVIDIA bleiben wegen Software-Ökosystem (CUDA)
  • Hohe Kapitalanforderungen für Chipentwicklung und Waferfertigung
  • IPO-Lock-up-Periode kann Verkaufsdruck erzeugen

Dividende & Kapitalallokation

Cerebras zahlt keine Dividende

Als Pre-Revenue-Startup mit IPO im September 2024 zahlt Cerebras keine Dividende. Alle Mittel fließen in Chip-Entwicklung, Waferfertigung und den Aufbau des Cloud-Inferenz-Geschäfts. Eine Dividende ist auf Jahre hinaus ausgeschlossen.

Bewertung und Empfehlung

2/5

Unsere Empfehlung: Halten

Einzigartige Wafer-Scale-Technologie mit extremem Risiko - nur für Spezialisten

Bewertungskriterien

MarktpositionNische
WachstumHoch
FinanzstärkeSchwach
BewertungSpekulativ
DividendeKeine

Keine Anlageberatung: Die Informationen auf dieser Seite dienen ausschließlich der allgemeinen Information und stellen keine Anlageberatung oder Empfehlung zum Kauf oder Verkauf von Wertpapieren dar.

Häufig gestellte Fragen

Der CS-3 von Cerebras ist der größte KI-Chip der Welt. Während NVIDIA-GPUs auf einem kleinen Chip-Die sitzen, nutzt Cerebras einen kompletten Silizium-Wafer als einzelnen Chip - mit 4 Billionen Transistoren und 900.000 KI-Kernen. Ein einzelnes CS-3-System kann für KI-Training und -Inferenz eingesetzt werden, wo sonst hunderte NVIDIA-GPUs in einem Cluster nötig wären.

Aktienanalysen direkt ins Postfach

Erhalten Sie wöchentlich aktuelle Analysen zu KI-Chip- und Halbleiter-Aktien.