IPO September 2024 - Begrenzte Finanzhistorie. Daten basieren auf IPO-Prospekt und ersten Quartalsberichten.
CBRS
NASDAQ

Cerebras Systems, Inc.

Hersteller des groessten KI-Chips der Welt. Cerebras revolutioniert KI-Training und -Inferenz mit der Wafer-Scale Engine - einem kompletten Silizium-Wafer als einzelnem Chip.

Halten

Kennzahlen auf einen Blick

Kurs28,00 USD
Marktkapitalisierung~7 Mrd. USD
KGVn/a (Verlust)
Dividende
Umsatz 2025e0,1 Mrd. USD

Cerebras Systems Aktienkurs

Chart bereitgestellt von TradingView

Unternehmensprofil

Cerebras Systems hat den groessten Chip der Welt gebaut: die Wafer-Scale Engine (WSE-3). Während konventionelle KI-Chips wie NVIDIAs H100 auf einem kleinen Die sitzen, nutzt Cerebras einen kompletten 300mm-Silizium-Wafer als einzelnen Chip - mit 4 Billionen Transistoren und 900.000 KI-optimierten Kernen.

Der Vorteil: Ein einzelnes CS-3-System kann KI-Modelle trainieren und ausfuehren, für die sonst hunderte NVIDIA-GPUs in einem Cluster vernetzt werden muessten. Das eliminiert die Komplexität der GPU-Cluster-Programmierung und reduziert den Energieverbrauch pro Berechnung.

Cerebras bietet zusätzlich einen Cloud-Inferenz-Service, der bis zu 20x schnellere LLM-Inferenz als GPU-basierte Lösungen liefert. Das Unternehmen ging im September 2024 an die Börse und befindet sich in einer sehr fruehen Wachstumsphase.

Wichtige Fakten zu Cerebras

Gruendung
2016
Hauptsitz
Sunnyvale, Kalifornien
CEO
Andrew Feldman
Mitarbeiter
~450

Stammdaten

SymbolCBRS
ISINUS15672K1016
WKNA40Y48
SektorHalbleiter
IndexNASDAQ

Geschaeftssegmente

CS-3 Hardware (Wafer-Scale Engine)

70% Anteil
Umsatz 2025e
~0,07 Mrd. USD
Wachstum
+200%

Der CS-3 ist der größte KI-Chip der Welt - ein kompletter Wafer mit 4 Billionen Transistoren und 900.000 KI-Kernen. Kein GPU-Cluster nötig: Ein einzelnes CS-3-System ersetzt hunderte NVIDIA-GPUs für KI-Training.

Produkte & Lösungen
CS-3 Wafer-Scale EngineCS-3 Cluster SystemsMemoryX (off-chip memory)SwarmX (fabric interconnect)
Ausblick
Schnelles Wachstum bei KI-Forschungsinstituten und Regierungen

Cerebras Cloud & Inference

30% Anteil
Umsatz 2025e
~0,03 Mrd. USD
Wachstum
+150%

Cloud-basierte KI-Inferenz auf Cerebras-Hardware. Bietet die schnellste LLM-Inferenz weltweit - bis zu 20x schneller als GPU-basierte Lösungen.

Produkte & Lösungen
Cerebras Inference CloudModel HostingFine-Tuning ServicesAPI Access
Ausblick
Hohes Potenzial durch ueberlegene Inferenz-Geschwindigkeit

Technologie-Highlight: Wafer-Scale Engine CS-3

4 Bio.
Transistoren auf einem Wafer
900.000
KI-optimierte Kerne
20x
schnellere LLM-Inferenz vs. GPUs

Der CS-3 nutzt einen kompletten 300mm-Silizium-Wafer als einzelnen Chip. Zum Vergleich: NVIDIAs H100 hat 80 Mrd. Transistoren auf einem kleinen Die. Der CS-3 hat 4 Billionen Transistoren - 50x mehr. MemoryX und SwarmX ermoeglichen die Skalierung über mehrere CS-3-Systeme.

Finanzkennzahlen (begrenzte Historie)

JahrUmsatz (USD)Op. VerlustCapExCash
2025e0,1 Mrd.-0,2 Mrd.~0,1 Mrd.~0,8 Mrd.
20240,08 Mrd.-0,15 Mrd.~0,05 Mrd.~0,3 Mrd.

Quelle: Cerebras IPO-Prospekt und Quartalsberichte. IPO September 2024 - sehr begrenzte öffentliche Finanzhistorie.

SWOT-Analyse Cerebras Systems

Staerken

  • +Einzigartige Wafer-Scale-Technologie - groesster KI-Chip der Welt (CS-3)
  • +Bis zu 20x schnellere LLM-Inferenz als GPU-basierte Systeme
  • +Kein GPU-Cluster nötig: Vereinfacht KI-Training und -Inferenz drastisch
  • +Starkes Team mit Erfahrung aus AMD, Intel und SeaMicro
  • +Keine Abhängigkeit von NVIDIA - eigene Chip-Architektur

Schwaechen

  • -Noch sehr frueh - minimaler Umsatz (~0,1 Mrd. USD)
  • -Nicht profitabel mit hohem Cash-Burn
  • -IPO erst September 2024 - sehr begrenzte öffentliche Finanzhistorie
  • -Abhängigkeit von TSMC für Wafer-Fertigung
  • -Kleine Kundenbasis - wenige Grosskunden machen Grossteil des Umsatzes

Chancen

  • KI-Inferenz wird zum groessten Workload - Cerebras hat Geschwindigkeitsvorteil
  • Regierungen und Forschungsinstitute bevorzugen Nicht-NVIDIA-Alternativen
  • Sovereign AI: Länder wollen eigene KI-Chips ohne US-Hyperscaler-Abhängigkeit
  • LLM-Training auf einem System statt GPU-Cluster senkt Komplexität
  • Wachsender Markt für KI-Inferenz-as-a-Service

Risiken

  • NVIDIA dominiert mit 80%+ Marktanteil bei KI-Chips
  • AMD, Intel und Google (TPU) als weitere Wettbewerber
  • Kunden koennten bei NVIDIA bleiben wegen Software-Ökosystem (CUDA)
  • Hohe Kapitalanforderungen für Chipentwicklung und Waferfertigung
  • IPO-Lock-up-Periode kann Verkaufsdruck erzeugen

Dividende & Kapitalallokation

Cerebras zahlt keine Dividende

Als Pre-Revenue-Startup mit IPO im September 2024 zahlt Cerebras keine Dividende. Alle Mittel fliessen in Chip-Entwicklung, Waferfertigung und den Aufbau des Cloud-Inferenz-Geschäfts. Eine Dividende ist auf Jahre hinaus ausgeschlossen.

Bewertung und Empfehlung

2/5

Unsere Empfehlung: Halten

Einzigartige Wafer-Scale-Technologie mit extremem Risiko - nur für Spezialisten

Bewertungskriterien

MarktpositionNische
WachstumHoch
FinanzstaerkeSchwach
BewertungSpekulativ
DividendeKeine

Keine Anlageberatung: Die Informationen auf dieser Seite dienen ausschließlich der allgemeinen Information und stellen keine Anlageberatung oder Empfehlung zum Kauf oder Verkauf von Wertpapieren dar.

Häufig gestellte Fragen

Der CS-3 von Cerebras ist der größte KI-Chip der Welt. Während NVIDIA-GPUs auf einem kleinen Chip-Die sitzen, nutzt Cerebras einen kompletten Silizium-Wafer als einzelnen Chip - mit 4 Billionen Transistoren und 900.000 KI-Kernen. Ein einzelnes CS-3-System kann für KI-Training und -Inferenz eingesetzt werden, wo sonst hunderte NVIDIA-GPUs in einem Cluster nötig waeren.

Aktienanalysen direkt ins Postfach

Erhalten Sie wöchentlich aktuelle Analysen zu KI-Chip- und Halbleiter-Aktien.