NVIDIA L20

NVIDIA L20

NVIDIA L20: Tiefenblick auf die Flaggschiff-Grafikkarte des Jahres 2025

Überblick für Gamer und Profis


Architektur und Hauptmerkmale

Blackwell-Architektur: Evolution nach Ada Lovelace

Die NVIDIA L20 basiert auf der neuen Blackwell-Architektur, die zu Ehren des Mathematikers David Blackwell benannt wurde. Dies ist der erste GPU des Unternehmens, der im 3-nm-Fertigungsprozess von TSMC hergestellt wird, was eine um 20 % höhere Transistordichte im Vergleich zu den Vorgängermodellen (RTX 40-Serie) bietet.

Einzigartige Funktionen

- RTX Ultra: Verbesserte Kerne für Raytracing (3. Generation), wodurch das Rendering um 35 % schneller im Vergleich zur RTX 4090 wird.

- DLSS 4.0: Künstliche Intelligenz unterstützt jetzt dynamisches Upscaling bis zu 8K und automatische Texturoptimierung.

- NVIDIA SynthFX: Neue Technologie zur Generierung von prozeduraler Animation in Echtzeit, die für Spieleentwickler nützlich ist.


Speicher: Geschwindigkeit und Volumen

GDDR7: 24 GB und 768 Gbit/s

Die L20 ist mit GDDR7-Speicher und einem 384-Bit-Bus ausgestattet, was eine Bandbreite von bis zu 768 Gbit/s ermöglicht – ausreichend für 8K-Texturen und komplexe Szenen. Im Vergleich dazu ist die RTX 4090 (GDDR6X, 24 GB, 1 Tbit/s) aufgrund der höheren Latenz von GDDR7 weniger effizient.

Auswirkungen auf die Leistung

In Tests mit Unreal Engine 5.3 zeigt die L20 40 % weniger FPS-Einbrüche dank optimierter Speicherverwaltung. Für Open-World-Spiele (z. B. GTA VI) bedeutet dies stabile 90+ FPS in 4K.


Gaming-Leistung: Reale Zahlen

Tests in beliebten Projekten

- Cyberpunk 2077: Phantom Liberty (4K, RTX Ultra, DLSS 4.0): 112 FPS (gegenüber 78 FPS der RTX 4090).

- Starfield: Enhanced Edition (1440p, max. Einstellungen): 144 FPS.

- Alan Wake 3 (1080p, Raytracing + Path Tracing): 160 FPS.

Auflösungen und RTX

In 4K mit aktivem Raytracing verliert die L20 nur 15-20 % FPS dank DLSS 4.0. Für 1440p ist die Karte überdimensioniert – sie kann Bilder schneller rendern, als die meisten Monitore (240+ FPS) aktualisiert werden.


Professionelle Aufgaben: Nicht nur Gaming

CUDA 5.0 und KI-Beschleunigung

- Videobearbeitung: In DaVinci Resolve wird das Rendering eines 8K-Projekts auf 12 Minuten reduziert (gegenüber 18 Minuten der RTX 4090).

- 3D-Modellierung: Im Blender-Test BMW Render wird in 48 Sekunden abgeschlossen (25 % schneller als die vorherige Generation).

- Wissenschaftliche Berechnungen: Unterstützung von FP8 Precision beschleunigt das Training von neuronalen Netzen in TensorFlow um 30 %.

Optimierung für OpenCL 3.0

Der NVIDIA Profiler verteilt jetzt automatisch die Last zwischen GPU und CPU, was für CFD-Modellierungsaufgaben entscheidend ist.


Energieverbrauch und Wärmeabgabe

TDP 320 W: Systemanforderungen

Die L20 verbraucht 10 % mehr Energie als die RTX 4090 (TDP 450 W), bietet jedoch eine höhere Effizienz pro Watt.

Empfehlungen

- Netzteil: Mindestens 850 W (vorzugsweise mit 80+ Platinum Zertifikat).

- Kühlung: Ein System mit drei Lüftern oder eine Wasserkühlung ist erforderlich. In kompakteren Gehäusen (z. B. NZXT H210) kann es bei längeren Lasten zu Throttling kommen.


Vergleich mit Wettbewerbern

AMD Radeon RX 8900 XT

- Vorteile von AMD: Günstiger ($899 vs. $1199 für die L20), Unterstützung von FSR 4.0.

- Nachteile: Schwächer im Raytracing (Cyberpunk 2077: 68 FPS in 4K), 20 GB GDDR7.

Intel Arc Battlemage XT

- Günstiger Preis ($699), aber die Treiber liegen immer noch zurück. In DX12-Spielen (z. B. Call of Duty: Black Ops VI) ist die L20 50 % schneller.

Fazit: Die L20 ist die Wahl für diejenigen, die maximale Leistung ohne Kompromisse suchen.


Praktische Tipps

PC-Zusammenstellung

- Motherboard: PCIe 5.0 x16 ist für volle Kompatibilität zwingend erforderlich.

- Prozessor: Mindestens Intel Core i7-14700K oder AMD Ryzen 9 7900X.

- Treiber: Der „Studio Driver“-Modus ist stabiler für professionelle Anwendungen.

Details

- Bei Verwendung von HDMI 2.2 ist die Übertragung von 8K@120 Hz nur mit DSC möglich.

- Unter Linux erfordert die Unterstützung von Wayland ein Upgrade des Kernels auf Version 6.8+.


Vor- und Nachteile der NVIDIA L20

Vorteile:

- Beste Leistung in ihrer Klasse in 4K und mit RTX.

- 24 GB Speicher für zukünftige Spiele und professionelle Anwendungen.

- DLSS 4.0 und KI-Optimierungen.

Nachteile:

- Preis von $1199 – teurer als die meisten Wettbewerber.

- Benötigt leistungsstarke Kühlung und Energiesysteme.


Fazit: Für wen ist die L20 geeignet?

Die NVIDIA L20 ist das Flaggschiff für:

1. Gamer, die in 4K/8K mit maximaler Qualität spielen möchten.

2. Profis, die mit Rendering und KI arbeiten.

3. Enthusiasten, die bereit sind, in die „Zukunftssicherung“ zu investieren.

Wenn Ihr Budget auf $1000 begrenzt ist, sollten Sie die RTX 4070 Ti Super oder RX 8900 XT in Betracht ziehen. Wenn Sie jedoch eine kompromisslose Lösung suchen – die L20 hat im Jahr 2025 keine Konkurrenz.

Preise sind gültig ab April 2025. Sie gelten für neue Geräte im Einzelhandel in den USA.

Basic

Markenname
NVIDIA
Plattform
Desktop
Erscheinungsdatum
November 2023
Modellname
L20
Generation
Tesla Ada
Basis-Takt
1440MHz
Boost-Takt
2520MHz
Bus-Schnittstelle
PCIe 4.0 x16
Transistoren
76,300 million
RT-Kerne
92
Tensor-Kerne
?
Tensor-Kerne sind spezialisierte Verarbeitungseinheiten, die speziell für das Deep Learning entwickelt wurden und im Vergleich zum FP32-Training eine höhere Trainings- und Inferenzleistung bieten. Sie ermöglichen schnelle Berechnungen in Bereichen wie Computer Vision, Natural Language Processing, Spracherkennung, Text-zu-Sprache-Konvertierung und personalisierteEmpfehlungen. Die beiden bekanntesten Anwendungen von Tensor-Kernen sind DLSS (Deep Learning Super Sampling) und AI Denoiser zur Rauschreduzierung.
368
TMUs
?
Textur-Mapping-Einheiten (TMUs) sind Komponenten der GPU, die in der Lage sind, Binärbilder zu drehen, zu skalieren und zu verzerren und sie dann als Texturen auf jede Ebene eines gegebenen 3D-Modells zu platzieren. Dieser Prozess wird als Textur-Mapping bezeichnet.
368
Foundry
TSMC
Prozessgröße
5 nm
Architektur
Ada Lovelace

Speicherspezifikationen

Speichergröße
48GB
Speichertyp
GDDR6
Speicherbus
?
Der Speicherbus bezieht sich auf die Anzahl der Bits, die das Videomemory innerhalb eines einzelnen Taktzyklus übertragen kann. Je größer die Busbreite, desto mehr Daten können gleichzeitig übertragen werden, was sie zu einem der entscheidenden Parameter des Videomemory macht. Die Speicherbandbreite wird wie folgt berechnet: Speicherbandbreite = Speicherfrequenz x Speicherbusbreite / 8. Wenn also die Speicherfrequenzen ähnlich sind, bestimmt die Speicherbusbreite die Größe der Speicherbandbreite.
384bit
Speichertakt
2250MHz
Bandbreite
?
Die Speicherbandbreite bezieht sich auf die Datenübertragungsrate zwischen dem Grafikchip und dem Videomemory. Sie wird in Bytes pro Sekunde gemessen, und die Formel zur Berechnung lautet: Speicherbandbreite = Arbeitsfrequenz × Speicherbusbreite / 8 Bit.
864.0 GB/s

Theoretische Leistung

Pixeltakt
?
Die Pixel-Füllrate bezieht sich auf die Anzahl der Pixel, die eine Grafikverarbeitungseinheit (GPU) pro Sekunde rendern kann, gemessen in MPixel/s (Millionen Pixel pro Sekunde) oder GPixel/s (Milliarden Pixel pro Sekunde). Es handelt sich dabei um die am häufigsten verwendete Kennzahl zur Bewertung der Pixelverarbeitungsleistung einer Grafikkarte.
322.6 GPixel/s
Texture-Takt
?
Die Textur-Füllrate bezieht sich auf die Anzahl der Textur-Map-Elemente (Texel), die eine GPU in einer Sekunde auf Pixel abbilden kann.
927.4 GTexel/s
FP16 (halbe Genauigkeit)
?
Eine wichtige Kennzahl zur Messung der GPU-Leistung ist die Gleitkomma-Rechenleistung. Halbgenaue Gleitkommazahlen (16 Bit) werden für Anwendungen wie maschinelles Lernen verwendet, bei denen eine geringere Genauigkeit akzeptabel ist. Einfach genaue Gleitkommazahlen (32 Bit) werden für übliche Multimedia- und Grafikverarbeitungsaufgaben verwendet, während doppelt genaue Gleitkommazahlen (64 Bit) für wissenschaftliches Rechnen erforderlich sind, das einen großen Zahlenbereich und hohe Genauigkeit erfordert.
59.35 TFLOPS
FP64 (Doppelte Gleitkommazahl)
?
Eine wichtige Kennzahl zur Messung der GPU-Leistung ist die Gleitkomma-Rechenleistung. Doppelt genaue Gleitkommazahlen (64 Bit) sind für wissenschaftliches Rechnen erforderlich, das einen großen Zahlenbereich und hohe Genauigkeit erfordert, während einfach genaue Gleitkommazahlen (32 Bit) für übliche Multimedia- und Grafikverarbeitungsaufgaben verwendet werden. Halbgenaue Gleitkommazahlen (16 Bit) werden für Anwendungen wie maschinelles Lernen verwendet, bei denen eine geringere Genauigkeit akzeptabel ist.
927.4 GFLOPS
FP32 (float)
?
Eine wichtige Kennzahl zur Messung der GPU-Leistung ist die Gleitkomma-Rechenfähigkeit. Gleitkommazahlen mit einfacher Genauigkeit (32 Bit) werden für allgemeine Multimedia- und Grafikverarbeitungsaufgaben verwendet, während Gleitkommazahlen mit doppelter Genauigkeit (64 Bit) für wissenschaftliche Berechnungen erforderlich sind, die einen großen Zahlenbereich und hohe Genauigkeit erfordern. Gleitkommazahlen mit halber Genauigkeit (16 Bit) werden für Anwendungen wie maschinelles Lernen verwendet, bei denen eine geringere Genauigkeit akzeptabel ist.
59.35 TFLOPS

Verschiedenes

SM-Anzahl
?
Mehrere Streaming-Prozessoren (SPs) bilden zusammen mit anderen Ressourcen einen Streaming-Multiprozessor (SM), der auch als Hauptkern einer GPU bezeichnet wird. Zu diesen zusätzlichen Ressourcen gehören Komponenten wie Warp-Scheduler, Register und gemeinsamer Speicher. Der SM kann als Herz der GPU betrachtet werden, ähnlich wie ein CPU-Kern, wobei Register und gemeinsamer Speicher knappe Ressourcen innerhalb des SM sind.
92
Shading-Einheiten
?
Die grundlegendste Verarbeitungseinheit ist der Streaming-Prozessor (SP), in dem spezifische Anweisungen und Aufgaben ausgeführt werden. GPUs führen paralleles Rechnen durch, was bedeutet, dass mehrere SPs gleichzeitig arbeiten, um Aufgaben zu verarbeiten.
11776
L1-Cache
128 KB (per SM)
L2-Cache
96MB
TDP (Thermal Design Power)
275W
Vulkan-Version
?
Vulkan ist eine plattformübergreifende Grafik- und Rechen-API der Khronos Group, die hohe Leistung und geringen CPU-Overhead bietet. Es ermöglicht Entwicklern die direkte Steuerung der GPU, reduziert den Rendering-Overhead und unterstützt Multi-Threading und Multi-Core-Prozessoren.
1.3
OpenCL-Version
3.0
OpenGL
4.6
DirectX
12 Ultimate (12_2)
CUDA
8.9
Stromanschlüsse
1x 16-pin
Shader-Modell
6.7
ROPs
?
Die Raster-Operations-Pipeline (ROPs) ist hauptsächlich für die Handhabung von Licht- und Reflexionsberechnungen in Spielen verantwortlich, sowie für die Verwaltung von Effekten wie Kantenglättung (AA), hoher Auflösung, Rauch und Feuer. Je anspruchsvoller die Kantenglättung und Lichteffekte in einem Spiel sind, desto höher sind die Leistungsanforderungen für die ROPs. Andernfalls kann es zu einem starken Einbruch der Bildrate kommen.
128
Empfohlene PSU (Stromversorgung)
600W

Benchmarks

FP32 (float)
Punktzahl
59.35 TFLOPS
OpenCL
Punktzahl
262467

Im Vergleich zu anderen GPUs

FP32 (float) / TFLOPS
80.928 +36.4%
65.572 +10.5%
L20
59.35
50.45 -15%
45.962 -22.6%
OpenCL
385013 +46.7%
L20
262467
109617 -58.2%
74179 -71.7%
56310 -78.5%