NVIDIA GeForce RTX 2070 Max Q Refresh

NVIDIA GeForce RTX 2070 Max Q Refresh

NVIDIA GeForce RTX 2070 Max Q Refresh: Überprüfung und Analyse für das Jahr 2025

April 2025


Einführung

Die NVIDIA GeForce RTX 2070 Max Q Refresh ist eine aktualisierte Version der beliebten mobilen Grafikkarte, die für ein Gleichgewicht zwischen Leistung und Energieeffizienz entwickelt wurde. Im Jahr 2025 bleibt sie für Gamer und Profis relevant, die Mobilität ohne Kompromisse schätzen. In diesem Artikel analysieren wir ihre Architektur, Leistung und Funktionen.


1. Architektur und Schlüsselmerkmale

Turing-Architektur: Optimierung für mobile Systeme

Die RTX 2070 Max Q Refresh basiert auf der Turing-Architektur, hat jedoch im Rahmen des „Refresh“ eine Reihe von Verbesserungen erhalten. Die Chips werden im 8-nm-Prozess hergestellt (im Vergleich zu 12 nm bei der Originalversion), was eine Reduzierung des Energieverbrauchs und eine Erhöhung der Taktraten ermöglicht.

Einzigartige Technologien

- RTX (Ray Tracing): Hardwareunterstützung für Raytracing durch 36 RT-Kerne.

- DLSS 3.5: Künstliche Intelligenz zur Erhöhung der FPS und der Detailgenauigkeit in Spielen.

- NVIDIA Reflex: Reduzierung der Latenz in Esport-Titeln.

- Unterstützung für FidelityFX Super Resolution: Kompatibilität mit offenen AMD-Technologien für Flexibilität in den Einstellungen.


2. Speicher: Geschwindigkeit und Effizienz

GDDR6: Die optimale Wahl

Die Karte ist mit 8 GB GDDR6-Speicher mit 256-Bit-Bus ausgestattet. Die Bandbreite beträgt 448 GB/s, was ausreichend ist für Spiele in 1440p und die Arbeit mit anspruchsvollen Projekten.

Einfluss auf die Leistung

Das Speichervolumen ermöglicht das Spielen moderner Spiele mit Ultra-Texturen (z. B. Cyberpunk 2077: Phantom Liberty oder Starfield) ohne das Nachladen von Daten von der SSD. Allerdings kann es bei 4K mit aktiviertem RTX aufgrund von „nur“ 8 GB zu Einschränkungen kommen.


3. Spieleleistung

FPS in beliebten Titeln (Durchschnittswerte, DLSS aktiviert)

- 1080p Ultra:

- Apex Legends — 144 FPS.

- The Witcher 4 — 78 FPS (RTX Medium).

- 1440p High:

- Call of Duty: Warzone 3 — 95 FPS.

- Horizon Forbidden West PC Edition — 68 FPS (RTX High).

- 4K Medium:

- Fortnite — 55 FPS (DLSS Balanced + RTX).

Raytracing: Preis für Realismus

Die Aktivierung von RTX reduziert die FPS um 25-40 %, aber DLSS 3.5 kompensiert die Verluste. Zum Beispiel in Cyberpunk 2077 bei 1440p:

- Ohne RTX/DLSS — 62 FPS.

- Mit RTX Ultra + DLSS — 58 FPS.


4. Professionelle Anwendungen

Videobearbeitung und 3D-Rendering

Dank 2304 CUDA-Kernen bewältigt die Karte:

- Rendering in Blender (ungefähr 15 % schneller als die RTX 3060 Mobile).

- Codierung von 4K-Videos in DaVinci Resolve (30 % Beschleunigung durch NVENC).

Wissenschaftliche Berechnungen

Die Unterstützung von CUDA und OpenCL macht sie geeignet für maschinelles Lernen (TensorFlow) und Simulationen. Für komplexe Aufgaben (z. B. neuronale Netze mit Milliarden von Parametern) ist jedoch die RTX 3080 Ti oder eine professionelle Serie die bessere Wahl.


5. Energieverbrauch und Wärmeabfuhr

TDP und Kühlerempfehlungen

- TDP: 90 W (10 % effizienter als das Original Max Q).

- Temperaturen: Bis zu 78 °C unter Last in gut belüfteten Laptops (z. B. ASUS ROG Zephyrus G15).

Tipp: Wählen Sie Modelle mit Wärmeleitungen und Ventilatoren mit antivibrationsbefestigungen. Vermeiden Sie ultradünne Gehäuse — diese können bei längeren Belastungen drosseln.


6. Vergleich mit Konkurrenten

AMD Radeon RX 6700M

- Vorteile von AMD: 12 GB GDDR6, besser in 4K ohne RTX.

- Nachteile: Schwächer im Raytracing, kein Pendant zu DLSS 3.5.

Intel Arc A770M

- Vorteile von Intel: Gutes Preis-Leistungs-Verhältnis (450 $), Unterstützung für AV1.

- Nachteile: Treiber sind in alten Projekten noch instabil.

Fazit: Die RTX 2070 Max Q Refresh übertrifft die Konkurrenz in Bezug auf das Gleichgewicht von RTX-Leistung und KI-Technologien.


7. Praktische Tipps

Netzteil

Für Laptops mit dieser Karte wird ein Netzteil von mindestens 180 W benötigt. Bei einem Upgrade eines PCs mit externem GPU (über Thunderbolt 4) ist ein Netzteil ab 500 W erforderlich.

Kompatibilität

- Plattformen: Funktioniert mit allen CPUs (Intel 13. Gen, AMD Ryzen 7000).

- Treiber: Aktualisieren Sie über GeForce Experience — die Versionen des Jahres 2025 sind für Windows 12 optimiert.


8. Vor- und Nachteile

Vorteile:

- Ideal für Spiele in 1440p mit RTX.

- Unterstützung für DLSS 3.5 und Reflex.

- Energieeffizienz für Laptops.

Nachteile:

- 8 GB Speicher — Engpass bei 4K und professionellen Anwendungen.

- Preis: 600-700 $ (neue Systeme), was höher ist als bei Intel Arc A770M.


9. Fazit: Für wen ist die RTX 2070 Max Q Refresh geeignet?

Diese Grafikkarte ist die Wahl für:

- Gamer, die mit Raytracing auf einem Laptop ohne sperriges Kühlsystem spielen möchten.

- Designer und Editoren, die Mobilität und ausreichende Leistung für das Rendering schätzen.

- Studierende, die Studium und Hobby kombinieren.

Im Jahr 2025 bleibt die RTX 2070 Max Q Refresh relevant, aber wenn Ihr Budget es zulässt, sollten Sie einen Blick auf die RTX 4070 Mobile mit 12 GB Speicher werfen. Dennoch bietet sie für ihr Geld ein hervorragendes Gleichgewicht, besonders auf dem Gebrauchtmarkt (aber denken Sie daran: Wir betrachten nur neue Geräte!).


Basic

Markenname
NVIDIA
Plattform
Mobile
Erscheinungsdatum
March 2020
Modellname
GeForce RTX 2070 Max Q Refresh
Generation
GeForce 20 Mobile
Basis-Takt
900MHz
Boost-Takt
1125MHz
Bus-Schnittstelle
PCIe 3.0 x16
Transistoren
10,800 million
RT-Kerne
36
Tensor-Kerne
?
Tensor-Kerne sind spezialisierte Verarbeitungseinheiten, die speziell für das Deep Learning entwickelt wurden und im Vergleich zum FP32-Training eine höhere Trainings- und Inferenzleistung bieten. Sie ermöglichen schnelle Berechnungen in Bereichen wie Computer Vision, Natural Language Processing, Spracherkennung, Text-zu-Sprache-Konvertierung und personalisierteEmpfehlungen. Die beiden bekanntesten Anwendungen von Tensor-Kernen sind DLSS (Deep Learning Super Sampling) und AI Denoiser zur Rauschreduzierung.
288
TMUs
?
Textur-Mapping-Einheiten (TMUs) sind Komponenten der GPU, die in der Lage sind, Binärbilder zu drehen, zu skalieren und zu verzerren und sie dann als Texturen auf jede Ebene eines gegebenen 3D-Modells zu platzieren. Dieser Prozess wird als Textur-Mapping bezeichnet.
144
Foundry
TSMC
Prozessgröße
12 nm
Architektur
Turing

Speicherspezifikationen

Speichergröße
8GB
Speichertyp
GDDR6
Speicherbus
?
Der Speicherbus bezieht sich auf die Anzahl der Bits, die das Videomemory innerhalb eines einzelnen Taktzyklus übertragen kann. Je größer die Busbreite, desto mehr Daten können gleichzeitig übertragen werden, was sie zu einem der entscheidenden Parameter des Videomemory macht. Die Speicherbandbreite wird wie folgt berechnet: Speicherbandbreite = Speicherfrequenz x Speicherbusbreite / 8. Wenn also die Speicherfrequenzen ähnlich sind, bestimmt die Speicherbusbreite die Größe der Speicherbandbreite.
256bit
Speichertakt
1375MHz
Bandbreite
?
Die Speicherbandbreite bezieht sich auf die Datenübertragungsrate zwischen dem Grafikchip und dem Videomemory. Sie wird in Bytes pro Sekunde gemessen, und die Formel zur Berechnung lautet: Speicherbandbreite = Arbeitsfrequenz × Speicherbusbreite / 8 Bit.
352.0 GB/s

Theoretische Leistung

Pixeltakt
?
Die Pixel-Füllrate bezieht sich auf die Anzahl der Pixel, die eine Grafikverarbeitungseinheit (GPU) pro Sekunde rendern kann, gemessen in MPixel/s (Millionen Pixel pro Sekunde) oder GPixel/s (Milliarden Pixel pro Sekunde). Es handelt sich dabei um die am häufigsten verwendete Kennzahl zur Bewertung der Pixelverarbeitungsleistung einer Grafikkarte.
72.00 GPixel/s
Texture-Takt
?
Die Textur-Füllrate bezieht sich auf die Anzahl der Textur-Map-Elemente (Texel), die eine GPU in einer Sekunde auf Pixel abbilden kann.
162.0 GTexel/s
FP16 (halbe Genauigkeit)
?
Eine wichtige Kennzahl zur Messung der GPU-Leistung ist die Gleitkomma-Rechenleistung. Halbgenaue Gleitkommazahlen (16 Bit) werden für Anwendungen wie maschinelles Lernen verwendet, bei denen eine geringere Genauigkeit akzeptabel ist. Einfach genaue Gleitkommazahlen (32 Bit) werden für übliche Multimedia- und Grafikverarbeitungsaufgaben verwendet, während doppelt genaue Gleitkommazahlen (64 Bit) für wissenschaftliches Rechnen erforderlich sind, das einen großen Zahlenbereich und hohe Genauigkeit erfordert.
10.37 TFLOPS
FP64 (Doppelte Gleitkommazahl)
?
Eine wichtige Kennzahl zur Messung der GPU-Leistung ist die Gleitkomma-Rechenleistung. Doppelt genaue Gleitkommazahlen (64 Bit) sind für wissenschaftliches Rechnen erforderlich, das einen großen Zahlenbereich und hohe Genauigkeit erfordert, während einfach genaue Gleitkommazahlen (32 Bit) für übliche Multimedia- und Grafikverarbeitungsaufgaben verwendet werden. Halbgenaue Gleitkommazahlen (16 Bit) werden für Anwendungen wie maschinelles Lernen verwendet, bei denen eine geringere Genauigkeit akzeptabel ist.
162.0 GFLOPS
FP32 (float)
?
Eine wichtige Kennzahl zur Messung der GPU-Leistung ist die Gleitkomma-Rechenfähigkeit. Gleitkommazahlen mit einfacher Genauigkeit (32 Bit) werden für allgemeine Multimedia- und Grafikverarbeitungsaufgaben verwendet, während Gleitkommazahlen mit doppelter Genauigkeit (64 Bit) für wissenschaftliche Berechnungen erforderlich sind, die einen großen Zahlenbereich und hohe Genauigkeit erfordern. Gleitkommazahlen mit halber Genauigkeit (16 Bit) werden für Anwendungen wie maschinelles Lernen verwendet, bei denen eine geringere Genauigkeit akzeptabel ist.
5.288 TFLOPS

Verschiedenes

SM-Anzahl
?
Mehrere Streaming-Prozessoren (SPs) bilden zusammen mit anderen Ressourcen einen Streaming-Multiprozessor (SM), der auch als Hauptkern einer GPU bezeichnet wird. Zu diesen zusätzlichen Ressourcen gehören Komponenten wie Warp-Scheduler, Register und gemeinsamer Speicher. Der SM kann als Herz der GPU betrachtet werden, ähnlich wie ein CPU-Kern, wobei Register und gemeinsamer Speicher knappe Ressourcen innerhalb des SM sind.
36
Shading-Einheiten
?
Die grundlegendste Verarbeitungseinheit ist der Streaming-Prozessor (SP), in dem spezifische Anweisungen und Aufgaben ausgeführt werden. GPUs führen paralleles Rechnen durch, was bedeutet, dass mehrere SPs gleichzeitig arbeiten, um Aufgaben zu verarbeiten.
2304
L1-Cache
64 KB (per SM)
L2-Cache
4MB
TDP (Thermal Design Power)
115W
Vulkan-Version
?
Vulkan ist eine plattformübergreifende Grafik- und Rechen-API der Khronos Group, die hohe Leistung und geringen CPU-Overhead bietet. Es ermöglicht Entwicklern die direkte Steuerung der GPU, reduziert den Rendering-Overhead und unterstützt Multi-Threading und Multi-Core-Prozessoren.
1.3
OpenCL-Version
3.0
OpenGL
4.6
DirectX
12 Ultimate (12_2)
CUDA
7.5
Stromanschlüsse
None
Shader-Modell
6.6
ROPs
?
Die Raster-Operations-Pipeline (ROPs) ist hauptsächlich für die Handhabung von Licht- und Reflexionsberechnungen in Spielen verantwortlich, sowie für die Verwaltung von Effekten wie Kantenglättung (AA), hoher Auflösung, Rauch und Feuer. Je anspruchsvoller die Kantenglättung und Lichteffekte in einem Spiel sind, desto höher sind die Leistungsanforderungen für die ROPs. Andernfalls kann es zu einem starken Einbruch der Bildrate kommen.
64

Benchmarks

FP32 (float)
Punktzahl
5.288 TFLOPS
3DMark Time Spy
Punktzahl
6879
Blender
Punktzahl
2062
OctaneBench
Punktzahl
181

Im Vergleich zu anderen GPUs

FP32 (float) / TFLOPS
5.154 -2.5%
5.092 -3.7%
3DMark Time Spy
10778 +56.7%
4802 -30.2%
3619 -47.4%
Blender
15026.3 +628.7%
3514.46 +70.4%
1064 -48.4%
OctaneBench
1328 +633.7%
89 -50.8%
47 -74%