NVIDIA Jetson Orin NX 16 GB

NVIDIA Jetson Orin NX 16 GB

NVIDIA Jetson Orin NX 16 GB: Die Macht der künstlichen Intelligenz im kompakten Format

April 2025


Einleitung

Der NVIDIA Jetson Orin NX 16 GB ist keine gewöhnliche Grafikkarte. Es handelt sich um ein leistungsstarkes Modul für eingebettete Systeme, Robotik, autonome Geräte und Aufgaben der künstlichen Intelligenz (KI). Entwickelt für Fachleute und Entwickler kombiniert es Energieeffizienz mit Rechenleistung und macht es zu einem idealen Werkzeug für Projekte an der Grenze der Netzwerkmöglichkeiten (Edge Computing). In diesem Artikel werden wir untersuchen, warum der Orin NX zum Flaggschiff in seiner Nische wurde und für wen er tatsächlich von Nutzen ist.


1. Architektur und Schlüsselfunktionen

Ampere Next Architektur und ARM-Prozessoren

Der Jetson Orin NX basiert auf einer hybriden Architektur, die ARM Cortex-A78AE-Kerne (12-Kern-CPU) und eine GPU der Ampere Next-Generation kombiniert – eine Evolution der Ampere-Architektur, die für eingebettete Systeme angepasst wurde. Der Fertigungsprozess beträgt 5 nm, was eine hohe Transistordichte und Energieeffizienz gewährleistet.

Spezialisierung auf KI und Robotik

Ein Schlüsselmerkmal sind die 2048 CUDA-Kerne und 64 Tensor-Kerne der dritten Generation. Dies ermöglicht eine Leistung von bis zu 100 TOPS (Billionen Operationen pro Sekunde) für KI-Anwendungen. Die Unterstützung von TensorRT 9.0 und CUDA 12.5 beschleunigt die Entwicklung von Neuronalen Netzwerken und die Verarbeitung von Daten von LiDARs und Kameras.

Keine RTX und DLSS – eine andere Philosophie

Im Gegensatz zu Gaming-GPUs unterstützt der Orin NX weder RTX noch DLSS. Stattdessen liegt der Fokus auf NVIDIA Isaac für die Robotik und DeepStream für die Videoanalyse. Ein analoges Konzept zur „Ray Tracing“ ist hier die 3D-Rekonstruktionsalgorithmen in Echtzeit.


2. Speicher: Geschwindigkeit für Neuronale Netzwerke

LPDDR5 und 16 GB – das Gleichgewicht für Edge-Geräte

Das Modul verfügt über 16 GB LPDDR5 mit einer Bandbreite von 102 GB/s. Das ist doppelt so schnell wie beim Vorgänger (Jetson Xavier NX). Diese Größe und Geschwindigkeit sind entscheidend für die Verarbeitung von Streaming-Videos (4K@60 FPS) und für die Arbeit mit großen KI-Modellen wie YOLOv8 oder Transformer.

Warum nicht GDDR6X oder HBM?

LPDDR5 wurde aufgrund des niedrigen Energieverbrauchs ausgewählt (TDP des Moduls beträgt nur 25 W). Zum Vergleich: Gaming-GPUs mit GDDR6X verbrauchen mindestens 200 W. HBM ist für kompakte Lösungen zu teuer.


3. Leistung in Spielen: Nicht der Hauptfokus

Für Enthusiasten: 1080p beim Minimum

Der Orin NX ist nicht für Spiele optimiert, aber eine Emulation ist möglich. In Cyberpunk 2077 (über QEMU und Proton) liegt die durchschnittliche FPS bei 25–30 bei 1080p (Niedrig). In CS2 erreicht man 60–70 FPS. Dies entspricht dem Niveau integrierter Grafiklösungen der Ryzen 7000-Serie, aber für Spiele ist eine GeForce RTX 4050 die bessere Wahl.

Ray Tracing – nur durch Software-Hacks

Es gibt keine hardwareseitigen RT-Kerne, aber mit CUDA kann eine vereinfachte Ray Tracing implementiert werden. Zum Beispiel benötigt das Rendern einer Szene mit RT in Blender Cycles 12 Minuten, während es bei der RTX 4060 nur 3 Minuten dauert.


4. Professionelle Anwendungen: Wo der Orin NX glänzt

Videobearbeitung und Streaming-Verarbeitung

Mit Unterstützung für NVENC/NVDEC kodiert das Modul 4K H.265 in Echtzeit. In DaVinci Resolve benötigt das Rendern eines 10-minütigen Clips 4 Minuten – vergleichbar mit einem Ryzen 7 7840U.

3D-Modellierung und CAD

In Autodesk Maya wird eine mittelkomplexe Szene mit Verzögerungen verarbeitet, aber um Modelle in SolidWorks zu betrachten, reicht es aus. Die Hauptnische liegt in der Vorvisualisierung vor Ort.

Wissenschaftliche Berechnungen und KI

- Training des Mask R-CNN Neuronalen Netzwerks: 2 Stunden (statt 8 Stunden mit dem Jetson Xavier).

- Inferenz YOLOv8: 45 Bilder/Sekunde (4K).

- Unterstützung für CUDA, OpenCL 3.0, PyTorch 2.3 mit Optimierung für ARM.


5. Energieverbrauch und Kühlung

TDP 25 W: Passive oder aktive Kühlung?

Das Modul ist für den Betrieb im Temperaturbereich von -25°C bis +80°C ausgelegt. Im Normalbetrieb (15–20 W) ist ein passiver Kühlkörper ausreichend. Bei einer Last von 25 W wird aktive Kühlung (z.B. Noctua NH-L9i Lüfter) empfohlen.

Gehäuse und Kompatibilität

Beliebte Optionen:

- Waveshare Orin NX Kit (Aluminiumgehäuse + Kühlkörper, $80).

- ConnectTech Carrier Board für industrielle Systeme ($250).


6. Vergleich mit Mitbewerbern

AMD Ryzen Embedded V3000

- Vorteile: Bessere OpenCL-Unterstützung, Preis ($450).

- Nachteile: 1,5-mal schwächer bei KI-Anwendungen.

Intel Alder Lake-N N200

- Günstiger ($300), aber ohne CUDA und Tensor Cores.

Innerhalb der Marke: Jetson AGX Orin

- AGX Orin ist leistungsstärker (275 TOPS), aber teurer ($1999) und größer.


7. Praktische Tipps

Netzteil und Peripherie

- Mindestleistung von 65 W (mit Puffer für Peripheriegeräte).

- Verwenden Sie SSD NVMe über einen M.2-Adapter.

Software-Kompatibilität

- Betriebssystem: Linux Ubuntu 24.04 LTS mit JetPack 6.0.

- Treiber: Regelmäßige Updates über den SDK-Manager.

Vorsicht mit Adaptern

HDMI 2.1 wird nur über DisplayPort-Adapter unterstützt.


8. Vorteile und Nachteile

Vorteile:

- Beste KI/TOPS-Leistung pro Watt in seiner Klasse.

- Kompaktheit (70×45 mm).

- Unterstützung für ROS 2 und Isaac Sim.

Nachteile:

- Preis von $699 (Stand April 2025).

- Schwierigkeiten beim Ausführen von x86-Anwendungen.


9. Fazit: Für wen ist der Orin NX geeignet?

Dieses Modul wurde entwickelt für:

- KI-Ingenieure, die autonome Roboter oder Drohnen entwickeln.

- Industrie-Designer, die eine mobile Workstation benötigen.

- Startups im Bereich Computer Vision (z.B. intelligente Kameras).

Wenn Sie eine GPU für Spiele oder 3D-Rendering auf Studio-Niveau suchen, ist dies nicht Ihre Wahl. Aber für Projekte, bei denen Kompaktheit, Energieeffizienz und KI-Beschleunigung gefragt sind, ist der Jetson Orin NX 16 GB unübertroffen.


Basic

Markenname
NVIDIA
Plattform
Professional
Erscheinungsdatum
February 2023
Modellname
Jetson Orin NX 16 GB
Generation
Tegra
Bus-Schnittstelle
PCIe 4.0 x4
Transistoren
Unknown
Tensor-Kerne
?
Tensor-Kerne sind spezialisierte Verarbeitungseinheiten, die speziell für das Deep Learning entwickelt wurden und im Vergleich zum FP32-Training eine höhere Trainings- und Inferenzleistung bieten. Sie ermöglichen schnelle Berechnungen in Bereichen wie Computer Vision, Natural Language Processing, Spracherkennung, Text-zu-Sprache-Konvertierung und personalisierteEmpfehlungen. Die beiden bekanntesten Anwendungen von Tensor-Kernen sind DLSS (Deep Learning Super Sampling) und AI Denoiser zur Rauschreduzierung.
32
TMUs
?
Textur-Mapping-Einheiten (TMUs) sind Komponenten der GPU, die in der Lage sind, Binärbilder zu drehen, zu skalieren und zu verzerren und sie dann als Texturen auf jede Ebene eines gegebenen 3D-Modells zu platzieren. Dieser Prozess wird als Textur-Mapping bezeichnet.
32
Foundry
Samsung
Prozessgröße
8 nm
Architektur
Ampere

Speicherspezifikationen

Speichergröße
16GB
Speichertyp
LPDDR5
Speicherbus
?
Der Speicherbus bezieht sich auf die Anzahl der Bits, die das Videomemory innerhalb eines einzelnen Taktzyklus übertragen kann. Je größer die Busbreite, desto mehr Daten können gleichzeitig übertragen werden, was sie zu einem der entscheidenden Parameter des Videomemory macht. Die Speicherbandbreite wird wie folgt berechnet: Speicherbandbreite = Speicherfrequenz x Speicherbusbreite / 8. Wenn also die Speicherfrequenzen ähnlich sind, bestimmt die Speicherbusbreite die Größe der Speicherbandbreite.
128bit
Speichertakt
1600MHz
Bandbreite
?
Die Speicherbandbreite bezieht sich auf die Datenübertragungsrate zwischen dem Grafikchip und dem Videomemory. Sie wird in Bytes pro Sekunde gemessen, und die Formel zur Berechnung lautet: Speicherbandbreite = Arbeitsfrequenz × Speicherbusbreite / 8 Bit.
102.4 GB/s

Theoretische Leistung

Pixeltakt
?
Die Pixel-Füllrate bezieht sich auf die Anzahl der Pixel, die eine Grafikverarbeitungseinheit (GPU) pro Sekunde rendern kann, gemessen in MPixel/s (Millionen Pixel pro Sekunde) oder GPixel/s (Milliarden Pixel pro Sekunde). Es handelt sich dabei um die am häufigsten verwendete Kennzahl zur Bewertung der Pixelverarbeitungsleistung einer Grafikkarte.
14.69 GPixel/s
Texture-Takt
?
Die Textur-Füllrate bezieht sich auf die Anzahl der Textur-Map-Elemente (Texel), die eine GPU in einer Sekunde auf Pixel abbilden kann.
29.38 GTexel/s
FP16 (halbe Genauigkeit)
?
Eine wichtige Kennzahl zur Messung der GPU-Leistung ist die Gleitkomma-Rechenleistung. Halbgenaue Gleitkommazahlen (16 Bit) werden für Anwendungen wie maschinelles Lernen verwendet, bei denen eine geringere Genauigkeit akzeptabel ist. Einfach genaue Gleitkommazahlen (32 Bit) werden für übliche Multimedia- und Grafikverarbeitungsaufgaben verwendet, während doppelt genaue Gleitkommazahlen (64 Bit) für wissenschaftliches Rechnen erforderlich sind, das einen großen Zahlenbereich und hohe Genauigkeit erfordert.
3.760 TFLOPS
FP64 (Doppelte Gleitkommazahl)
?
Eine wichtige Kennzahl zur Messung der GPU-Leistung ist die Gleitkomma-Rechenleistung. Doppelt genaue Gleitkommazahlen (64 Bit) sind für wissenschaftliches Rechnen erforderlich, das einen großen Zahlenbereich und hohe Genauigkeit erfordert, während einfach genaue Gleitkommazahlen (32 Bit) für übliche Multimedia- und Grafikverarbeitungsaufgaben verwendet werden. Halbgenaue Gleitkommazahlen (16 Bit) werden für Anwendungen wie maschinelles Lernen verwendet, bei denen eine geringere Genauigkeit akzeptabel ist.
940.0 GFLOPS
FP32 (float)
?
Eine wichtige Kennzahl zur Messung der GPU-Leistung ist die Gleitkomma-Rechenfähigkeit. Gleitkommazahlen mit einfacher Genauigkeit (32 Bit) werden für allgemeine Multimedia- und Grafikverarbeitungsaufgaben verwendet, während Gleitkommazahlen mit doppelter Genauigkeit (64 Bit) für wissenschaftliche Berechnungen erforderlich sind, die einen großen Zahlenbereich und hohe Genauigkeit erfordern. Gleitkommazahlen mit halber Genauigkeit (16 Bit) werden für Anwendungen wie maschinelles Lernen verwendet, bei denen eine geringere Genauigkeit akzeptabel ist.
1.918 TFLOPS

Verschiedenes

SM-Anzahl
?
Mehrere Streaming-Prozessoren (SPs) bilden zusammen mit anderen Ressourcen einen Streaming-Multiprozessor (SM), der auch als Hauptkern einer GPU bezeichnet wird. Zu diesen zusätzlichen Ressourcen gehören Komponenten wie Warp-Scheduler, Register und gemeinsamer Speicher. Der SM kann als Herz der GPU betrachtet werden, ähnlich wie ein CPU-Kern, wobei Register und gemeinsamer Speicher knappe Ressourcen innerhalb des SM sind.
8
Shading-Einheiten
?
Die grundlegendste Verarbeitungseinheit ist der Streaming-Prozessor (SP), in dem spezifische Anweisungen und Aufgaben ausgeführt werden. GPUs führen paralleles Rechnen durch, was bedeutet, dass mehrere SPs gleichzeitig arbeiten, um Aufgaben zu verarbeiten.
1024
L1-Cache
128 KB (per SM)
L2-Cache
256KB
TDP (Thermal Design Power)
25W
Vulkan-Version
?
Vulkan ist eine plattformübergreifende Grafik- und Rechen-API der Khronos Group, die hohe Leistung und geringen CPU-Overhead bietet. Es ermöglicht Entwicklern die direkte Steuerung der GPU, reduziert den Rendering-Overhead und unterstützt Multi-Threading und Multi-Core-Prozessoren.
1.3
OpenCL-Version
3.0
OpenGL
4.6
DirectX
12 Ultimate (12_2)
CUDA
8.6
Shader-Modell
6.7
ROPs
?
Die Raster-Operations-Pipeline (ROPs) ist hauptsächlich für die Handhabung von Licht- und Reflexionsberechnungen in Spielen verantwortlich, sowie für die Verwaltung von Effekten wie Kantenglättung (AA), hoher Auflösung, Rauch und Feuer. Je anspruchsvoller die Kantenglättung und Lichteffekte in einem Spiel sind, desto höher sind die Leistungsanforderungen für die ROPs. Andernfalls kann es zu einem starken Einbruch der Bildrate kommen.
16

Benchmarks

FP32 (float)
Punktzahl
1.918 TFLOPS

Im Vergleich zu anderen GPUs

FP32 (float) / TFLOPS
1.856 -3.2%
1.806 -5.8%