Zum Inhalt springen

Nvidia GeForce RTX 2080 Ti Founders Edition im Test: Ein Titan-V-Killer

    1646058004

    Unser Urteil

    Die GeForce RTX 2080 Ti von Nvidia ist die erste von uns getestete Karte, die in der Lage ist, flüssige Bildraten bei 4K mit maximalen Detaileinstellungen zu liefern. Die Halo-Funktionen werden noch in keinem Spiel verwendet, aber wenn diese online gehen, wird die Turing-Architektur voraussichtlich noch heller strahlen.

    Für

    Reibungslose Leistung bei 4K mit Top-Qualitätseinstellungen
    Die verbesserte Leistung der thermischen Lösung trägt dazu bei, höhere GPU-Boost-Taktraten aufrechtzuerhalten
    Vollgepackt mit zukunftsweisender Technologie zur Beschleunigung von Spielen der nächsten Generation mit Raytracing und KI-Unterstützung

    Gegen

    Der Preis von 1200 US-Dollar ist für die meisten Spieler unerreichbar
    Das Dual-Axial-Lüfter-Design leitet die Wärme zurück in Ihr Gehäuse

    GeForce RTX 2080 Ti Founders Edition

    GeForce RTX 2080 Ti ist schnell. Niemand wird dagegen argumentieren. Was Spieler am meisten stört, ist der Preis. Das Board der Founders Edition kostet 1.200 US-Dollar – 71 % mehr als das Flaggschiff GeForce GTX 1080 Ti, das Nvidia 2017 auf den Markt brachte. Vielleicht enttäuschenderweise ist die GeForce RTX 2080 Ti in unserer Suite von 13 Spielen bei 4K im Durchschnitt etwa 26 % schneller als ihr Vorgänger.

    Aber was wäre, wenn wir Ihnen sagen würden, dass es auch Nvidias Titan V schlägt? In Battlefield 1 ist die GeForce RTX 2080 Ti 20 % schneller. In Forza Motorsport 7 genießt der 2080 Ti einen Vorteil von 22 %. Basierend auf den Spezifikationen der beiden Karten hatten wir nicht mit einem so dramatischen Ende gerechnet. Obwohl die 3.000 US-Dollar teure GV100-basierte Titan V für Deep Learning und nicht für Spiele gemacht ist, stellen diese Ergebnisse den Preis von 1.200 US-Dollar für die GeForce RTX 2080 Ti sicher in einen Zusammenhang. Wenn Sie es sich also leisten können, ist die RTX 2080 Ti eine der besten Grafikkarten überhaupt.

    Noch wichtiger für die wachsende Gruppe von Enthusiasten mit 4K-Monitoren ist die GeForce RTX 2080 Ti, die Ihnen eine spielbare Leistung bei 3840 x 2160 bietet, ohne auf Detaileinstellungen verzichten zu müssen. Ja, wir haben die belastenden Anti-Aliasing-Modi deaktiviert, um bei 4K zu testen. Unsere Benchmarks spiegeln jedoch in jedem einzelnen Titel hochauflösendes, hochwertiges PC-Gaming mit über 60 FPS wider.

    Dies ist ein Moment, auf den wir seit Jahren gewartet haben. GeForce GTX 980 Ti war mit 4K spielbar, wenn Sie die Details herunterwählten. Obwohl uns die GeForce GTX 1080 dem Gaming-Nirvana ein Stück näher gebracht hat, war sie eindeutig nicht der Wahnsinn, der für eine reibungslose Leistung bei maximaler 4K-Qualität benötigt wird. Dann hat uns die GeForce GTX 1080 Ti dazu verleitet, endlich einen 4K-Champion zu erklären. Aber wir sind froh, dass wir uns zurückgehalten haben. Die GeForce RTX 2080 Ti macht diese Ultra-Einstellungen endlich bei 3840 x 2160 realisierbar.

    TU102: Das Zeug zu einem Gaming-Biest

    Wie erreicht die GeForce RTX 2080 Ti das? Nun, wenn Sie unsere umfassende Analyse des Innenlebens der Karte verpasst haben, sehen Sie sich Nvidias Turing Architecture Explored: Inside the GeForce RTX 2080 an. Zusammenfassend lässt sich jedoch sagen, dass das heutige Thema auf TU102 basiert, einer 754-Quadratmillimeter-GPU, die aus 18,6 Milliarden besteht Transistoren, die im 12-nm-FinFET-Fertigungsprozess von TSMC hergestellt werden. Es ist vollgepackt mit größeren Mengen an Rendering-Ressourcen, die effizienter arbeiten als alles, was wir jemals getestet haben.

    Ein vollständiger TU102-Prozessor umfasst sechs Graphics Processing Clusters (GPCs), die aus einer Raster-Engine und sechs Texture Processing Clusters (TPCs) bestehen. Jeder TPC besteht aus einer PolyMorph-Engine (Pipeline mit fester Geometriegeometrie) und zwei Streaming-Multiprozessoren (SMs). Auf der SM-Ebene finden wir 64 CUDA-Kerne, acht Tensor-Kerne, einen RT-Kern, vier Textureinheiten, 16 Lade-/Speichereinheiten, 256 KB Registerdateispeicher, vier L0-Befehls-Caches und eine 96 KB konfigurierbare L1-Cache-/Shared-Memory-Struktur .

    Multiplizieren Sie all das aus und Sie erhalten eine GPU mit 72 SMs, 4608 CUDA-Kernen, 576 Tensor-Kernen, 72 RT-Kernen, 288 Textureinheiten und 36 PolyMorph-Engines. Diese Ressourcen werden von 12 32-Bit-GDDR6-Speichercontrollern gespeist, die jeweils mit einem Acht-ROP-Cluster und 512 KB L2-Cache verbunden sind, was einen aggregierten 384-Bit-Speicherbus, 96 ROPs und einen 6-MB-L2-Cache ergibt. Jeder SM enthält auch ein Paar FP64-fähiger CUDA-Kerne, was eine Rate mit doppelter Genauigkeit ergibt, die 1/32 der FP32-Leistung von TU102 beträgt.

    GeForce RTX 2080 Ti FEGeForce RTX 2080 FEGeForce GTX 1080 Ti FEGeForce GTX 1080 FE Architecture (GPU) CUDA Cores Peak FP32 Compute Tensor Cores RT Cores Texture Units Base Clock Rate GPU Boost Rate Memory Capacity Memory Bus Memory Bandwidth ROPs L2 Cache TDP Transistor Count Die Size SLI-Unterstützung

    Turing (TU102)
    Turing (TU104)
    Pascal (GP102)
    Pascal (GP104)

    4352
    2944
    3584
    2560

    14.2 TFLOPS
    10.6 TFLOPS
    11.3 TFLOPS
    8,9 TFLOPS

    544
    368
    N / A
    N / A

    68
    46
    N / A
    N / A

    272
    184
    224
    160

    1350MHz
    1515MHz
    1480 MHz
    1607 MHz

    1635MHz
    1800MHz
    1582MHz
    1733 MHz

    11 GB GDDR6
    8 GB GDDR6
    11 GB GDDR5X
    8 GB GDDR5X

    352-Bit
    256-Bit
    352-Bit
    256-Bit

    616 GB/s
    448 GB/s
    484GB/Sek
    320GB/Sek

    88
    64
    88
    64

    5,5 MB
    4MB
    2,75 MB
    2MB

    260W
    225W
    250W
    180W

    18,6 Milliarden
    13,6 Milliarden
    12 Milliarden
    7,2 Milliarden

    754 mm²
    545 mm²
    471 mm²
    314 mm²

    Ja (x8 NVLink, x2)
    Ja (x8 NVLink)
    Ja (MIO)
    Ja (MIO)

    Alles zusammen: GeForce RTX 2080 Ti

    Der TU102 der GeForce RTX 2080 Ti ist jedoch kein vollständiger Prozessor. Unabhängig davon, ob Nvidia Platz für ein Modell der Titan-Klasse lassen wollte oder die Ausbeute voll funktionsfähiger GPUs über einem bestimmten Bin als unbefriedigend empfand, hat die RTX 2080 Ti zwei ihrer TPCs deaktiviert, wodurch die Karte mit 4352 CUDA-Kernen, 544 Tensor-Kernen und 68 belassen wird RT-Kerne, 544 Textureinheiten und 34 PolyMorph-Engines.

    Einer der 32-Bit-Speichercontroller des TU102 wird ebenfalls abgeschaltet, wodurch ein aggregierter 352-Bit-Bus entsteht, der Daten auf 88 ROPs und 5,5 MB L2-Cache verschiebt. Nvidia passt seine strategisch humpelnde GPU an Microns MT61K256M32JE-14:A-Module an. Elf davon bestücken die Platine der RTX 2080 Ti und lassen einen Platz frei. Dennoch steigt die theoretische Spitzenbandbreite aufgrund der höheren Datenrate von GDDR6 im Vergleich zu den Karten der vorherigen Generation stark an. Bei 14 Gbit/s auf einer 352-Bit-Schnittstelle sehen Sie 616 GB/s. Im Vergleich dazu hielt GDDR5X bei 11 Gb/s die GeForce GTX 1080 Ti auf 484 GB/s.

    Auf der Founders Edition-Karte springt eine Basiskernfrequenz von 1350 MHz bis zu einer typischen GPU-Boost-Rate von 1635 MHz hoch, solange die GeForce RTX 2080 Ti kühl genug läuft. Und da Nvidia die Spitzenrechenleistung mit GPU-Boost-Zahlen angibt, erreicht sein Top-End-Modell bis zu 14,2 TFLOPS an Mathematik mit einfacher Genauigkeit.

    Diese Frequenz ist relativ zu Nvidias Referenzspezifikation übertaktet. Infolgedessen hat das Founders Edition-Modell eine etwas höhere TDP-Bewertung von 260 W. Ein PCIe-Steckplatz, ein achtpoliger Stromanschluss und ein sechspoliger Stromanschluss wären theoretisch in der Lage, eine solche Grenze zu bedienen. Allerdings verwendet Nvidia stattdessen zwei zusätzliche Acht-Pin-Anschlüsse, was seiner GeForce RTX 2080 Ti Founders Edition potenziellen Spielraum zum Übertakten gibt.

    Zurück von den PCIe-Anschlüssen zur Stromversorgung der GeForce RTX 2080 Ti zählen wir drei Phasen für den GDDR6-Speicher und einen entsprechenden PWM-Controller vorne. Insgesamt 13 Phasen verbleiben laut Nvidia. Aber das kann doch nicht stimmen, oder? Selbst bei sechs phasenverdoppelten Schaltungen bliebe eine Phase übrig, die als Loadbalancer fungieren würde. Die Zahlen stimmen einfach nicht.

    In Wirklichkeit scheinen fünf Phasen von den achtpoligen Steckern gespeist und verdoppelt zu werden. Bei zwei Regelkreisen pro Phase 5*2=10 Spannungsregelkreise. Die restlichen drei Phasen links neben der GPU werden vom PCIe-Slot des Mainboards gespeist und nicht gedoppelt. Das gibt uns Nvidias Glückszahl 13 (zusammen mit einem intelligenten Lastverteilungsschema). Um das alles gut umzusetzen, braucht es natürlich die richtigen Komponenten…

    GPU-Netzteil

    Im Mittelpunkt dieses Designs steht der achtphasige Buck-Controller uP9512 von uPI, der speziell für die Unterstützung von GPUs der nächsten Generation entwickelt wurde. Laut uPI „bietet der uP9512 programmierbare Ausgangsspannungs- und aktive Spannungspositionierungsfunktionen, um die Ausgangsspannung als Funktion des Laststroms anzupassen, sodass er optimal für einen Laststromtransienten positioniert ist.“

    Der uP9512 unterstützt Nvidias Open Voltage Regulator Type 4i+ Technologie mit PWMVID. Dieser Eingang wird gepuffert und gefiltert, um eine sehr genaue Referenzspannung zu erzeugen. Die Ausgangsspannung wird dann präzise auf den Referenzeingang geregelt. Eine integrierte SMBus-Schnittstelle bietet genügend Flexibilität, um Leistung und Effizienz zu optimieren, und erleichtert gleichzeitig die Kommunikation mit der entsprechenden Software.

    Alle 13 Spannungsregelkreise sind mit einem ON Semiconductor FDMF3170 Smart Power Stage-Modul mit integrierten PowerTrench-MOSFETs und Treiber-ICs ausgestattet.

    Wie üblich verlassen sich die Spulen auf gekapselte Ferritkerne, aber diesmal sind sie rechteckig, um Platz für die Spannungsreglerschaltungen zu schaffen.

    Speicherstromversorgung

    Die Speicher-ICs MT61K256M32JE-14:A von Micron werden von drei Phasen versorgt, die von einem zweiten uP9512 kommen. Die gleichen FDMF3170 Smart Power Stage-Module tauchen noch einmal auf. Die 470-mH-Spulen bieten eine größere Induktivität als die der GPU-Leistungsphasen, aber sie sind in Bezug auf die physischen Abmessungen völlig identisch.

    Die Eingangsfilterung erfolgt über drei 1μH-Spulen, wobei jede der drei Anschlussleitungen einen passenden Shunt besitzt. Das ist ein sehr kleiner Widerstand, an dem parallel der Spannungsabfall gemessen und an die Telemetrie weitergegeben wird. Durch diese Schaltungen ist Nvidia in der Lage, die Leistung der Platine ziemlich genau zu begrenzen.

    Unglücklicherweise für die Leute, die ein bisschen Redundanz mögen, ist diese Karte nur mit einem BIOS ausgestattet.

    So haben wir die GeForce RTX 2080 Ti getestet

    Das Neueste und Beste von Nvidia wird zweifellos in einer der vielen High-End-Plattformen zu finden sein, die jetzt von AMD und Intel erhältlich sind. Unsere Grafikstation verwendet jedoch immer noch ein MSI Z170 Gaming M7-Mainboard mit einer Intel Core i7-7700K-CPU mit 4,2 GHz. Ergänzt wird der Prozessor durch das Speicherkit F4-3000C15Q-16GRR von G.Skill. Die MX200-SSD von Crucial bleibt, zusammen mit einer 1,4 TB großen Intel DC P3700, die mit Spielen geladen ist.

    Was die Konkurrenz betrifft, wird die GeForce RTX 2080 Ti nur von der 3000-Dollar-Titan V konkurriert. Wir fügen diese Karte dieses Mal unserem Testpool hinzu, zusammen mit GeForce GTX 1080 Ti, Titan X, GeForce GTX 1080, GeForce GTX 1070 Ti , und GeForce GTX 1070 von Nvidia. AMD ist mit der Radeon RX Vega 64 und 56 vertreten. Alle Karten sind entweder Founders Edition oder Referenzmodelle. Wir haben einige Partnerboards von Nvidia und AMD im Haus und planen, diese für Überprüfungen durch Dritte zu verwenden.

    Unsere Benchmark-Auswahl umfasst jetzt Ashes of the Singularity: Escalation, Battlefield 1, Civilization VI, Destiny 2, Doom, Far Cry 5, Forza Motorsport 7, Grand Theft Auto V, Metro: Last Light Redux, Rise of the Tomb Raider, Tom Clancy’s The Division, Tom Clancy’s Ghost Recon Wildlands, The Witcher 3 und World of Warcraft: Battle for Azeroth. Wir arbeiten daran, Monster Hunter: World, Shadow of the Tomb Raider, Wolfenstein II und ein paar andere hinzuzufügen, mussten diese Pläne aber aufgrund der sehr begrenzten Zeit mit Nvidias letztem Treiber für seine Turing-basierten Karten verwerfen.

    Die von uns verwendete Testmethodik stammt von PresentMon: Performance In DirectX, OpenGL und Vulkan. Kurz gesagt, alle diese Spiele werden mit einer Kombination aus OCAT und unserer hauseigenen GUI für PresentMon bewertet, mit Protokollierung über AIDA64.

    Alle Zahlen, die Sie im heutigen Artikel sehen, sind frisch und verwenden aktualisierte Treiber. Für Nvidia verwenden wir Build 411.51 für GeForce RTX 2080 Ti und 2080. Die anderen Karten wurden mit Build 398.82 getestet. Die Ergebnisse von Titan V wurden stichprobenartig mit 411,51 überprüft, um sicherzustellen, dass sich die Leistung nicht geändert hat. Die Karten von AMD verwenden die Crimson Adrenalin Edition 18.8.1, die zum Testzeitpunkt die neueste war.

    0 0 votes
    Rating post
    Abonnieren
    Benachrichtige mich bei
    guest
    0 comments
    Inline Feedbacks
    View all comments
    0
    Would love your thoughts, please comment.x