9

Hardware- und Nachrichten-Links des 9. Dezember 2019

Videocardz berichten über zwei neue Trademarks, welche nVidia am 4. Dezember offiziell registriert hat: "Aerial" – hinter welchem sich ein SDK zur GPU-Unterstützung von 5G verbergen soll – und "Hopper". Dies darf man dann als gutes Anzeichen dafür ansehen, das die kürzliche Meldung über eine "nVidia Hopper" Grafikchip-Generation als Nachfolger zur kommenden Ampere-Generation wahrscheinlich zutreffend ist (wobei eine hohe Wahrscheinlichkeit noch keine Gewißheit ergibt). Der Hopper-Generation wird aus der gleichen Gerüchtequelle der Sprung hin zu MultiChip-Designs (MCM) nachgesagt, wobei gerade an dieser Stelle Vorsicht angesagt ist – ähnliches wurde schließlich schon über die Jahre hinweg immer mal wieder prophezeit, ist aber bisher noch nie realisiert worden. Hopper dürfte derzeit in einer frühen bis mittleren Entwicklungsphase sein, wo man insbesondere über die physikalische Ausgestaltung (Fertigungstechnologie sowie SingleChip oder MultiChip) sich noch nicht sicher sein kann und daher noch viele Lösungswege offenstehen. Sicherlich denkbar, das nVidia mit der Hopper-Entwicklung den MultiChip-Ansatz zum Entwicklungsziel erklärt hat – aber genauso ist es auch möglich, das man von diesem Vorhaben im Laufe der Entwicklung wieder Abstand nehmen könnte bzw. die praktische Realisierung auf den Hopper-Nachfolger verschiebt.

Fertigung technologische Ausrichtung Release Grafikkarten
Turing 12nm TSMC erste RayTracing-Beschleuniger 19. Sept. 2018 GeForce 16/20 Serien
Ampere angebl. 7nm+ TSMC & Samsung angebl. Verdopplung Tensor-Cores (und RT-Cores?) pro CU erwartet H2/2020 angen. GeForce 30 Serie
Hopper angebl. whrschl. 5nm angebl. MultiChip-Ansatz geschätzt 2022 angen. GeForce 40 Serie

Sollte nVidia aber tatsächlich ein MultiChip-Design realisieren können, dürfte man jenes anfänglich erst einmal nur im professionellen Bereich sehen. Denn dort wird jenes am ehesten gebraucht und für die anderen Marktsegmente kommt man mit monolitischen Chips vorerst wahrscheinlich noch besser bzw. kann man ja erst einmal Erfahrungen sammeln, ehe man sich für das weitere Vorgehen entscheidet. Sprich: Im besten Fall käme ein HPC-Chip "GH100" der Hopper-Generation als MultiChip-Design, nicht aber die Gamer-Chips der Hopper-Generation. An dieser Stelle muß man einrechnen, das Vorab-Informationen sich oftmals immer nur auf das Erstlingswerk und damit den entsprechenden HPC-Chip beziehen – welcher aber gerade bei nVidia immer weniger dazu taugt, eine Aussage über die nachfolgenden Gamer-Chips zu treffen. Auch bei der 2020 anstehenden Ampere-Generation liegen derzeit nur konkretere Informationen zum HPC-Chip "GA100" vor, die weiteren Chips dieser Generation werden hingegen größtenteils noch nicht einmal beim Namen genannt (sind aber wahrscheinlich schlicht GA102, GA104, GA106, GA107 & GA108). Wahrscheinlich dürften sich die über die nächsten Monate & Jahre hereinschneienden Info-Fetzen zu nVidias Hopper-Generation generell nur auf den jeweiligen HPC-Chip "GH100" beziehen – auch wenn jene Gerüchte das ganze üblicherweise nur mit "Hopper" titulieren und damit die falsche Fährte legen, es würde hierbei um die gesamte Hopper-Generation gehen.

Was nVidia jedoch bei der Hopper-Generation im Gaming-Bereich vor hat, ist einfach noch nicht klar – und MultiChip-Ansatz hin oder her, da wird natürlich noch mehr kommen müssen. Über die wahrscheinlich benutzte 5nm-Fertigung (von TSMC oder Samsung oder von beiden Chipfertigern) kann man wieder mehr Transistoren in dieselbe Chipfläche unterbringen, wird aber erneut bei der Leistungsaufnahme aufpassen müssen – da alle neueren Fertigungsverfahren keine wirklich herausragenden Verbesserungen in dieser Frage mehr bieten. Sicherlich wird es erneut mehr Shader-Cluster und damit mehr Hardware-Einheiten geben, womöglich muß nVidia dann über die Breite des Portfolios zu HBM-Interfaces wechseln, weil das GDDR-Konzept an sein Ende angelangt sein könnte (insbesondere der hohe Stromverbrauch bei steigenden Datenraten stört gewaltig). Wahrscheinlich dürfte man sich dem weiteren Ausbau der RayTracing-Fähigkeiten widmen – womöglich sogar schon in diese Richtung hin, RayTracing-Performance gegenüber Rasterizer-Performance zu bevorzugen. Diese Punkte kann nVidia allerdings sogar noch vergleichsweise spät final festlegen, wenn mit dem Launch der NextGen-Konsolen klarer wird, wie gut RayTracing seitens der Spieleentwickler adaptiert wird. Da die Hopper-Generation nicht vor dem Jahr 2022 erwartet werden braucht, hat nVidia bis zum Designende entsprechender Gaming-Grafikchips wohl noch Zeit bis tief ins Jahr 2021.

Nochmals Videocardz weisen auf EEC-Listungen zur Radeon RX 5600 XT hin, der kommenden Midrange-Lösung von AMD zwischen Radeon RX 5500 XT (unter 200$) und Radeon RX 5700 (349$). Die EEC wird zwar gern auch für Platzhalter-Eintragungen genutzt, aber in diesem Fall gibt es deutliche Anzeichen der Existenz einer Radeon RX 5600 XT seitens eines kürzlichen Gerüchts sowie einer kürzlichen Aussage zur Hardware jener Radeon RX 5600 XT. Letztere wird über die EEC-Eintragungen teilweise bestätigt und teilweise in Frage gestellt, da es sowohl Eintragungen zugunsten von 6 GB GDDR6-Speicher als auch von 8 GB GDDR6-Speicher bei der Radeon RX 5600 XT gibt. Hier könnten natürlich noch Fehler durch die Gegend schwirren – oder die Karte kommt in zwei Ausführungen, was bei Benutzung des Navi-10-Chips in jedem Fall technologisch möglich wäre. Die größere Wahrscheinlichkeit liegt aber natürlich in einem schlichten Copy&Paste-Fehler – und das die Radeon RX 5600 XT durchgehend mit 6 GB Grafikkartenspeicher daherkommt.

Chipbasis Recheneinheiten Speicherinterface Speicher Release Listenpreis
Radeon RX 5700 XT Navi 10 40 Shader-Cluster = 2560 SE 256 Bit GDDR6 8 GB GDDR6 7. Juli 2019 399$
Radeon RX 5700 Navi 10 36 Shader-Cluster = 2304 SE 256 Bit GDDR6 8 GB GDDR6 7. Juli 2019 349$
Radeon RX 5600 XT Navi 10 (?) gesch. 26-30 CU = 1664-1920 SE angebl. 192 Bit GDDR6 angebl. 6 GB GDDR6 angebl. Anfang 2020 angebl. 200-250$
Radeon RX 5500 XT Navi 14 22 Shader-Cluster = 1408 SE 128 Bit GDDR6 angebl. 4/8 GB GDDR6 12. Dez. 2019 ?
Radeon RX 5500 Navi 14 22 Shader-Cluster = 1408 SE 128 Bit GDDR6 4 GB GDDR6 7. Okt. 2019 rein OEM

Unter der letzten Woche gab es Artikel zum 20jährigen Jubiläum von Quake III Arena, u.a. seitens Heise und der ComputerBase. Teilweise gab es dabei auch die Klage über (seinerzeitig) zu hohe Hardware-Anforderungen – was bei anderen wiederum auf Verwunderung stieß. Aber zu dieser Zeit prallte halt die Welt der alten Office-Grafikkarten mit der neuen Welt der 3D-Grafikkarten aufeinander – und Quake III mit seiner Verpflichtung zu einer Grafikkarte mit echter 3D-Beschleunigung war demzufolge für viele PC-Nutzer, welche aus Performance-Sicht bisher nur den Prozessor im Sinn hatten, etwas gänzlich neues. Zwar gab es zuvor auch schon andere Spieletitel mit 3D-Beschleunigung, aber Quake III war aufgrund der Vorgänger-Spiele bzw. der Entwicklerfirma id Software eine ganz andere Hausnummer und erreichte sehr viel mehr PC-Nutzer. Mit der Anforderung einer echten 3D-Beschleunigung hat der Multiplayer-Shooter sicherlich viele Office-Nutzer zu ihrer ersten 3D-Grafikkarte gezwungen – aber sobald man einmal auf einer 3D-Grafikkarte unterwegs war, fielen die Frameraten eigentlich ziemlich anständig bis gutklassig aus.

Die meisten Anwender dürften hierbei wohl nicht mehr im Kopf gehabt haben, unter welchem Frameraten das erste Quake ablief – da waren nach Release mit gutklassiger Hardware im initalen Software-Renderer 15-20 fps vollkommen normal (und wurden sogar als spielbar angesehen). Bei Quake II war es ähnlich, nur das es dort auch gleich einen Hardware-Renderer gab, mittels welchem man die Frameraten in sehr ansprechende Bereiche hochbringen konnte. Und Quake III Area setzte die echte 3D-Beschleunigung zwar zwingend voraus, lieferte dann aber umgehend passende Frameraten ab – wie nachfolgend mittels Benchmarks von anno Januar 2000 auf einer GeForce 256 SDR demonstriert. Zum Einsatz kam hierbei das standardmäßige "demo001" sowie die eigenerstellte "Annihilator" Timedemo, mittels welcher eine WorstCase-Situation abgebildet wurde. Seinerzeit konnte man natürlich noch fein mit den Auflösungen spielen, war die benutzte GeForce-1-Karte schnell in Richtung eines CPU-Limits zu treiben. Selbiges zeigte sich in späteren Jahren dann um so deutlicher, so das Quake III als Grafikkarten-Benchmarks eigentlich recht schnell abgelöst wurde. Allenfalls bei der Grafikkartenspeicher-Menge war Quake III (zumindest anfänglich) anspruchsvoll: Die besten Texturen liefen erst mit 32-MB-Grafikkarten – weswegen oftmals auf der zweitbesten Textureneinstellung gebencht wurde, um den Vergleich zu 16-MB-Modellen zu ermöglichen. Die Performance-Auswirkung des Texturen-Settings war seinerzeit schon (wie auch heute noch) regelrecht marginal.