16

Hardware- und Nachrichten-Links des 15./16. August 2020

Twitterer Rogame hat den wahrscheinlich ersten öffentlichen Benchmark-Wert zur GeForce RTX 3080 in der Benchmark-Datenbank des Userbenchs erspäht. Der dort eingetragene Benchmark-Wert basiert auf einer neuen, laut Videocardz der GeForce RTX 3080 zuordenbaren nVidia-Karte – wofür auch die 10 GB Speicher sowie der Speichertakt von 4750 MHz (= GDDR6X mit 19 Gbps) sprechen. Der Benchmark-Wert selber ist leider klar zu niedrig, um daran irgendeine Aussage treffen zu können. Somit ist aus diesem Benchmark-Eintrag nur mitzunehmen, dass die dort getestete GeForce RTX 3080 mit einem maximalen Chiptakt von 2100 MHz lief – recht anständig und etwas entgehen der kürzlichen Befürchtungen, Gaming-Ampere könnte nur durchschnittliche Taktraten mitbringen. Daneben zeigt die Existenz jenes Benchmark-Ergebnisses darauf hin, dass in der Tat GeForce RTX 3080 Karten mit 10 GB Grafikkartenspeicher existieren, sprich die Karte nicht zwingend allein mit 20 GB erscheint. Die Möglichkeit zu beiden Speichermengen bleibt dagegen weiterhin offen – und die Seitenchance darauf, dass dies alles noch gar nicht final festgelegt wurde, ist natürlich weiterhin vorhanden.

Videocardz WCCF Tech 3DCenter
Ampere-Titan GA102, ~84 SM @ 384 Bit, 24 GB GA102, ? SM @ 384 Bit, 48 GB GA102, 84 SM @ 384 Bit, 48 GB
GeForce RTX 3090 (alt. "3080 Ti") GA102, ~82 SM @ 320 Bit, 20 GB GA102, ? SM @ 384 Bit, 24 GB GA102, 82 SM @ 384 Bit, 24 GB
GeForce RTX 3080 GA102, ~68 SM, 320 Bit, 10 GB GA102, ? SM @ 320 Bit, 20 GB GA102, 68 SM @ 320 Bit, 10/20 GB
GeForce RTX 3070 Ti non-existent non-existent GA104, 48 SM @ 256 Bit, 8/16 GB
GeForce RTX 3070 GA104, ~46 SM @ 256 Bit, 8 GB GA104, ? SM @ 256 Bit, 16 GB GA104, 42-46 SM @ 256 Bit, 8 GB
GeForce RTX 3060 Ti non-existent non-existent GA104, 38-42 SM @ 256 Bit, 8 GB
GeForce RTX 3060 GA106, ? SM @ 192 Bit, 6 GB GA106, ? SM @ 192 Bit, 12 GB GA106, 30 SM @ 192 Bit, 6 GB

Auf Twitter sind daneben zum Ende der Woche mehrere wilde Gerüchte zu AMDs "Big Navi" und nVidias Gaming-Ampere aus fernöstlichen Foren durchgereicht wurden, dokumentiert in unserem Forum. Dabei wird diesen Meldungen (fast durchgehend) einiger Unglauben entgegengebracht, denn speziell die Ausführungen zu "Big Navi" klingen doch reichlich absurd: Danach soll AMD die Ampere-Generation unterschätzt haben, weil man nur mit einem Performancesprung wie zwischen Pascal und Turing (+36% zwischen GeForce GTX 1080 Ti und GeForce RTX 2080 Ti) gerechnet haben soll. Die eigene Performance-Angabe von "Radeon RX 5700 XT * 1,5" führt diese Aussage aber schon ad absurdum – denn dies wäre grob nur das Performance-Niveau der GeForce RTX 2080 Ti, es fehlt jeglicher Ampere-Aufschlag. Sprich: Selbst wenn AMD für Ampere nur mit dem Turing-Performanceaufschlag geplant haben sollte, würde dies mindestens das Niveau "Radeon RX 5700 XT * 2" bedeuten – und nicht nur 50% mehr. Genauso (schwer) unpassend ist, dass Big Navi für diese (angeblich) nur 50% Mehrperformance dann gleich 330-375 Watt verbrauchen soll. Damit wäre die Karte sogar mit einer schlechteren Energieeffizienz als die Radeon RX 5700 XT unterwegs, obwohl die RDNA2-Architektur eigentlich für eine klar höhere Energieeffizenz stehen sollte (laut AMD um +50% mehr).

Anders formuliert widerlegen sich diese Aussagen zu "Big Navi" schon selber bzw. gehen krass an ziemlich festen Vorgaben vorbei. Die Chance, dass dies stimmen mag, ist gleich Null – denn wenn AMD wirklich nVidia an der Leistungsspitze angreifen will, dann wird sowohl die höhere Energieeffienz zwingend benötigt als auch setzt man sich dafür sicherlich kein Performance-Ziel, welches nur auf dem Performance-Niveau der GeForce RTX 2080 Ti herauskommt. Ob "Big Navi" es wirklich mit nVidias kommenden neuen Spitzen-Grafikkarten aufnehmen kann, ist damit nicht gesagt – aber zumindest scheint AMD allen Anzeichen nach den Versuch zu wagen. Und selbst wenn dies am Ende nicht ganz funktioniert, kann man sicherlich über einen etwas besseren Preis sein Produkt entsprechend plazieren. Letztlich dürfte es den meisten Grafikkarten-Käufern auch viel eher etwas bringen, wenn AMD gute Gegenangebote im Preisbereich von 500-800 Euro aufstellt – dort, wo nVidia derzeit ganz allein steht (und speziell mit der GeForce RTX 2070 Super exzellente Geschäfte macht). Das Preissegment oberhalb von 1000 Euro zu besetzen, ist wichtig für Ehre & Ruhm, betrifft in der Praxis jedoch viel weniger Grafikkarten-Käufer.

Auf nVidia-Seite wird hingegen eine Veränderung an den Shader-Einheiten thematisiert, welche in einem viel höheren FP32-Durchsatz (bei gleicher Anzahl an Shader-Einheiten) resultieren soll. Dies soll dann auch mit ein Grund dafür sein, dass nVidias Gaming-Ampere deutlich schneller wird als zuletzt prognostiziert herauskommen soll sowie dass die zuletzt herumgereichten TimeSpy-Werte die Ampere-Performance noch nicht in voller Höhe abbilden können. Da es selbige Ansätze schon vor einiger Zeit gegeben hat, muß dieser Punkt durchaus ernst genommen werden – allerdings dürfte dies kaum wirklich in einer verdoppelten FP32-Performance resultieren. Dies wäre schließlich schon bei nVidias GA100-Chip aufgefallen, so unterschiedlich sind die Architekturen dann doch nicht. Denn nVidia dürfte sich die Chance, dort mit einer weit höheren FP32-Performance zu glänzen, kaum entgehen lassen – gerade wenn nun auch Intel mit in diesen Markt der HPC-Beschleuniger einsteigt. Auch sollte eine reguläre Steigerung der FP32-Performance unter faktisch jedem Benchmark wirksam werden, sprich auch TimeSpy müsste eigentlich darauf reagieren. Vermutlich ist die Realität jedoch komplizierter – und selbst das ausgehende Gerücht verweist schließlich auf Änderungen in den Tensor-Cores.

Möglicherweise beherrschen diese eigentlich nur für einfache Rechenaufgaben vorgesehenen Rechenwerke nunmehr auch einen FP32-Modus und können somit unterstützend eingreifen. Möglicherweise bezieht sich das ganze auch einfach nur auf die kombinierte Rechenkraft aller Rechenwerke im Ampere-Design, welche aber teilweise nur für einzelne Aufgabenfelder (wie RayTracing oder Denoising) gedacht sind und nicht allesamt allgemein eingesetzt werden können. Da gibt es noch einige Möglichkeiten, wie so eine Situation einer scheinbaren FP32-Steigerung entstehen kann, welche sich dann in der Praxis aber nur auf gewisse Anwendungsfälle bezieht und somit in einem allgemeinen Benchmark wie dem 3DMark13 TimeSpy eben nicht durchkommt. Weil das ausgehende Gerücht bezüglich AMDs "Big Navi" aber augenscheinlich kaum eine Chance auf Wahrheit bietet, kann man sich auf diese Aussagen zu Gaming-Ampere auch nicht all zu sehr versteifen. Mitzunehmen wäre demzufolge, dass es substanielle Hinweise auf eine gewisse Veränderung an den Ampere-Recheneinheiten gibt. Was nVidia da genau getan hat, dazu wären dann besser weitere, solidere Informationen abzuwarten.

Spiegel, Fefe & GamesWirtschaft berichten über den Kampf, welchen Epic Games gegen Apple & Google losgebrochen hat, indem man deren AppStore-Monopol in Frage stellte. Man kann so etwas sicherlich auch rein aus Popcorn-Sicht betrachten (es streiten sich milliardenschwere Konzerne um die Stücke vom Kuchen), andererseits wird hiermit nun endlich eine Schlacht geschlagen, deren sich die Verbraucherschützer und Wettbewerbshüter hätten schon lange annehmen sollen. Mag es zwar aus Verbraucher-Sicht teilweise komfortabel sein, pro System nur einen Apps-Shop zu haben, widerspricht dies doch dem Wettbewerbs-Gedanken unserer Volkswirtschaft. Hinzu kommt die Auswirkung einer Gewinn-Konzentration bei den beiden Shop-Anbietern Apple & Google, welche 30% von allen App-Verkäufen absahnen, ohne dass deren Kostenlage hierfür auch nur im Ansatz derart hoch liegen dürfte. Normalerweise sollte dies ein Paradebeispiel für eine staatliche Regulierung sein – wo also der Anteil der Zwangsabgabe unabhängig festgelegt wird und nicht durch den Monopolisten selber. Bisher lief dies alles nur etwas unterhalb des Radars der Wettbewerbshüter, könnte nunmehr jedoch durchaus in deren Fokus geraten.

Ob sich so fix etwas am aktuellen System ändert, bliebe abzuwarten – eventuell knickt Epic Games auch schnell ein, wenn man jenen eine vorteilhafte Sonderregelung einräumt. Aber das Thema wäre dann erst einmal aufgeworfen und könnte irgendwan später zu Veränderungen führen. Langfristig ist es unwahrscheinlich, dass Apple & Google ihr System durchhalten können, da jenes zu krass der geltenden Gesetzeslage widerspricht. Aber natürlich ist jedes Jahr, in welchem mit diesem System Milliarden-Gewinne ohne größere Kosten gemacht werden, für die beiden Firmen Gold wert. Schließlich manövriert man sich damit in eine Position, selbst dann, wenn der Wettbewerb nach Gerichtsurteil oder Spruch der Wettbewerbshüter wieder "freigegeben" ist, über die (aller)beste Ausgangslage zu verfügen. Zur Durchsetzung von wirklichem Wettbewerb ist selbst das vorhandene Wettbewerbsrecht zu zahm, da müsste es zumindest zum Einzug unrechtmäßig erworbener Gewinne und eigentlich auch zu zusätzlichen substantiellen Strafzahlungen kommen, um die gegen den Wettbewerb handelnden Unternehmen gegenüber ihren Konkurrenten bewußt zu schwächen (man denke an den massiven Vorteil, welchen Intel durch die jahrelange Wettbewerbsverzerrung gegenüber AMD innehatte).

Twitterer Rogame hat den wahrscheinlich ersten öffentlichen Benchmark-Wert zur GeForce RTX 3080 in der Benchmark-Datenbank des Userbenchs erspäht. Der dort eingetragene Benchmark-Wert basiert auf einer neuen, laut Videocardz der GeForce RTX 3080 zuordenbaren nVidia-Karte - wofür auch die 10 GB Speicher sowie der Speichertakt von 4750 MHz (= GDDR6X mit 19 Gbps) sprechen. Der Benchmark-Wert selber ist leider klar zu niedrig, um daran irgendeine Aussage treffen zu können. Somit ist aus diesem Benchmark-Eintrag nur mitzunehmen, dass die dort getestete GeForce RTX 3080 mit einem maximalen Chiptakt von 2100 MHz lief - recht anständig und etwas entgehen der kürzlichen Befürchtungen, Gaming-Ampere könnte nur durchschnittliche Taktraten mitbringen. Daneben zeigt die Existenz jenes Benchmark-Ergebnisses darauf hin, dass in der Tat GeForce RTX 3080 Karten mit 10 GB Grafikkartenspeicher existieren, sprich die Karte nicht zwingend allein mit 20 GB erscheint. Die Möglichkeit zu beiden Speichermengen bleibt dagegen weiterhin offen - und die Seitenchance darauf, dass dies alles noch gar nicht final festgelegt wurde, ist natürlich weiterhin vorhanden.





Videocardz
WCCF Tech
3DCenter




Ampere-Titan
GA102, ~84 SM @ 384 Bit, 24 GB
GA102, ? SM @ 384 Bit, 48 GB
GA102, 84 SM @ 384 Bit, 48 GB


GeForce RTX 3090 (alt. "3080 Ti")
GA102, ~82 SM @ 320 Bit, 20 GB
GA102, ? SM @ 384 Bit, 24 GB
GA102, 82 SM @ 384 Bit, 24 GB


GeForce RTX 3080
GA102, ~68 SM, 320 Bit, 10 GB
GA102, ? SM @ 320 Bit, 20 GB
GA102, 68 SM @ 320 Bit, 10/20 GB


GeForce RTX 3070 Ti
non-existent
non-existent
GA104, 48 SM @ 256 Bit, 8/16 GB


GeForce RTX 3070
GA104, ~46 SM @ 256 Bit, 8 GB
GA104, ? SM @ 256 Bit, 16 GB
GA104, 42-46 SM @ 256 Bit, 8 GB


GeForce RTX 3060 Ti
non-existent
non-existent
GA104, 38-42 SM @ 256 Bit, 8 GB


GeForce RTX 3060
GA106, ? SM @ 192 Bit, 6 GB
GA106, ? SM @ 192 Bit, 12 GB
GA106, 30 SM @ 192 Bit, 6 GB