19

Hardware- und Nachrichten-Links des 18./19. Juli 2017

AMDs "Mini Community Tour" mit der Radeon RX Vega lief Dienstag Abend erstmals in Budapest über die Bühne – und erbrachte (nicht unerwartet) keinerlei neue Informationen. Dafür war das Event augenscheinlich auch nicht gedacht, wie man sich mittels der vorliegenden Bilder und Videos selbst überzeugen kann. Es gab hierbei also weder irgendwelche technischen Informationen (oder auch nur Bruchstückchen davon) oder aber Benchmarks, nicht einmal mitlaufende Framecounter konnten erspäht werden. Das AMD die Radeon RX Vega mittels der zu sehenden Demosysteme indirekt mit einer GeForce GTX 1080 (nicht aber einer 1080 Ti) verglichen hat, dürfte in erster Linie dem primär angestelltem Vergleich von FreeSync vs. G-Sync geschuldet sein – hierfür ist es natürlich günstiger, wenn die Konkurrenzkarte vergleichsweise langsamer ist und daher eher Probleme hat, die Framerate zu halten. Ob man dies als weiteren AMD-Versuch deuten kann, mit der Radeon RX Vega erheblich tiefzustappeln, sei wegen des eigentlichen Testansatzes von FreeSync vs. G-Sync dahingestellt.

Nach einer weiteren Veranstaltung in Portland (USA) vom 21. bis 23. Juli wird die Community Tour am Ende bei der Siggraph in Los Angeles am 30. Juli landen. Insofern dort das gleiche abläuft wie in Budapest, dürfte das ganze in beiden Fällen nur den Teaser zum eigentlichen Programm der Siggraph geben – sprich der mit Spannung erwarteten AMD-Veranstaltung, welche die offizielle Vorstellung der Radeon RX Vega beinhalten wird (zumindest dies ist bestätigt). Wie bekannt, dürfte die Siggraph-Vorstellung noch nicht mit einem vollwertigen Launch gleichzusetzen sein, selbiger dürfte sich aber voraussichtlich in den Tagen nach der Siggraph anschließen. Spätestens dann wird sich AMD offenbaren müssen, ob im Vega-10-Chip nun doch noch bislang ungehobene Reserven stecken – oder ob die bislang mittels Vega FE zu sehende Spiele-Performance zuzüglich vielleicht noch der einen oder anderen kleinen Optimierung wirklich das sein soll, was Vega 10 unter Gaming zu bieten hat. Im optimalen Fall kann es locker und leicht auf dem Performanceniveau der GeForce GTX 1080 Ti enden, im entgegengesetzten Fall wird es schwierig, überhaupt die Performance der GeForce GTX 1080 zu knacken.

Zwar kann AMD letztlich über den Preispunkt alles noch irgendwie passend machen (gerade jetzt mit den überzogenen Grafikkarten-Preisen im Markt keine große Schwierigkeit), aber dennoch würde eine Performance bestenfalls auf Niveau der GeForce GTX 1080 zu einer vermutlich sehr viel höheren Leistungsaufnahme (die GeForce GTX 1080 steht bei gerade einmal 173 Watt Realverbrauch unter Spielen) eher denn als völliger Fehlschlag gewertet werden – schließlich hat nVidia besseres (angesichts der Energieeffizienz) bereits vor mehr als einem Jahr herausgebracht. Mit einer solchen Performance hätte sich AMD in jedem Fall arg verkalkuliert, wäre der ganze für GCN5 und Vega betriebene Aufwand nutzlos verpufft – denn eine Performance besser als mit der GeForce GTX 1080 hätte man auch mit einem verdoppelten Polaris-10-Chip erreichen können. Selbiges wäre ohne Architektur-Anpassungen auf einer kleineren Chipfläche zu einem klar früheren Releasetermin möglich gewesen – insofern reagiert weiterhin das Prinzip Hoffnung, das AMD dem Vega-10-Chip doch noch irgendwie auf die Sprünge zu einer (Recheneinheiten- & Taktraten-normiert) besseren Performance als mit Fiji & Polaris geboten verhelfen mag. (Foren-Diskussion zum Thema)

Bei Notebookcheck thematisieren nVidias MaxQ Mobile-Grafiklösungen – und reiben sich primär daran, das es mit diesen Lösungen nun wieder deutlich weniger Performance gibt es als mit den Desktop- und regulären Notebook-Modellen. Wo da das Problem sein soll, erschließt sich (bis auf die Namenswahl) allerdings nicht ganz – denn wer die höhere Performance will, greift zum Notebook-Modell anstatt des MaxQ-Modells. Beide existieren schließlich nebeneinanderher im Markt – und erfüllen damit auch unterschiedliche Aufgaben. Die unterschwellig hierbei vorgetragene These, das man Mobile-Grafikbeschleuniger mit den Taktraten der Desktop-Modelle und dies aber trotzdem für leichte Notebooks geeignet fordert, geht in jedem Fall entgegen aller Machbarkeiten – wenn man einen Grafikchip für den Mobile-Einsatz mit niedrigerer TDP ausstattet, dann muß da einfach zwangsläufig erheblich weniger Performance herauskommen. Und auch das nVidia hierfür dieselben Preise ansetzt, ist eigentlich völlig normal: Auch im CPU-Markt kosten Modelle mit stark abgesenkter TDP in etwa das gleiche, trotz niedrigerer Taktraten und damit niedrigerer Performance – die Spezialisierung auf einen besonderen Effekt (niedrigere TDP) begründet in diesem Fall relativ gesehen höhere Preise.

Sicherlich ist es nicht wirklich verkehrt, eine Produkteinordnung gänzlich nach Performance-Maßstab zu fordern – was bedeutet, das eine GeForce GTX 1080 MaxQ mit einer Performance schätzungsweise sogar klar unterhalb der Desktop-Ausführung der GeForce GTX 1070 sich eben nicht "1080" nennen darf. Andererseits gilt so oder so, das man bei einem uninformierten Kauf einfach immer übers Ohr gehauen wird und es damit die Aufgabe der Fachpresse ist, vorab Licht ins Dunkle zu bringen. Damit ist es sicherlich als positiv anzusehen, das Notebookcheck im Rahmen ihrer Abhandlung die Macht der gesetzten TDP korrekt erkannt und nachfolgend auch noch genauer betrachtet haben – denn genau bei dieser liegt sowohl das Unterscheidungsmerkmal als auch der einzige solide Hinweis auf (erhebliche) Performance-Differenzen, welchen man ganz ohne Benchmarks schon einmal in der Hand hat. Leider ist bislang das Thema "MaxQ" und die deutlich herabgesetzten TDPs der entsprechenden Beschleuniger kaum von anderen IT-Magazinen thematisiert wurden. Eventuell mag das eine oder andere Magazin sich hierzu an die Formel gehalten haben, ohne vorliegende Beweise lieber nicht zu spekulieren – doch damit läuft man dann allerdings nVidias Marketing ins offene Messer, welche natürlich über das Hintenanstellen dieser hochwichtigen TDP-Angaben sowie der Nichtbelieferung mit Testmustern das Erkennen dieser Problematik aktiv unterbunden haben.

AMD ist im Rahmen eines TechDays (YouTube-Video) bereits im Juni kurz auf Intels Schmähung eingegangen, AMDs Epyc Server-Prozessoren wären "4 zusammengeklebte Desktop-Dies" – bei WCCF Tech gibt es die Niederschrift der wichtigsten Passagen. Eine richtig gute Antwort ist AMD damit noch nicht gelungen – wobei Intels eigentliche Schmähschrift sowieso erst später (im Juli zur Vorstellung von Skylake-SP) erschienen ist. Nichtsdestotrotz könnte AMD insbesondere nach dem Bekanntwerden der ersten Daten zum Core i9-7920X nun nochmals besser kontern: Denn augenscheinlich zwingt Intels Ansatz der monolithischen Cores zu immer niedrigeren Taktraten, je höher die Core-Anzahl wird – während AMD insbesondere mit Threadripper beweist, das man die (hohen) Taktraten der normalen Consumer-Prozessoren durchaus mit ins HEDT-Segment übernehmen kann. Selbst für das Server-Segment kann man diese Regel beibehalten: Hier kommen Epyc 7601 (32C, 2.2/3.2 GHz) und Xeon Platinum 8180 (28C, 2.5/3.8 GHz) sich von den Taktraten schon vergleichsweise nahe, hat Intel also kaum noch den ansonsten üblichen Taktraten-Vorteil – einmal abgesehen vom (mehr) als doppelten Preispunkt beim Xeon-Modell in diesem Vergleich. (Foren-Diskussion zum Thema)