21

nVidia Geschäftsergebnisse Q3/2017: Glatte Umsatz-Verdopplung innerhalb von anderthalb Jahren erreicht

Grafikchip-Entwickler nVidia hat seine Geschäftsergebnisse für das dritte Quartal 2017 vorgelegt, welches in nVidias fiskalischer Abrechnung das dritte Finanzquartal des Finanzjahres 2018 darstellt und zudem abweichend vom Kalender von August bis Oktober 2017 lief. Dabei hat man sich einmal mehr überboten: Gab es schon in den letzten Quartalen bei nVidia regelmäßig klare Rekordergebnisse, setzt nVidia nun mit nochmals sehr starken Rekorden einen oben drauf. So stieg der Quartalsumsatz von derzeit 2,636 Mrd. Dollar gegenüber dem Vorquartal um +18,2%, gegenüber dem Vorjahresquartal sogar um +31,5%. Der nominelle Quartalsgewinn von derzeit 838 Mio. Dollar legt gegenüber dem Vorquartal um +43,7% zu, gegenüber dem Vorjahresquartal sogar um +54,6% – beim operativen Gewinn sieht es ähnlich gut aus.

Q1/2016 Q2/2016 Q3/2016 Q4/2016 Q1/2017 Q2/2017 Q3/2017
Umsatz 1305 Mio. $ 1428 Mio. $ 2004 Mio. $ 2173 Mio. $ 1937 Mio. $ 2230 Mio. $ 2636 Mio. $
Gewinn 196 Mio. $ 253 Mio. $ 542 Mio. $ 655 Mio. $ 507 Mio. $ 583 Mio. $ 838 Mio. $
operativer Gewinn 245 Mio. $ 317 Mio. $ 639 Mio. $ 733 Mio. $ 554 Mio. $ 688 Mio. $ 895 Mio. $
Für Vergleichswerte zu AMD, Intel & nVidia zurück bis ins Jahr 2006 bitte klicken.
19

Hardware- und Nachrichten-Links des 18./19. November 2017

Noch einmal extra zu erwähnen ist die feine Taktraten- und Temperatur-Grafik zur GeForce GTX 1070 Ti in derer Referenzdesign sowie einem EVGA-Herstellerdesign, welche PC Perspective in ihr Launchreview zur GeForce GTX 1070 Ti gesteckt haben. Bei selbiger Grafik ist die primäre Differenz zwischen Referenz- und Herstellerdesign sehr gut zu sehen: Alle beide Grafikkarten starten auf grundsätzlich denselben Taktraten (im konkreten Beispiel das Referenzdesign sogar auf höheren Taktraten als das Herstellerdesign), aber über die höheren Chiptemperaturen, welche das Referenzdesign dann im weiteren Verlauf erreicht, geht die Taktrate des Referenzdesigns stärker nach unten als die Taktrate des Herstellerdesigns. Praktisch stößt im konkreten Beispiel (Unigine Heaven-Benchmark) das Referenzdesign sogar ziemlich schnell und dann durchgehend an das Temperatur-Limits der nVidia-Chips von aktuell einheitlich 83°C an, ein gewisser Verlust an Taktrate ist hiermit nur folgerichtig. Das Herstellerdesign liegt hingegen weit weg bei nur grob 65°C Chiptemperatur – und dürfte somit das Temperatur-Limit selbst nach minutenlanger Aufheizung des Rechners kaum jemals erreichen können.

18 18

Wie ist der Ersteindruck zu nVidias GeForce GTX 1070 Ti?

Alle Entscheidungsgrundlagen zur dieser Frage findet man in den zahlreichen Launchreviews, dem Forendiskussions-Thread zum Launch sowie natürlich unserer Launch-Analyse zu nVidias GeForce GTX 1070 Ti.

17

Hardware- und Nachrichten-Links des 15./16./17. November 2017

Die ComputerBase hat sich mit VR-Gaming auf Midrange-Grafikkarten beschäftigt, konkret wurden hierbei Radeon RX 580 und GeForce GTX 1060 zum Test eingeladen. Regulär gesehen sollte aufgrund der hohen Auflösungen von VR (automatisch ja immer erst einmal das Doppelte eines regulären Monitors) diese Grafikkarten weit entfernt von jeglicher Diskussion bezüglich einer VR-Tauglichkeit sein – aber derzeit fällt dies noch nicht wirklich auf, da die meiste VR-Software speziell für VR produziert wird und somit auf hohe Frameraten optimiert ist. Bei ernsthaften PC-Spielen unter VR fällt der extreme Leistungsbedarf von VR allerdings auf, wenn beispielsweise Project Cars 2 auf beiden genannten Midrange-Grafikkarten nur mit ca. 50 fps läuft, dafür aber schon die Grafikqualität maßgeblich abgesenkt werden muß. Bei speziellen VR-Titel fällt dies wie gesagt nicht auf und dort werden oftmals auch stabil über 90 fps mit diesen beiden Midrange-Grafikkarten erreicht.

17

Neuer Artikel: Launch-Analyse nVidia GeForce GTX 1070 Ti

Mittels der GeForce GTX 1070 Ti hat Grafikchip-Entwickler nVidia am 2. November 2017 eine weitere Grafikkarte basierend auf dem GP104-Chips ins Rennen geschickt. Technisch, von der Performance und ihrem Preispunkt her zwischen den bereits im Frühling des letzten Jahres veröffentlichten GP104-basierten Karten GeForce GTX 1070 & 1080 liegend, mutet die GeForce GTX 1070 Ti etwas seltsam an – und läßt sich wohl nur darüber erklären, das nVidia unbedingt einen schnelleren Kontrahenten zur Radeon RX Vega 56 erschaffen wollte, nachdem selbige AMD-Karte letztlich leicht schneller als die GeForce GTX 1070 herausgekommen ist. Die GeForce GTX 1070 Ti soll dies mit einer Rechenleistung nahe der GeForce GTX 1080 und aber weiterhin einer Speicherbandbreite auf Höhe der GeForce GTX 1070 erreichen. Wir werden nachfolgend herausarbeiten und verdichten, was die Launch-Reviews zu Taktraten, Stromverbrauch, Performance und Overclocking-Fähigkeiten der neuen nVidia-Karte zu sagen hatten ... zum Artikel.

Vega56 Vega64 1070 1070Ti 1080
durchschn. FullHD-Performance 90,8% 99,5% 89,2% 100% 106,6%
durchschn. WQHD-Performance 91,9% 103,7% 87,9% 100% 107,5%
durchschn. UltraHD-Performance 92,8% 105,8% 87,4% 100% 108,4%
FHD Perf.Index 820% 900% 800% 900% 960%
4K Perf.Index 114% 129% 107% 122% 132%
Spiele-Verbr. 226W 291W 145W 176W 174W
Straßenpreis 470-530€ 550-590€ 400-450€ 450-490€ 490-540€
14

Hardware- und Nachrichten-Links des 13./14. November 2017

Vor kurzem wurde an dieser Stelle eine mögliche Preissenkung bei der GeForce GTX 1070 thematisiert – für welche es zu diesem Zeitpunkt durchaus gute Anhaltspunkte ab, welche sich nun aber in der Praxis nicht zu realisieren scheint. Die europäischen Straßenpreise sehen derzeit die GeForce GTX 1070 jedenfalls keineswegs unterhalb von 400 Euro fallend, insofern ist der angebliche neue Listenpreis von 329 Dollar hier unmöglich bereits im Einsatz. Und so spät im Jahr und auch angesichts der Preissituation bei AMDs Vega-Grafikkarten lohnt sich diese Preissenkung für nVidia nicht wirklich – erst wenn die Radeon RX Vega 56 (derzeit für 470-530€ im Einzelhandel) wirklich einmal Preislagen von unterhalb 400 Euro erreichen sollte, wäre dies ein Thema. Natürlich hat die GeForce GTX 1070 durchaus das Potential für niedrigere Preislagen, denn die Chipgröße (314mm²) sowie das Referenzboard mit einem Power-Limit von 150 Watt liegen knapp noch im Midrange-Bereich – da wären Preislagen eher in Richtung 300 Euro durchaus vertretbar anderhalb Jahre nach Release. Aber die Schwäche des Wettbewerbs (aka AMD) verhindert derzeit diese eigentlich im Laufe der Grafikkarten-Lebenszeit durchaus natürliche Preisreduzierung.

GeForce GTX 1070 GeForce GTX 1070 Ti GeForce GTX 1080
Listenpreis 379$ 449$ 499$
Straßenpreis 410-450€ 460-500€ 500-550€
13

nVidia überspringt "Volta" im Gaming-Bereich und bringt im Q2/2018 gleich die "Ampere"-Generation

In den letzten Tagen haben sich einige interessante Neuigkeiten zu den näheren Zukunftsplänen von nVidia im Bereich von neuen Gaming-Grafikchips ergeben. Ausgangspunkt des ganzen ist natürlich, das es zwar die Volta-Architektur für HPC-Bedürfnisse gibt, die entsprechenden Gaming-Chips bislang jedoch nicht erschienen sind, laut einer kürzlichen Meldung sogar auf das zweite Quartal 2018 (oder später) verschoben wurden. Interessanterweise soll in der hierzu erspähten internen Roadmap nicht mehr der Eintrag "Volta" an dieser terminlichen Stelle gestanden haben, sondern einfach nur noch "Gen. 4" – was nunmehr plötzlich eine neue Bedeutung bekommt. Denn zuerst berichteten Heise kürzlich darüber, das der Nachfolger der aktuellen Pascal-Grafikkarten unter dem Codenamen "Ampere" laufen sollen. Eine klare Bestätigung dessen findet sich nunmehr in unserem Forum mittels zweier Posts durch (wieder einmal) Igor Wallossek von Tom's Hardware:

Volta ist gestorben, da kommt für Consumer nichts mehr. Man kann den Namen der nächsten Generation in Q2 aber leicht erraten, wenn man mal James Watt durch Alessandro Volta teilt.
Quelle:  Igor Wallossek von Tom's Hardware @ 3DCenter-Forum
 
Ampere ist fix, Q2 2018 auch. Die Ersten fangen ja jetzt schon mit der BoM an.
Quelle:  Igor Wallossek von Tom's Hardware @ 3DCenter-Forum
12

Hardware- und Nachrichten-Links des 11./12. November 2017

Die ComputerBase wie auch die PC Games Hardware haben sich die Grafikkarten-Performance von Star Wars Battlefront 2 im aktuellen Early-Access-Stadium des Spiels angesehen. Bis zum Spielrelease am 17. November dürften seitens des Entwicklers zwar eher nur noch Bugs gefixt werden, allerdings fehlen derzeit noch die speziell angepassten Treiber von AMD und nVidia. Aufgrund der Verwendung der Frostbite-Engine bei Star Wars Battlefront 2 dürfte der Effekt von angepassten Treibern aber eher als geringfügig einzuschätzen sein, vor allem da die Grafikkarten-Performance schon jetzt sehr gut aussieht: Unter FullHD kommen selbst Midrange-Grafikkarten wie Radeon RX 580 und GeForce GTX 1060 6GB der 100-fps-Marke nahe und unter UltraHD bieten Radeon RX Vega 64 und GeForce GTX 1080 Ti noch Frameraten von um die 50 fps an. Teilweise sieht man dabei AMD-Hardware tendentiell etwas vorn – sicher wird man dies dann aber erst mit der Release-Version und angepassten Treibern bestimmen können.

12

Erste 3DMark-Werte zu Intels APU mit AMD-Grafik

Mit ein wenig herumsuchen lassen sich dem entsprechenden Forenthread zur Intel-CPU mit AMD-Grafik auch eine Reihe erster Benchmark-Ergebnisse zu dieser "Intel-APU" entnehmen. Die meisten hiervon sind leider unter wenig vergleichsfähigen Benchmarks aufgenommen bzw. betreffen vornehmlich die CPU-Performance, welche allerdings weniger denn in Frage steht – was Intel hierzu liefern kann, weiss man schließlich im ungefähren. Interessant sind im eigentlichen nur Grafik-Benchmarks, da mittels dieser die Performance der integrierten AMD-Grafiklösung samt deren HBM2-Speicher eruiert werden kann. Hierzu liegen derzeit nur 3DMark11-Werte unter dem Performance-Test dieses Benchmarks vor (entspricht einer Auflösung von 1280x720) – womit faktisch nur die reinen GPU-Werte davor schützen, in den CPU-limitierten Bereich hineinzufallen. Die vorliegenden Werte zur Intel-APU schwanken dabei einigermaßen von 11442 GPU-Punkten bis hin zu 13341 & 14127 GPU-Punkten, wobei letztere Resultate in jedem Fall aktueller sind, da hierbei schon die CPU-Bezeichnung korrekt genannt wird. Sicherheitshalber vom mittleren Resultat ausgehend, läßt sich die 3DMark11-Performance der Intel-APU im Mobile-Bereich somit folgendermaßen skizzieren:

Einsatzort 3DMark11 GPU Quellen
GeForce GTX 1060 (Mobile) Notebook, 80W TGP 14731 Notebookcheck
Intel-APU Notebook (Testsample auf Desktop-Mainboard) 13341 Tum Apisak @ YouTube
GeForce GTX 1060 MaxQ Notebook, 60-70W TGP 13333 Notebookcheck
GeForce GTX 1050 Ti (Mobile) Notebook, 64W TGP 9754 Notebookcheck
Radeon Mobile RX 460M Notebook 7792 Notebookcheck
GeForce GTX 1050 (Mobile) Notebook, 53W TGP 7731 Notebookcheck
Radeon Mobile RX 550M Notebook 5557 Notebookcheck
Ryzen 7 2700U (Raven Ridge) Notebook, ~35W TDP (CPU+GPU) 4072 PC Perspective
Iris Plus Graphics 640 Notebook, 15W TDP (CPU+GPU) 2379 Notebookcheck
Radeon R7 (Bristol Ridge) Notebook, 15W TDP (CPU+GPU) 1852 Notebookcheck
HD Graphics 630 Notebook & Desktop, 15-95W TDP (CPU+GPU) 1665 Notebookcheck
HD Graphics 620 Notebook & Desktop, 15-95W TDP (CPU+GPU) 1500 Notebookcheck
12

Samsungs GDDR6-Speicher erreicht 16 GHz Datentakt

Samsung hat in einer Pressemitteilung auf einige Awards hingewiesen, die dem Unternehmen für die eigentlich erst im kommenden Januar anstehende CES 2018 verliehen wurden. Darunter wurde auch GDDR6-Speicher mit einem satten Datentakt von 16.000 MHz (wie der real anliegende Takt ist, muß sich noch zeigen) aka einer Datenraten von 16 Gbps per Pin genannt – oder anders formuliert, damit ist schon eine glatte Verdopplung gegenüber GDDR5-Speicher mit 4000 MHz DDR Taktrate (Datentakt 8000 MHz) erreicht. Inwiefern jener Speicher auch noch lieferbar wäre, spricht Samsung wohlweislich nicht – nicht auszuschließen, das man für das Erringen der CES-Awards nur einzelne Samples vorzeigen musste (was aber immer noch besser ist als die reine Ankündigung von GDDR6-Speicher mit 16 Gbps seitens SK Hynix in diesem Frühling). Samsungs augenscheinlich real existierender GDDR6-Speicher zeigt in jedem Fall dahin, wohin die zukünftige Entwicklung bei GDDR6 gehen wird – selbst wenn am Anfang des GDDR6-Supports erst einmal etwas geringe Taktraten lieferbar sind.

GDDR5 GDDR5X GDDR6 HBM2
GPU-Interface flexibel, üblich bis zu 512 Bit flexibel, üblich bis zu 384 Bit flexibel, wahrscheinlich bis zu 384 Bit 1-4 Stacks, pro Stack 1024 Bit
üblicher Speichertakt bis zu 4500 MHz DDR derzeit bis zu 3000 MHz QDR
(bis zu 3500 MHz QDR geplant)
bis zu 16 Gbps geplant derzeit bis zu ~880 MHz DDR
(bis zu 1000 MHz DDR geplant)
Datenübertragung DDR (= x2) QDR (= x4) ? DDR (= x2)
Speicherbandbreite eines Spitzenprodukts 384 GB/sec
(Radeon R9 390X)
528 GB/sec
(GeForce GTX 1080 Ti)
- 900 GB/sec
(Tesla V100)
maximale Speicherbandbreite 576 GB/sec
(4500 MHz DDR @ 512 Bit SI)
896 GB/sec
(3500 MHz QDR @ 512 Bit SI)
1024 GB/sec
(16 Gbps @ 512 Bit SI)
1024 GB/sec
(1000 MHz DDR @ 4096 Bit SI)
realisierbare Speichermengen flexibel bis zu 16 GB
(Vielfache von 64 MB)
flexibel bis zu 32 GB
(Vielfache von 512 oder 768 MB)
noch unklar flexibel bis zu 32 GB
(pro Stack 4 oder 8 GB)
Verfügbarkeit voll verfügbar vernünftig verfügbar Jahresanfang 2018 vernünftig verfügbar
Inhalt abgleichen