18

JEDEC bohrt die HBM2-Spezifikation auf: Bis zu 1200 MHz Takt, bis zu 24 GB Speicher pro Stack

Das Speicherstandardisierungs-Gremium JEDEC hat die offizielle Speicherspezifikation für HBM-Speicher aktualisiert, welche in der Folge nunmehr deutlich mehr Möglichkeiten für den aktuellen HBM2-Speicher bietet – ohne das dies allerdings als wirklich neuer Standard tituliert werden würde ("HBM1" und "HBM2" scheinen sowieso keine offiziellen Bezeichnungen zu sein, haben sich allerdings derart eingebürgert). Dabei sind die Änderungen durch die Aufbohrung des HBM-Standards durchaus beachtbar: Die Speichertakt geht von 1000 MHz DDR auf 1200 MHz hinauf, zudem steigt die mögliche Speichermenge pro HBM-Stack von 8 GB auf satte 24 GB an. Damit könnte der Stappelspeicher in seiner maximal üblichen Fassung (bei 4 Speicherstacks) eine Speichermenge von 96 GB liefern – was man in jedem Fall als ausreichend zukunftssicher angesehen kann, gerade gegenüber dem Anfang von HBM, wo man seinerzeit auf maximal 4 GB (bei den Fiji-basierten Grafikkarten) festhing. Mangels einer besseren Bezeichnung und zur besseren Abgrenzung lassen wir die neue Spezifikation derzeit einfach mal unter "HBM2.5" laufen, eventuell gibt es hierzu in Zukunft noch eine bessere Benennung.

HBM1 HBM2 HBM2.5
HBM-Stacks üblicherweise 4 üblicherweise 2/4 üblicherweise 2/4
GPU-Interface pro Stack 1024 Bit pro Stack 1024 Bit pro Stack 1024 Bit
üblicher Speichertakt bis zu 500 MHz DDR bis zu 1000 MHz DDR bis zu 1200 MHz DDR
maximale Speicherbandbreite 512 GB/sec
(512 MHz DDR @ 4096 Bit)
2048 GB/sec
(1000 MHz DDR @ 8192 Bit)
2458 GB/sec
(1200 MHz DDR @ 8192 Bit)
realisierbare Speichermengen pro Stack 1 GB pro Stack 1/2/4/8 GB pro Stack 1/2/4/8/12/16/24 GB
maximale Speichermenge (4 Stacks) 4 GB 32 GB 96 GB
2-Stack-Konfiguration 2 GB @ 256 GB/sec 16 GB @ 512 GB/sec 48 GB @ 614 GB/sec
4-Stack-Konfiguration 4 GB @ 512 GB/sec 32 GB @ 1024 GB/sec 96 GB @ 1228 GB/sec
Verfügbarkeit voll verfügbar voll verfügbar unbekannt
17

Hardware- und Nachrichten-Links des 17. Dezember 2018

Laut Andreas Schilling von Hardwareluxx auf Twitter kommt etwas zur GeForce RTX 2060 bereits in der zweiten Januar-Woche des Jahres 2019. Dies liegt noch knapp im Zeitrahmen der CES, welche nächstes Jahr von 8. bis 11. Januar läuft – der Start der zweiten Jahreswoche liegt auf dem 10. Januar, in Kalendersystemen mit Sonntag als Wochenstart allerdings auf dem 9. Januar. Dies könnte auf eine offizielle Vorstellung zur CES hinauslaufen – oder auch schon (im Idealfall) auf einen echten Launch zum Ende dieser zweiten Kalenderwoche. In jedem Fall bestätigt das beigefügte Marketing-Material die Existenz dieser Karte in exakt dieser Schreibweise, zudem wird auch deren Desktop-Version im weiteren Text bestätigt. Damit wird auch (letztmalig) klar, das nVidia das ganze unter "RTX" (und nicht "GTX") und damit weiterhin als RayTracing-Beschleuniger laufen läßt. Bestätigt wurden zudem die 6 GB GDDR6-Speicher, was klar auf ein 192-Bit-Speicherinterface hinausläuft und damit die bisherigen Hardware-Angaben aus der Gerüchteküche stützt. Aufgrund der vermutlichen technischen Nähe zur GeForce RTX 2070 dürfte die GeForce RTX 2060 letztlich auf dem gleichen TU106-Chip basieren, wohl also schlicht dessen obligatorische Salvage-Lösung darstellen.

17

Erste Daten zu den Mobile-Modellen des Raven-Ridge-Refreshs "Picasso" aufgetaucht

Der eigentlich immer korrekt liegende Leaker 'Tum Apisak' gibt einen Ausblick auf die Modelle des kommenden Raven-Ridge-Refrehs "AMD Picasso" für den APU-Bereich. Zuerst gab es auf Twitter eine Liste der kommenden Mobile-Modelle (U-Serie mit 15 Watt TDP), nachfolgend auf Reddit entsprechende Links zur Geekbench-Datenbank, welche bereits einige Modelldaten hierzu offeriert. Mit diesen ersten Modelldaten bestätigt sich das, was letztlich eigentlich schon klar war, durch verschiedene Gerüchte in letzter Zeit allerdings teilweise in Zweifel gezogen wurde: Picasso ist ein klarer Refresh von Raven Ridge (wie eigentlich schon auf einer früheren AMD-Roadmap eindeutig notiert), geboten wird die gleiche Technik bezüglich der Anzahl an CPU-Kernen zu nur minimal höheren Taktraten von jeweils 100 MHz Basetakt. Die maximalen Turbo-Taktraten sind zwar nicht bekannt, aber angesichts des Basetakts erscheint alles andere als die 14nm- oder 12nm-Fertigung ausgeschlossen – Picasso bzw. diese APU-Generation hat also noch nichts mit Zen 2 bzw. deren 7nm-Fertigung zu tun.

Raven Ridge Picasso
Ryzen 5 2500U
4C/8T, 2.0/3.6 GHz, 15W TDP
Ryzen 5 3500U
4C/8T, 2.1/? GHz, 15W TDP
Ryzen 3 2300U
4C/4T, 2.0/3.4 GHz, 15W TDP
Ryzen 3 3300U
4C/4T, 2.1/? GHz, 15W TDP
Ryzen 3 2200U
2C/4T, 2.5/3.4 GHz, 15W TDP
Ryzen 3 3200U
2C/4T, 2.6/? GHz, 15W TDP
16

Hardware- und Nachrichten-Links des 15./16. Dezember 2018

Von PC Games Hardware und ComputerBase kommen Technik-Tests mit Benchmarks zu Fallout 76, wobei letztere sich das Spiel leider noch vor der Verfügbarkeit der Vsync-Deaktivierung angesehen haben, was sich dann arg limitierend auf die (im Benchmark gemessenen) Frameraten unter FullHD sowie WQHD auswirkt. Denn Fallout 76 bringt üblicherweise satte Frameraten auf den Monitor, für durchschnittlich 50 fps unter FullHD sollten GeForce GTX 1050 Ti oder Radeon R9 380X ausreichend sein, unter WQHD geht dies immerhin auf GeForce GTX 970 oder Radeon RX 480 hinauf. Nur unter UltraHD fallen die Frameraten (sehr) massiv ab, hierfür wird man dann GeForce RTX 2070 oder Radeon RX Vega 64 LC ansetzen müssen. In allen Fällen ist eine deutliche Tendenz des Spiels pro nVidia zu sehen, welche erst in der UltraHD-Auflösung dann in einen negierbaren Bereich zurückgeht. Aufgrund der zumeist erreichten hohen fps-Zahlen unter FullHD und WQHD macht dies allerdings keinen besonders relevanten Unterschied aus.

Fallout 76 FullHD WQHD UltraHD
Ø 35 fps GeForce 950 "SE" oder Radeon R7 270X GeForce GTX 1050 Ti oder Radeon R9 380X GeForce GTX 1070 oder Radeon RX Vega 56
Ø 50 fps GeForce GTX 1050 Ti oder Radeon R9 380X GeForce GTX 970 oder Radeon RX 480 GeForce RTX 2070 oder Radeon RX Vega 64 LC
Gfx-Speicher nicht unter 4 GB, empfohlen 6 GB 6 GB empfohlen Richtung 8 GB (?)
interpoliert gemäß der Benchmarks von PC Games Hardware und ComputerBase
16 16

Werden Spiele-Distributionsdienste (Steam, Origin & Uplay) genutzt (2018)?

Dies ist die Wiederholung einer 2015er Umfrage, welche sich thematisch an eine 2011er Umfrage anschließt. Hierbei sollen zwei Fragen geklärt werden: Erstens wie verbreitet neben Steam derzeit die beiden anderen großen Spiele-Distributionsdienste Origin und Uplay sind – und zweitens ob die Ablehnung dieser Dienste noch eine Rolle spielt bzw. welche Gegenmaßnahmen die Spieler hierzu ansetzen. Die Nutzung von GOG wurde deswegen bewußt hier nicht abgefragt, da bei GOG kein verpflichtendes DRM zum Einsatz kommt und die zweite Frage auf diesen Dienst gar nicht zutrifft.

14

Hardware- und Nachrichten-Links des 14. Dezember 2018

Bei PC Games Hardware (Feature-Erklärung), TweakPC (Feature-Erklärung & Performance-Tests) und WCCF Tech (Tests zur automatischen Übertaktung & Undervolting) hat man sich mit AMDs neuem "Adrenalin 2019" Treiber beschäftigt. Bezüglich der Feature-Vielfalt hat AMD augenscheinlich nochmals oben drauf gelegt, das ganze kann sich nun wirklich sehen lassen. Die automatische Overclocking/Undervolting-Funktionalität funktioniert rein technisch, bringt aber wegen "Sicherheit zuerst" sowie den zuletzt nur noch maßvollen Übertaktungs-Spielräumen neuer AMD-Grafikkarten nicht viel – wer wirklich etwas herausholen will, kommt weiterhin nicht um manuelles Feintuning herum. Bei allgemein geringen Unterschieden gefällt dabei die Undervolting-Funktion noch mit am besten, da hierbei sowohl die Grafikkarten-Effizienz steigt, als auch geringfügig mehr Performance herausgeholt wird (niedrigere Spannungen ergeben einen geringeren Stromverbrauch und somit mehr Taktraten-Spielraum unter dem festgesetzten Power-Limit). Die umfangreichen Performance-Messungen seitens TweakPC ergeben dann exakt das, was AMD vorher schon angekündigt hatte: Mehr Performance war nicht die Zielsetzung bei dieser neuen Treiber-Revision.

14

Umfrage-Auswertung: Wie ist der bisherige Eindruck zu RayTracing?

Mit einer Umfrage von Ende November wurde nach dem ersten Eindruck zu RayTracing gefragt, was sich primär auf das erste öffentlich einsichtbare Beispiel in Form von Battlefield V bezieht. Der Umfrage-Zeitpunkt war dabei noch vor dem letzten Patch zu Battlefield V, welcher die RayTracing-Performance sehr erheblich steigerte – insofern könnte derzeit die Bewertung auch schon wieder leicht besser ausfallen. Dies gilt insbesondere für die mit 38,7% größte Stimmengruppe, welche den Optik-Effekt von RayTracing durchaus anerkennen, den hiermit einhergehenden Performance-Verlust allerdings (auf derzeitiger Hardware) noch für zu groß halten. In dieser Gruppe dürfte es sicherlich angesichts der neuen Benchmark-Ergebnisse einige inzwischen positiver gegenüber RayTracing gestimmte Nutzer geben.

13

Hardware- und Nachrichten-Links des 12./13. Dezember 2018

Die PC Games Hardware macht auf das praktische Auslaufen der GeForce GTX 1070 Ti aufmerksam – die Karte wird derzeit teurer und mit klar zurückgehender Verfügbarkeit angeboten als in den letzten Wochen. Da die GeForce GTX 1070 Ti eigentlich außerhalb des Wirkungskreis' der GeForce RTX 2070 liegt, deutet sich hiermit der nachfolgende Release einer weiteren Turing-Lösung an – augenscheinlich der GeForce RTX 2060, welche voraussichtlich in diesem Preisbereich operieren wird. Ein weiteres Opfer dieser kommenden Neuvorstellung dürfte wohl auch die GeForce GTX 1070 werden, welche zwar derzeit zu wirklich guten Preisen angeboten wird, diese guten Angebote allerdings nur eher schlecht verfügbar sind – was auf ausbleibende Nachlieferungen schließen läßt. Rein vom Listenpreis (von 379 Dollar) her könnte die GeForce GTX 1070 der GeForce RTX 2060 sicherlich zu nahe stehen, ergo müsste dann auch diese Karte aufs Altenteil. Nur, wenn die GeForce GTX 1070 sich bei den Straßenpreisen deutlich absetzen kann (Richtung 300 Euro), wäre jene Karte im Turing-Zeitalter noch konkurrenzfähig. Vermutlich dürfte nVidia aber eher daran gelegen sein, den zugrundeliegenden GP104-Chip nunmehr gleich gänzlich aus dem Programm zu nehmen.

Technik 4K-Index TDP Liste Str. 21.10. Str. 13.12.
GeForce RTX 2070 Turing TU106, 2304 SE @ 256 Bit GDDR6-Interface 146% 175W 499$ 520-600€ 470-520€
Radeon RX Vega 64 Vega 10, 4096 SE @ 2048 Bit HBM2-Interface 132% 295W 499$ 480-540€ 450-500€
GeForce GTX 1080 Pascal GP104, 2560 SE @ 256 Bit GDDR5X-Interface 132% 180W 499$ 480-560€ 530-590€
GeForce RTX 2060 Turing TU106 (?), 1920 SE @ 192 Bit GDDR6-Interface ~120-125% ? ? - -
GeForce GTX 1070 Ti Pascal GP104, 2432 SE @ 256 Bit GDDR5-Interface 122% 180W 449$ 430-460€ 400-460€
Radeon RX Vega 56 Vega 10, 3584 SE @ 2048 Bit HBM2-Interface 117% 210W 399$ 400-450€ 370-420€
GeForce GTX 1070 Pascal GP104, 1920 SE @ 256 Bit GDDR5-Interface 107% 150W 379$ 400-420€ 320-350€
Performance- und TDP-Angaben zu den Turing-Karten gemäß deren Referenztaktung (nicht der FE-Taktung)
13

Intel-iGPU "Gen11" mit Tile-based Rendering, extra Grafikchips "Xe" skalierbar von iGPU bis HPC

Neben der Cove-Familie an CPU-Kernen und der MultiChip-Technologie "Foveros" hat Intel auf seinem "2018 Architecture Day" doch noch einiges zu zukünftigen Grafiklösungen gesagt. Als wichtigstes hatte man hierzu eine Grafik-Roadmap parat, welche die kommenden Produkte "Gen11" (iGPUs für die Ice-Lake-Generation) sowie "Xe" für die ersten (dedizierten) Intel-Grafikchips nach langer Zeit zeigte. Interessanterweise deutet sich die Xe-Generation (bisher bekannt unter dem Codenamen "Artic Sound") damit als Weiterentwicklung der aktuellen Intel-Grafiklösungen an, nicht als vollständige Neuentwicklung (wie teilweise anzunehmen war). Andererseits muß dies natürlich überhaupt nichts sagen, denn über den Ausbau der Xe-Generation hin zu völlig neuen Performance-Ufern dürften sich ganz automatisch massive Änderungen ergeben, so daß das Xe-Design kaum noch dem früherer Intel-Grafikchips gleichen wird.

13

Intel bringt mit der "Foveros" Technologie seinen eigenen Chiplet-Ansatz

Auf seinem "2018 Architecture Day" hat Intel zeitgleich zur Offenbarung der neuen CPU-Kerne der Glove-Familie die MultiChip-Technologie "Foveros" vorgestellt. Hiermit wird das bisherige Verfahren des Verbaus mehrerer Chips auf einem Package (deutlich) auf die Spitze getrieben: Zum einen können die einzelnen Chips nicht nur nebeneinander, sondern auch übereinander verbaut werden. Zum anderen will man (wie bei AMDs Chiplet-Ansatz bei Zen 2) Chips unterschiedlicher Fertigungstechnologien verbauen können. Intel hat hiermit sozusagen seinen eigenen Chiplet-Ansatz aus der Taufe gehoben – welcher allerdings bereits seinen Vorläufer im Design von Kaby-Lake-G hat, welches wie bekannt einen Intel-Prozessor mit einem AMD-Grafikchip samt HBM2-Speicher auf dasselbe Package bringt. Intel will jenes System nun aber auch rein für den Prozessoren-Bereich adaptieren, ein einfaches Anwendungs-Beispiel wäre ein Kern-Chiplet in einem modernen Fertigungsverfahren, welches auf einem I/O-Chip in einem älteren Fertiungsverfahren sitzt.

Inhalt abgleichen