Nach Microsoft hat nun auch Sony die mehr oder weniger vollständigen Hardware-Spezifikationen seiner NextGen-Konsole "Playstation 5" im Rahmen eines Videostream-Events bekanntgegeben. Eigentlich sollte diese Vorstellung auf der (nunmehr abgesagten) GDC erfolgen – war insofern wohl lange vorher geplant und ist demzufolge keine Reaktion auf die kürzliche Microsoft-Offenlegung der Xbox Series X. Gegenüber dieser hat es die Playstation 5 derzeit in den Augen der Öffentlichkeit schwer, da man mit der Playstation 5 unterhalb der Hardware-Daten der Microsoft-Konsole herauskommt: Bei der CPU ergibt sich noch ein grober Gleichstand, aber die GPU ist mit nur 36 Shader-Clustern und bis zu 10,3 TFlops Rechenleistung an einem 256 Bit GDDR6-Interface doch augenscheinlich kleiner ausgelegt als beim Microsoft-Pendant mit 52 Shader-Clustern auf 12,1 TFlops Rechenleistung an einem 320 Bit GDDR6-Interface.
Sony Playstation 5 | Microsoft Xbox Series X | |
---|---|---|
Prozessor | 8C/16T Zen 2 @ ≤3.5 GHz | 8C/16T Zen 2 @ 3.6 GHz (ohne SMT @ 3.8 GHz) |
Grafiklösung | 36 CU RDNA2 @ ≤2.23 GHz (≤10,3 TFlops) | 52 CU RDNA2 @ 1.825 GHz (12,1 TFlops) |
Speicherinterface | 256 Bit GDDR6 @ 3500 MHz QDR (448 GB/sec) | 320 Bit GDDR6 @ 3500 MHz QDR (Ø 476 GB/sec) |
Speicher | 16 GB GDDR6 | 16 GB GDDR6 (13,5 GB für Spiele) |
Festplatte | 825 GB NVMe-SSD @ 5,5 GB/sec (8-9 GB/sec mit Kompression) | 1 TB NVMe-SSD @ 2,4 GB/sec (4,8 GB/sec mit Kompression) |
Preislage | ??? | ??? |
Release | "Holiday Season" 2020 | "Holiday Season" 2020 |
Nach der bereits weitgehenden Microsoft-Offenlegung Ende Februar zur Technik der kommenden Spielekonsole "Xbox Series X" haben Microsoft im eigenen Xbox-Blog sowie Eurogamer mittels eines unter Mithilfe von Microsoft entstandenden Artikels die Konsolen-Spezifikationen nun nochmals genauer ausgeführt – und dabei insbesondere die bestehenden Wissenlücken bei CPU, Speicherinterface und Speichermenge geschlossen. Somit präsentiert sich der SoC der Xbox Series X nunmehr als ein 360mm² großer Chip mit 15,3 Mrd. Transistoren unter der N7P-Fertigung von TSMC – hierbei kommt also noch keine EUV-Belichtung zum Einsatz, sondern "nur" das zweitbeste der drei 7nm-Verfahren von TSMC. In diese nahe der Xbox One X kommende Chipfläche quetschen AMD und Microsoft dann 8 CPU-Kerne auf Basis von Zen 2 samt SMT auf Taktraten von 3.8 GHz sowie eine RDNA2-basierte Grafiklösung mit 52 Shader-Clustern (aka 3328 Shader-Einheiten) auf 1825 MHz GPU-Takt – was dann 12,1 TFlops FP32-Rechenleistung ergibt und damit früheren Microsoft-Vorgaben entspricht.
In einer Diskussion im chinesischen PTT-Forum hat der bekannter Nutzer "Sharkbay" einen Teil einer (angeblichen) Intel-Unterlage zu Intels Prozessoren-Generation "Alder Lake" zum besten gegeben (direkt auf Imgur aufrufbar, via Videocardz). Folgt man den dortigen Angaben, dann kommt jene "Alder Lake" Prozessoren-Generation im neuen Sockel LGA 1700 in einem big.LITTLE-Design heraus – mit also zum Teil leistungsstarken Prozessoren-Kernen aus (wahrscheinlich) Intels "Cove" Kern-Reihe (verbaut bei den "Core"-Prozessoren) und zum Teil sehr stromsparenden Prozessoren-Kernen aus (wahrscheinlich) Intels "Mont" Kern-Reihe (verbaut bei allen LowPower-Prozessoren, früher die "Atom"-Linie). Konkret werden hierbei Desktop-Prozessoren von "Alder Lake-S" mit bis zu 8 Cove- sowie gleichzeitig bis zu 8 Mont-Kernen als augenscheinlichem Maximal-Ausbau genannt, kleinere Prozessoren-Versionen verzichten dann teilweise auf einige Cove- bzw. teilweise auch auf alle Mont-Kerne:
Aus unserem Forum kam noch letzten Herbst die Anregung, eine seinerzeitige Gegenüberstellung der GeForce GTX 1660 Super mit gleich schnellen älteren nVidia-Karten erneut aufzulegen – nunmehr aber Preis- und nicht Performance-basiert. Mit etwas Herumkramen in den Archiven war dieser Anregung nachzukommen – leider geht es nicht unterhalb der GeForce-200-Generation, weil sich dann die verfügbaren Informationen über die offiziellen Listenpreise immer mehr verflüchtigen. Die nachfolgende Aufstellung macht somit kenntlich, was nVidia im Preissegment von 200 bis 250 Dollar über die letzte Dekade so angeboten hat. Dabei gab es teils beachtbare Unterschiede zwischen Karten zu 199$ und 249$ Listenpreis – letztere haben oftmals deutlich höhere Stromverbrauchswerte, basieren dann gern (nicht immer) auf einem viel größeren Grafikchip bzw. nicht auf einem explizit für dieses Preissegment aufgelegten Chip. Besonders deutlich ist dies bei der GT200b-basierten GeForce GTX 275 zu sehen, welche nur zum Zweck des Preiskampfs mit ATIs Radeon HD 4890 veröffentlicht und dann auf die seinerzeit notwendige Preislage heruntergebracht wurde.
Architektur | Release | FHD-Perf. | Realverbr. | Liste | Perf./Preis | P/P per Jahr | |
---|---|---|---|---|---|---|---|
GeForce GTX 275 | Tesla 2 (55nm) | 2. April 2009 | ~140% | 178W | 249$ | 100% | - |
GeForce GTX 460 1GB | Fermi (40nm) | 12. Juli 2010 | 160% | 113W | 229$ | 119% (+19%) | +15% per Jahr |
GeForce GTX 560 Ti | Fermi (40nm) | 25. Januar 2011 | 210% | 149W | 249$ | 150% (+26%) | +48% per Jahr |
GeForce GTX 660 | Kepler (28nm) | 13. September 2012 | 250% | 113W | 229$ | 186% (+24%) | +15% per Jahr |
GeForce GTX 760 | Kepler (28nm) | 25. Juni 2013 | 310% | 155W | 249$ | 221% (+19%) | +24% per Jahr |
GeForce GTX 960 | Maxwell (28nm) | 22. Januar 2015 | 340% | 109W | 199$ | 271% (+22%) | +14% per Jahr |
GeForce GTX 1060 6GB | Pascal (16nm) | 19. Juli 2016 | 590% | 114W | 249$ | 421% (+55%) | +37% per Jahr |
GeForce GTX 1660 | Turing (12nm) | 14. März 2019 | 690% | 113W | 219$ | 526% (+25%) | +9% per Jahr |
GeForce GTX 1660 Super | Turing (12nm) | 29. Oktober 2019 | 770% | 126W | 229$ | 574% (+9%) | +15% per Jahr |
Alle Rechnungen zum Performance/Preis-Verhältnis (P/P) erfolgten mit einer Gewichtung des Preis-Effekts auf 50% – sprich, Preis-Veränderungen gingen nur hälftig in diese Rechnung ein. |
Die monatlichen Prozessoren-Verkaufsreports seitens Redditor Ingebor erfreuen sich einiger Beliebtheit innerhalb der IT-Gemeinde, bekommt man hiermit doch ein Marktbild gemäß dem Kaufverhalten von PC-Selbstbauern und informierten Käufern zu sehen – während allgemeine Marktzahlen durch den übergroßen Anteil an OEM-Geschäften (stark) verzerrt werden. Jener Effekt ist im Grafikkarten-Geschäft nicht ganz so dramatisch, aber natürlich dennoch vorhanden – denn im Komplett-PCs wird üblicherweise eine andere Klasse an Grafikkarten verbaut, als im Retail-Segment über die Ladentheken gehen. Basierend auf derselben Datenquelle in Form der öffentlich einsehbaren Mindfactory-Verkaufszahlen soll hiermit nun selbiges für Consumer-Grafikkarten entstehen – ein Grafikkarten-Verkaufsreport für das Retail-Segment. Nachfolgend soll somit aufgeschlüsselt werden, wieviele Consumer-Grafikkarten über die Mindfactory im Monat Januar 2020 verkauft wurden, welcher Umsatz hiermit erzielt wurde – und wie sich dies auf die einzelnen Marktsegmente sowie die beiden Chip-Anbieter AMD & nVidia verteilt ... zum Artikel.
Weit beachtet wird derzeit eine Meldung seitens The Next Platform (via Videocardz), welche sich mit dem kommenden "Big Red 200" Supercomputer der Indiana University in Bloomington (USA) beschäftigt. Jener Supercomputer wird derzeit aufgebaut und beinhaltet in einem ersten Schritt 672 Dual-Socket Nodes mit AMD "Rome" Epyc 7742 Prozessoren, sprich es geht mit der netten Nummer von 86'016 CPU-Kernen los. In der zweiten Phase, welche im Sommer startet, kommen weitere AMD-Prozessoren sowie Grafik-Beschleuniger aus einer neuen nVidia-Generation hinzu. Zu jener wurden offiziell weder Roß noch Reiter genannt, aber es ist klar, das es sich hierbei um HPC-Lösungen basierend auf nVidias Ampere-Architektur handelt. Ursprünglich war jener "Red 200" Supercomputer noch auf Volta-Basis (mit Tesla V100 HPC-Beschleunigern) gedacht, nun aber wird eine etwas kleinere Anzahl an Ampere-Grafiklösungen eingesetzt, um allerdings dennoch die insgesamte Rechenleistung von 5,9 auf knapp 8 PetaFlops zu steigern. Die entscheidende Information hierzu steht nur im Nebensatz, ist aber um so spannender:
The newer silicon is expected to deliver 70 percent to 75 percent more performance than that of the current generation.
Quelle: The Next Platform über die Grafik-Beschleuniger des "Red 200" Supercomputers, vom 30. Januar 2020
Als Teaser zur kommenden Launchanalyse zur Radeon RX 5600 XT sollen hiermit schon einmal die kumulierten Testresultate der Launchreviews zu dieser Karte in die Runde geworfen werden. Selbige Launchreviews haben sich fast ausschließlich an die werksübertakteten Varianten zur Radeon RX 5600 XT gehalten, was gerade angesichts der jüngst hochgesetzten Taktratenreserven für Werksübertaktungen die Festsetzung einer Referenz-Performance um so schwieriger macht. Zudem liegt hier auch noch der inzwischen ziemlich seltene Fall vor, das eine gutklassige Werksübertaktung tatsächlich im zweistelligen Prozentbereich von einer Grafikkarte auf Referenztakt davonziehen kann. Gut zu sehen ist dies anhand der sehr breit getesteten "Sapphire Radeon RX 5600 XT Pulse", welche +17% mehr durchschnittlichen Boosttakt sowie +17% mehr Speichertakt bietet – und damit im Schnitt der FullHD-Benchmarks immerhin ca. +11% Mehrperformance generiert.
AMD-Referenz | Sapphire Pulse | ||
---|---|---|---|
Silent-BIOS | Performance-BIOS (default) | ||
Chiptakt | 1130/1375/1560 MHz | 1235/1460/1620 MHz | 1420/1615/1750 MHz |
Speichertakt | 3000 MHz QDR | 3000 MHz QDR | 3500 MHz QDR |
TBP / ASIC Power-Limit | 150W / 135W | 150W / 135W | ? / 160W |
FullHD-Performance | 100% | 102,5% | 111,3% |
Viel beachtet wird derzeit eine Meldung der taiwanesischen Taipei Times, welche sich zwar eigentlich um die taiwanesischen Grafikkarten-Hersteller dreht, als deren Geschäfts-Vorantreiber im Jahr 2020 allerdings explizit nVidias Ampere-Generation notiert. Hierzu gibt man dann auch eine breit zitierte Performance-Aussage zu Ampere zum besten: Angeblich soll Ampere 50% mehr Performance und zudem die Hälfte des Stromverbrauchs mit sich bringen – erreicht durch die Verwendung der 7nm-Fertigung. Netzweit und in unserem Forum rätselt man nun darüber, wie diese Aussage zu verstehen ist: Denn wenn man beide Angaben zusammenzieht, ergäbe sich schließlich eine gegenüber Turing gesteigerte Energieeffizienz von gleich +200% – was dann wiederum eher unrealistisch klingt. Einzurechnen wäre hierbei allerdings, wer diese Nachricht transportiert und wer die Original-Aussage (mutmaßlich) von sich gegeben hat. Die Taipei Times sind eher ein Wirtschaftsmagazin, können also mit der Technik des ganzen wenig anfangen – und die Original-Aussage ist vermutlich eine Marketing-Aussage seitens nVidia, sprich muß ohne die entsprechend rosarote Brille gesehen werden.
Nvidia’s next-generation GPU based on the Ampere architecture is to adopt 7-nanometer technology, which would lead to a 50 percent increase in graphics performance while halving power consumption.
Quelle: Taipei Times vom 2. Januar 2020
Golem berichten über einen kurzzeitig auf 'Github' zu sehenden Leak, welcher die (angeblichen) Hardware-Spezifikationen von Sonys Playstation 5 und Microsofts Xbox Series X (in der größeren Anaconda-Bauform) offenlegte. Gänzlich sicher hierüber sein kann man sich leider noch nicht, laut unserem Forum gibt es auch abweichende Ansichten sowie existieren zumindest die PS5-Daten erstaunlicherweise schon seit diesem Sommer – nun aber wurde alles innerhalb eines Tages gelöscht, inklusive sogar einiger Tweets hierzu. Letzteres deutet dann eher auf einen Treffer mit diesen Daten hin, auch wenn jene inhaltlich teilweise überraschen. Denn neben einer augenscheinlich ziemlich gleichen CPU-Lösung weichen die Grafik-Lösungen kräftig voneinander ab: Microsoft kommt bei der Xbox Series X mit dem erwarteten dicken Design auf 56 Shader-Clustern und (angeblich) 1675 MHz Grafik-Takt daher, was eine Rechenleistung von 12,0 TFlops ergibt – nahe der GeForce RTX 2080 Super (11,2 TFlops). Dazu gibt es eine durchaus passende Speicherbandbreite von 560 GB/sec auf Basis eines GDDR6-Interfaces, wobei sich Bit-Breite, Taktrate und Speichermenge nicht aus diesem Leak ergeben.
Playstation 5 | Xbox Series X | |
---|---|---|
Prozessor | Zen 2, 8C/16T | Zen 2, 8C/16T |
Grafiklösung | RDNA2, 36 Shader-Cluster @ 2 GHz | RDNA2, 56 Shader-Cluster @ 1675 MHz |
Interface | 256 Bit GDDR6 @ 3500 MHz | ? Bit GDDR6 |
Rohleistungen | 9,2 TFlops @ 448 GB/sec | 12,0 TFlops & 560 GB/sec |
basierend auf einem Leak bei 'Github', gesichert seitens Golem |
Der AMD-seitig bereits besprochene Conference Call von Charlie Demerjian mit der Investment-Firma "Susquehanna", welcher in umfangreicher Form auf Reddit niedergelegt wurde, ergeht natürlich vorwiegend zu Intel bzw. Intels aktuellen Problemen. Folgt man dabei den Ausführungen seitens Charlie Demerjian von SemiAccurate, dann wird Intel mehr oder weniger alle seine mittelfristigen Pläne nicht einhalten können, respektive sich die Intel-Roadmap grob um ein Jahr verschieben. Einzurechnen wäre hierbei allerdings, das Charlie durchaus dafür bekannt ist, mit Intel besonders hart ins Gericht zu gehen – sowie gleichzeitig auch der Punkt, das Intel erst kürzlich eine der primären Aussagen über eine Verschiebung der Server-Generation "Ice Lake SP" klar dementiert hat. Wieviel wirklich dran ist an diesen Weltuntergangs-News zu Intel, wird die Zeit zeigen – ganz so schlimm wie berichtet ist es schwer vorstellbar, dies wäre dann wirklich desaströs für Intel. Aber es gibt auch einen beachtenswerten Abschnitt, welcher völlig unabhängig von diesen Roadmap-Widrigkeiten auf den eigentlichen Grund der 14nm-Lieferschwierigkeiten bei Intel eingeht:
In H2 of 2018, the shortages were due to server performance hits over security vulnerabilities.
In December of 2018, they admitted that it was due to increasing die size, which dropped the number of chips that they can produce.
This is due to AMD.
Intel's sweet spot, with 60% of sales, used to be 80-90 mm^2.
AMD core increases drove that up to 125 mm^2, so they lost one third of their production capacity.
Intel's original plan was to have a four core max at 14 nm. That is now 6 to 8 cores, even 10.
Quelle: Charlie Demerjian im Confernce Call mit Susquehanna, niedergeschrieben bei Reddit am 20. Dezember 2019