11

Hardware- und Nachrichten-Links des 10./11. November 2018

Bei AnandTech hat man sich mit den verschiedenen Power-Limits von Intel-Prozessoren beschäftigt, welche wie bekannt bei den Coffee-Lake-Refresh-Modellen Core i7-9700K und Core i9-9900K für einen bemerkbar höheren Stromverbrauch sorgen, als deren TDP eigentlich zulassen würde. Hierbei ergab sich auch, das einige der hierfür eigentlich benötigten Informationen seitens Intel als "confidential" klassizifiert sind und damit nicht herausgegeben werden – was nun nicht unbedingt günstig ist zur exakten Erfassung dieser Problematik. Am Ende landet man jedoch sowieso wieder bei der Verantwortung der Mainboard-Hersteller, welche in aller Regel die Intel-Vorgaben für ihre Retail-Mainboards ignorieren sowie die entsprechenden BIOS-Settings mit Maximal-Werten füllen: Das PL1 anstatt 95 auf 165 Watt, das PL2 anstatt 118 Watt auf unlimitiert und die Zeitspanne, in welcher das PL2 wirken darf ("Tau") ebenfalls auf unlimitiert. Der Prozessor hat damit überhaupt kein praktisches Power-Limit mehr und regelt sich maximal noch anhand seines Temperatur-Limits herunter. Dies kann zu erheblichen Performance-Unterschiede bei die CPU wirklich beanspruchenden Benchmarks führen:

PL1 PL2 Tau Performance
vollkommen unlimitiert 4096W 4096W 999sec 100%
konstant 165W 165W 165W 1sec 94%  (-6%)
Intel-Spezifikation 95W 118W 8sec 84%  (-16%)
konstant 95W 95W 95W 1sec 71%  (-29%)
Aufstellung direkt übernommen von AnandTech; die benutzte CPU ist augenscheinlich der Core i7-8700K, der benutzte Benchmark ist wahrscheinlich POV-Ray, das benutzte Mainboard wurde dagegen leider nicht genannt

Leider wurde der benutzte Benchmark nicht genannt, vermutlich handelt es sich um einen stark mit der Prozessorenleistung skalierenden Test, sprich zeigt dieser Test eher die maximal möglichen Differenzen auf. In diesem besteht zwischen unlimitierter CPU-Performance und der Intel-Spezifikation allerdings immerhin schon eine Differenz von -16% (bzw. +19%), was angesichts des heutigen Konkurrenzkampfes im CPU-Geschäft jede Menge Holz ist. Wollte man hingegen einen Einsatz in OEM-PCs oder unter Mini-ITX-Bedingungen simulieren (wo oftmals dann auch PL2 auf die Prozessoren-TDP limitiert wird), geht es gleich um -29% (bzw. +41%) nach unten. Hier ergeben sich doch sehr erhebliche Performance-Differenzen allein an dem Punkt, wie die TDP-Settings des BIOS gesetzt werden – was dazu zwingt, dem Thema zukünftig mehr Beachtung zu schenken, genauso wie dies im Grafikkarten-Bereich schon üblich ist. Für die Hardwaretester wird der Fall zudem komplizierter, weil letztlich sogar drei Settings in der Praxis häufig anzutreffen sind: Unlimitiert bzw. hoch limitiert bei Retail-Mainboards, laut Intel-Spezifikation bei OEM-Systemen sowie konstant 95 Watt TDP bei günstigen oder Mini-Systemen.

Intel könnte diesem Wirrwarr natürlich entgegenwirken, indem man seine Prozessoren-TDP ehrlicher ansetzt sowie den Mainboard-Hersteller zumindest die maßlosen Übertreibungen untersagt bzw. selbige in den Overclocking-Bereich (ohne Garantie) verschiebt. Die Hardwaretester könnten hingegen der Sache auch ein paar Zähne ziehen, wenn man nicht alle Hardwaretests üblicherweise im offenen Teststand mit den bestmöglichen Kühlkörpern ansetzt – weil damit das Temperatur-Limit aus der Gleichung genommen wird, was aber gerade für diese Fälle enorm wichtig ist. Denn selbst die vorgenannten Performance-Differenzen dürften sich (mit der gleichen CPU) in der Praxis kaum in dieser Höhe wiederfinden lassen, wenn der Prozessor im geschlossenen Gehäuse viel eher ans Temperatur-Limit schlägt und damit auch im unlimitierten Zustand nicht dieselbe Performance wie im Hardwaretest erreicht. Hier liegt dann vermutlich die eigentliche Crux an dieser Geschichte: Intel helfen diese üblichen Testbedingungen sowie die lasche Regelauslegung der Mainboard-Hersteller weiter, um letztlich bessere Testresultate zu erzielen – welche dann aber nicht einmal der tatsächlichen Anwenderpraxis entsprechen.

Bits 'n' Chips sprechen auf Twitter in gewissem Sinne eine Selbstverständlichkeit an, wenn man dort anmerkt, das mit dem Chiplet-Ansatz bei Zen 2 nunmehr natürlich zwei Serien an Zen-2-Prozessoren erstellt werden könnten – eine mit dem Support für DDR4- und eine mit dem Support für DDR5-Speicher. Das Speicherinterface liegt beim Chiplet-Design in der I/O-Einheit als extra Chip – damit kann man dann auch problemlos eine andere, modernere I/O-Einheit für dieselben Core-Chiplets benutzten, welche dann eben schon DDR5-Speicher unterstützt. Dies kann sogar unter demselben Sockel passieren, sofern die Anzahl der Pins noch ausreichend sind, um für die neue Speichersorte zu genügen (dürfte beim Wechsel von DDR4 auf DDR5 wohl der Fall sein). Ob dies allerdings unter dem Sockel AM4 passieren wird, ist schon wieder eine ganz andere Frage – denn bei den Ryzen-Prozessoren dieses Sockels ist das Chiplet-Design noch nicht bestätigt, jenes ist derzeit nur für Epyc gesichert sowie für Threadripper anzunehmen. Zudem könnte es für DDR5 im Jahr 2019 auch noch zu früh sein – eventuell kommt das Thema eher dann hoch, wenn Zen 3 im Jahr 2020 ansteht. Dann könnte AMD für die Übergangszeit mit zwei verschiedenen I/O-Einheiten antreten – allerdings auch nur, wenn es nicht gerade günstiger kommt, den Support für beide Speichersorten in dieselbe I/O-Einheit zu integrieren. Die theoretische Möglichkeit zu verschieden modernen I/O-Einheit ist sicherlich da, deren praktische Ausnutzung dagegen ungewiß.

Unter anderem Spielkultur berichten über die neue bundesrepublikanische Spieleförderung, nach welcher im Bundeshaushalt 2019 nunmehr 50 Mio. Euro für einen Games-Fonds zugunsten der Entwicklung von digitalen Spielen enthalten sind. Da die allermeisten Publikationen, welche dies thematisiert haben, diesbezüglich vergleichsweise euphorisch schreiben, tun wohl einige Widerworte not, um auch einen anderen Standpunkt aufzuzeigen: Denn ersten sind diese 50 Mio. Euro für die Zielsetzung der Förderung Deutschlands als Standort für die Spieleindustrie ein Scherzbetrag angesichts der Summen, welche heutige Großstudios mit ihren AAA-Projekten bewegen. Selbst für mittelgroße Spieleprojekte ist diese Summe nicht beachtbar, wenn man damit im Bundesmaßstab ein ganzes Jahr auskommen will (hinzukommend den entstehenden Verwaltungsaufwand, welcher sich natürlich auch aus dieser Summe speist). Viel bedeutsamer ist zweitens allerdings, das man hiermit eine Branche "fördern" will, welche wirtschaftlich ziemlich gut bis hervorragend dasteht, welche auf zukünftig noch größere Märkte hoffen kann – und welche dafür in erster Linie gute Produkte benötigt, und eben keine Fördergelder.

Ein Computerspiel ist nun einmal ein Industrieprodukt – da braucht der Staats nicht bezuschussen, hier geht es schließlich auch nicht um die Rettung des Klimas oder die Anschubfinanzierung von (derzeit noch unrentablen) Zukunftstechnologien. Wenn die deutschen Spielepublisher weltweit an Marktanteilen verlieren, dann hat das was mit dem gebotenen Produkt zu tun – daran muß gearbeitet werden, anstatt sich mittels Lobbytätigkeit garantierte Einnahmen von Vater Staat zu sichern. Wie dies langfristig sogar zu einer weiter abnehmenden Produktqualität bzw. weiter zurückgehenden Marktanteilen führen kann, ist am Subventionssystem im Film-Bereich zu sehen: Selbst die Qualität der Autorenfilme hat mehrheitlich über die Jahre abgenommen – weil man bei einem garantierten Geldfluß mit der Zeit ganz natürlich beginnt, im eigenen Saft zu schwimmen und keine Gedanken mehr ans Publikum verschwendet. Diesem gegenüber stehen reihenweise als sinnbefreite Kassenschlager konzipierte Filme, welche letztlich allesamt teilweise mittels Fördergeldern entstanden sind, obwohl sicherlich kaum einer selbst der wohlwollend gestimmten Kinobesucher eine "Förderwürdigkeit" erkennen würde. In der Summe ist es zweifelhaft, ein mangelhaft erstelltes Industrieprodukt stattlich subventionieren zu wollen, weil damit die zugrundeliegende Problematik weder gelöst, sondern im schlimmsten Fall sogar noch verschärft wird.