13

News des 13. November 2025

Laut Twitterer InstLatX64 wurde der Support von AVX10 und APX für Intels "Nova Lake" seitens Intels Support-Dokumentation nunmehr eindeutig wie offiziell bestätigt. Sorgen um eine Deaktivierung bei Consumer-Modellen muß man sich zudem nicht wirklich machen, laut Twitterer Bionic_Squash soll es diesen Support selbst bei den Mobile-Modellen von Nova Lake geben. Natürlich besteht hier immer das Restrisiko, dass es auf Produktebene etwas anders aussieht, aber jenes scheint in diesem Fall ziemlich klein zu sein: Denn bei Nova Lake weisen sowohl die Performance- als auch Effizienz-Kerne denselben ISA-Support auf, beherrschen also beiderseits AVX10 und APX. Damit fällt der vorherige Grund weg, wieso Intel bei seinen jüngeren Consumer-Prozessoren AVX10 bzw. AVX512 deaktiviert hatte – dass es nur auf den Performance-Kernen lief, nicht aber auf den Effizienz-Kernen und dass dies für den Threadscheduler des Betriebssystems schwer zu handeln war.

Intel released the 60th edition of the ISA Extensions Reference with official announcement of AVX10 and APX support on Nova Lake and FP8 type clarifications.
Quelle:  InstLatX64 @ X am 13. November 2025
 
Will AVX10 be enabled on consumer CPUs? Non-Xeon?
Quelle:  VideoCardz @ X am 13. November 2025
 
Yes, even on NVL mobile
Quelle:  Bionic_Squash @ X am 13. November 2025

Technisch waren die Performance-Kerne der jüngeren Intel-Architekture immer zu AVX10 bzw. AVX512 in der Lage, diese Funktionalität wurde aber bei Consumer-Modellen deaktiviert und nur bei Xeon-Prozessoren aktiviert – weil jene gewöhnlich allein mit Performance-Kernen operieren und daher diese Scheduler-Problematik nicht zum tragen kommt. Mittels Nova Lake wird Intel diesen Support der bislang höchsten AVX-Norm mit der dicksten Datenbreite (wie gesagt 512 Bit) nunmehr wieder in den Consumer-Bereich zurückbringen, was hier und da für eine gewisse Beschleunigung sorgen kann. Den ganz großen Effekt muß man sich von diesem Feature allerdings auch wieder nicht versprechen, zu wenige typische Consumer-Software nutzt jenes Feature bzw. könnte hiermit auf große Performanceverbesserungen kommen. Den wirkliche Performance-Effekt von AVX10 kann man eher bei (einigen) professionellen Benchmarks des Workstation/Server-Segments sehen – aber wie gesagt hatte Intel dort den AVX10-Support auch bislang schon hochgehalten.

Twitterer & Leaker Kopite7kimi hat mal nichts zu neuen nVidia-Grafikkarten, sondern vielmehr zur Einordnung von Intels Effizienz-Kernen zu sagen. Jene werden gern als "Stromverbrauchs-effizient" angesehen, dabei soll dies laut den Ausführungen des Twitters aber nicht die eigentliche Intention von Intel bei deren Erschaffung gewesen sein. Vielmehr ging es um Flächeneffizienz, sprich Reduzierung der Chipfläche für einen vollen CPU-Kern (und damit den Kostenpunkts für den kompletten Prozessor). Die viel geringere Chipfläche (Intel bringt nahezu vier E-Kerne auf der Fläche eines P-Kerns unter) ergibt aber natürlich automatisch auch eine bessere Stromverbrauchseffizienz, der eine Effekt forciert hier automatisch den anderen. Der Hintergrund der Entscheidung pro der Auflage von extra E-Kernen soll aber wohl bei der Kostenlage des gesamten Prozessors gelegen haben, nicht bei der Stromverbrauchseffizienz.

I want to clarify a misconception.
Quelle:  Kopite7kimi @ X am 12. November 2025
 
Intel's E-Core is indeed designed with efficiency in mind, but as the performance attributes of E-Core become increasingly prominent, it cannot inherently save power just because it is called E-Core.
Quelle:  Kopite7kimi @ X am 12. November 2025
 
Intel's primary goal is always to improve MT performance while saving area.
Quelle:  Kopite7kimi @ X am 12. November 2025

Hardwareluxx, TrendForce, WCCF Tech und Twitterer Harukaze5719 berichten zur sich ausbreitenden Speicher-Krise, welche sich derzeit schon in stark gestiegenen Einzelhandelspreisen äußert, zugleich sich nächstes Jahr denkbarerweise aber erst noch wirklich zuspitzen könnte. Denn den Speicherherstellern wird der Trend zur Umschichtung zugunsten lukrativerer Absatzgebiete zugesagt (HBM-Speicher für HPC/AI-Zwecke, DRAM für Server-Zwecke), so dass für den Consumer-Markt nächstes Jahr vielleicht sogar weniger Speicher zur Verfügung steht als aktuell – was die Preise dann wirklich durch die Decke treiben könnte. Hierzu notieren Hardwareluxx, dass die Modulhersteller des Consumer-Segments die Vorstellung der für das zweite Halbjahr 2025 angesetzten neuen Speicherkits vorerst ausgesetzt haben – es lohnt ja keine Neuvorstellung, wenn man nicht liefern könnte bzw. sich die bisherigen Kits wie von alleine verkaufen.

Zugleich liefern Hardwareluxx auch eine kleine Aufstellung früherer und aktueller Speicherkit-Preise, anhand welcher man den schon jetzt vorhandenen Preisanstieg erfassen kann. Den Vogel schießt dabei sicherlich das "Teamgroup T-Create Expert 2x16GB DDR5-7200" Speicherkit ab, welches in diesem Juli noch für 126 Euro getestet wurde, aktuell hingegen 330 Euro kostet (+162%). Auch die Preise anderer Speicherkits haben inzwischen das Doppelte gegenüber ihrer Markteinführung erreicht, ein entsprechendes Meme (vom Monatsanfang) ist somit auch schon wieder unaktuell. Fast haben die Speicherpreise damit eine Höhe erreicht, wo man die Sache vielleicht lieber anfangen sollte auszusitzen – auch wenn natürlich klar ist, dass es nach allem Wissen & Vermutungen nächstes Jahr erst noch einmal schlimmer werden dürfte. Selbst wenn DRAM einfacher herzustellen ist und auch die entsprechenden Chipfabriken einfach aufzubauen sind, dürfte es vermutlich bis ins Jahr 2027 dauern, ehe sich die Speicherkrise über neu in Betrieb gegangene Produktionsstraßen entspannen könnte. Nur ein (echtes) Platzen der AI-Blase könnte dies beschleunigen – aber davon wird nur (viel) geredet, zu sehen ist davon nichts.

Twitterer Wall Street Engine vermeldet einen Bericht des 'Wall Street Journals' (Paywall) über die Vermietung von nVidias AI-Chips an chinesische Firmen, konkret sogar Blackwell-basierte Hardware, welche nach China nicht geliefert werden darf. Hierbei steht die nVidia-Hardware allerdings in einem Rechenzentrum außerhalb von China auf somit legalem Grund, mittels der Vermietung der Rechenkraft haben dann aber dennoch chinesische Firmen den Zugang zu eben jener. Diese Methode wurde schon des längerem als Möglichkeit genannt, die US-Exportbestimmungen gegenüber China zu umgehen – und nunmehr wird dies in der Praxis dann auch so getan. Juristisch wird hiermit kein US-Recht gebrochen, nur der Sinn dessen natürlich ad absurdum geführt. Am Ende bekommt China hiermit sogar das Beste aus zwei Welten: Wegen des nominell weiterhin geltenden US-Exportverbots kümmert man sich verstärkt um eigene chinesische Hardware, kann aber zugleich in der Zwischenzeit die Rechenleistung der westlichen Anbieter nutzen – und dies mittels Mietvertrag nur so lange, wie man jene wirklich benötigt.

A WSJ investigation has found that about 2,300 $NVDA Blackwell chips ended up inside a Jakarta data center and are set to be used by a Shanghai AI startup, even with US export limits in place.
The chips moved through a US-based server partner tied to Inspur, then to Indonesian telecom Indosat, which bought 32 GB200 racks for roughly $100 million after lining up the customer.
WSJ says there’s no sign any laws were broken, but it shows how Chinese firms can still access Nvidia’s top hardware by renting compute outside China.

Quelle:  Wall Street Engine @ X am 13. November 2025