Neuigkeiten der letzten 7 Tage

19

Weitere Hinweise auf GeForce RTX 3070 mit 16 GB sowie GeForce RTX 3080 mit 20 GB

Videocardz bringen in zwei Meldungen weitere Hinweise auf die Existenz von GeForce RTX 3070/3080 Grafikkarten mit verdoppelter Speichenmenge – nachdem zum jeweiligen Launch dieser Karten wie bekannt nur Ausführungen mit 8 bzw. 10 GB Grafikkartenspeicher zur Verfügung stehen (werden). Die erste Meldung weist schlicht auf den Umstand hin, wonach das Ampere GA102 Whitepaper (PDF) die bisherige GeForce RTX 3080 in den dortigen Tabellen als "GeForce RTX 3080 10 GB" in den jeweiligen Tabellentiteln führt – die anderen nVidia-Grafikkarten hingegen ohne diese explizite Nennung der Speichermenge im Grafikkarten-Namen geführt werden. Dies macht man logischerweise nur, wenn auch noch eine andere, in der Speichermenge abweichende Grafikkarten ansonsten gleichen Namens existiert – sprich eine "GeForce RTX 3080 20 GB" (non-Super, non-Ti). Andererseits muß auch kein logischer Grund dahinterstecken, sondern könnte der Whitepaper-Editor das ganze einfach nach Gusto benannt haben. Wenn die Angabe eine Bedeutung hat, ist die Auslegung klar – aber die Angabe muß halt nicht zwingend eine Bedeutung haben.

initales Ampere-Portfolio spätere Speicherverdopplung Portfolio-Auffüllung 2021
GA102 GeForce RTX 3090 24GB
GeForce RTX 3080 10GB
 
GeForce RTX 3080 20GB
GA104 GeForce RTX 3070 8GB
GeForce RTX 3060 Ti 8GB
GeForce RTX 3070 16GB
 
GA106 GeForce RTX 3060 6GB
GA107 GeForce RTX 3050 4GB
18

Hardware- und Nachrichten-Links des 17./18. September 2020

Mit dem 17. September hat nVidia dann auch die unabhängigen Tests zu den Hersteller-Designs zur GeForce RTX 3080 freigegeben, welche in Folge dessen das Web erneut mit entsprechenden Benchmarks überflutet haben. Leider hat sich damit nicht die Erwartung erfüllt, die Herstellerkarten könnten eventuell einige der (gewissen) Kritikpunkte an der GeForce RTX 3080 beseitigen. So sind bislang keine Herstellerdesigns gesichtet worden, welche dieselbe Performance mit einem kleineren Stromverbrauch anbieten – bislang verbrauchen alle Herstellerdesigns mehr als die Founders Edition, egal ob die Performance vielleicht nur gleich hoch (oder gar niedriger) ausfällt. Genauso enttäuschen die ersten Performance-Werte, denn die Herstellerdesigns haben Schwierigkeiten, sich von der Founders Edition abzusetzen: Teilweise gibt es sogar Karten, welche (minimal, aber meßtechnisch beweisbar) hinter der Founders Edition zurückliegen. Doch auch die besten (derzeit getesteten) Herstellerkarten sind üblicherweise nur 3-4% schneller als nVidias Eigendesign.

Taktraten TDP WQHD-Perf. 4K-Perf. Stromverbrauch OC-Perf. Preis
GeForce RTX 3080 FE 1440/1710 MHz, 19 Gbps 320W (max. 370W) - - CB: 322W – TPU: 303W - $699
Asus TUF OC @ CB 1440/1785 MHz, 19 Gbps 340W (max. 375W) - +1,9% 340W (FE: 322W) +2% $729
Asus TUF OC @ TPU 1440/1785 MHz, 19 Gbps 340W (max. 375W) +2% +3% 305W (FE: 303W) +3% $729
MSI Gaming X Trio @ CB 1440/1815 MHz, 19 Gbps 340W (max. 350W) - +2,7% 343W (FE: 322W) +3% $759
MSI Gaming X Trio @ TPU 1440/1815 MHz, 19 Gbps 340W (max. 350W) +3% +4% 315W (FE: 303W) +3% $759
Palit Gaming Pro OC @ TPU 1440/1740 MHz, 19 Gbps 320W (max. 350W) ±0 ±0 325W (FE: 303W) +2% $709
Zotac Trinity @ TPU 1440/1710 MHz, 19 Gbps 320W (max. 336W) -1% -2% 323W (FE: 303W) +4% $699
18

nVidia gibt die Unterstützung für "implicit SLI" mit dem Jahresende 2020 auf

Die "Release Notes" (PDF) zum neuen nVidia-Treiber 465.38 mit der erstmaligen Unterstützung der GeForce-30-Serie enthalten eine interessante Passage zum SLI-Support der Ampere-Grafikkarten. Einen SLI-Support wird es wie bekannt sowieso nur auf der GeForce RTX 3090 geben, nicht auf kleineren Ampere-Grafikkarten, auch nicht auf der Chip-gleichen GeForce RTX 3080. Jene GeForce RTX 3090 sowie alle zukünftigen SLI-fähigen nVidia-Grafikkarten werden allerdings nicht mehr "implicit SLI" unterstützen, sprich die bisherige SLI-Variante mit SLI-Profilen im nVidia-Treiber. Für die GeForce RTX 3090 wird es nur noch "explicit SLI" geben, was auf einem eigenen SLI-Support durch die jeweilige Anwendung selber basiert, was derzeit nur unter den Grafik-APIs DirectX 12, Vulkan und OpenGL möglich ist. nVidia streicht somit für Ampere und nachfolgende Grafik-Generationen den bisher üblichen SLI-Support komplett.

Implicit SLI, where the driver makes assumptions with application profiles to achieve GPU scaling, is disabled on NVIDIA Ampere GPUs. Explicit SLI is still supported, where the application knows the SLI state and uses extensions (such as DirectX 12 linked nodes, Vulkan device groups, or OpenGL multicast extensions) to issue commands to each device in the SLI group.
Quelle:  Release Notes (PDF) der nVidia-Treiber 465.38

18

Die PC-Systemanforderungen zu Crysis Remastered

Der Epic Games Store notiert die offiziellen PC-Systemanforderungen für "Crysis Remastered", dem am 18. September in den Handel gehenden Remaster des legendären 2007er Shooter-Hits von Spieleentwickler Crytek. Dass von der damaligen "CryEngine 2" nunmehr auf die "CryEngine V" portierte Spiel verlangt nach einer derzeit üblichen Hardware, ohne aber über die Stränge zu schlagen. So kommt man minimal mit Core i5-3450 oder Ryzen 3 auf 8 GB Hauptspeicher samt GeForce GTX 1050 Ti oder Radeon RX 470 aus, interessant ist allerdings die Anforderung von gleich 4 GB Grafikkartenspeicher. Dies ist für eine Minimum-Anforderung durchaus viel und würde die bishergen Grenzen von Minimum-Anforderungen (bisher nur 2 GB VRAM im Minimum) klar verschieben. Auch die Radeon RX 470 ist ziemlich hoch gegriffen – aber dies dürfte nur ein Seiteneffekt des Punkts sein, dass AMD keinen leistungsmäßig passenden Counterpart zur GeForce GTX 1050 Ti führt (eine Radeon R9 380 4GB wäre hierzu zu überlegen).

offizielle PC-Systemanforderungen zu "Crysis Remastered"
Minimum Empfohlen
allgemein Windows 10 64-Bit, DirectX 11, 20 GB Festplatten-Platzbedarf
Prozessor Core i5-3450 oder Ryzen 3 Core i5-7600K oder Ryzen 5
Speicher 8 GB RAM & 4 GB VRAM 12 GB RAM & 6-8 GB VRAM
Grafikkarte GeForce GTX 1050 Ti oder Radeon RX 470 GeForce GTX 1660 Ti oder Radeon RX Vega 56
18

Intel "Tiger Lake": Launchreviews mit ersten Benchmarks & Einschätzungen erschienen

Nach der offiziellen Vorstellung von "Tiger Lake" zum Monatsanfang hat Intel am gestrigen 17. September seine neue Mobile-Generation auch noch mit einem regelrechten Launch samt Launchreviews konzentriert zum selben Zeitpunkt bedacht – ein im Mobile-Segment eher ungewöhnlicher Schritt. Getestet werden können somit derzeit nur Vorserien-Modelle von Notebooks, wobei Intel den Hardwaretestern sogar nur ein explizites Demo-System zur Verfügung stellte: Jenes basiert auf dem MSI Prestige 14, wird allerdings in dieser Form nicht in den Handel gelangen. Das Demo-System nutzt das Tiger-Lake-Spitzenmodell in Form des Core i7-1185G7, in der Verkaufspraxis dürften jedoch sicherlich eher die kleineren (preisgünstigere) Tiger-Lake-Modelle dominieren. Die CPU lief zudem (zum Vorteil von Intel) auf der maximalen TDP von 28 Watt, was im Ultrabook-Bereich mit üblichen TDPs von 15-18 Watt ungewöhnlich viel ist und eher zwischen der Ultrabook-Klasse und normalen Notebooks steht.

Kerne Takt L2+L3 iGPU Speicher TDP
Core i7-1185G7 4C/8T 1.2/3.0/4.8 GHz 5+12 MB Iris Xe (96 EU) @ ≤ 1.35 GHz DDR4/3200 & LPDDR4/4266 12-28W
Core i7-1165G7 4C/8T 1.2/2.8/4.7 GHz 5+12 MB Iris Xe (96 EU) @ ≤ 1.3 GHz DDR4/3200 & LPDDR4/4266 12-28W
Core i7-1160G7 4C/8T 0.9/2.1/4.4 GHz 5+12 MB Iris Xe (96 EU) @ ≤ 1.1 GHz LPDDR4/4266 7-15W
Core i5-1135G7 4C/8T 0.9/2.4/4.2 GHz 5+8 MB Iris Xe (80 EU) @ ≤ 1.3 GHz DDR4/3200 & LPDDR4/4266 12-28W
Core i5-1130G7 4C/8T 0.8/1.8/4.0 GHz 5+8 MB Iris Xe (96 EU) @ ≤ 1.1 GHz LPDDR4/4266 7-15W
Core i3-1115G4 2C/4T 1.7/3.0/4.1 GHz 2.5+6 MB UHD (48 EU) @ ≤ 1.25 GHz DDR4/3200 & LPDDR4/3733 12-28W
Core i5-1110G4 2C/4T 1.5/2.5/3.9 GHz 2.5+6 MB UHD (48 EU) @ ≤ 1.1 GHz LPDDR4/4266 7-15W
Taktraten-Angaben: 1. Basetakt @ niedrigster TDP — 2. Basetakt @ höchster TDP — 3. maximaler Turbo-Takt
17

Sony gibt Termin & Preis zu den zwei Ausführungen der PlayStation 5 bekannt

Nachdem die technischen Daten der verschiedenen NextGen-Konsolen teilweise schon des längeren bekannt waren und Microsoft zuletzt Termin & Preis der beiden neuen Xbox-Konsolen offiziell gemacht hat, ist Sony nun nachgezogen und hat Termin & Preis der zwei Ausführungen der PlayStation 5 festgesetzt. Jene erscheinen am 12. November 2020 und damit zwei Tage nach den neuen Xbox-Konsolen, wobei jener Sony-Termin nur für Nordamerika, Japan, Südkorea, Australien und Neuseeland gilt, im "Rest" der Welt werden die beiden Sony-Konsolen dann am 19. November 2020 an den Start gehen. Die reguläre PlayStation 5 wird dabei für $499.99 bzw. hierzulange für einen UVP von 499,99 Euro veranschlagt, die PlayStation 5 "Digital Edition" kostet hingegen exakt 100 Dollar/Euro weniger – ergo $399.99 bzw. eine UVP von 399,99 Euro. Damit treffen sich die beiden Top-Modelle von Microsoft & Sony auf dem faktisch gleichen Preispunkt, können sich somit allein über Technik und Spieleangebot duellieren.

Xbox Series S Xbox Series X PS5 "Digital Edition" PlayStation 5
Prozessor 8C/16T Zen 2 @ 3.4 GHz (ohne SMT @ 3.6 GHz) 8C/16T Zen 2 @ 3.6 GHz (ohne SMT @ 3.8 GHz) 8C/16T Zen 2 @ ≤3.5 GHz
Grafiklösung 20 CU RDNA2 @ 1.565 GHz (4,0 TFlops) 52 CU RDNA2 @ 1.825 GHz (12,1 TFlops) 36 CU RDNA2 @ ≤2.23 GHz (≤10,3 TFlops)
Speicherinterface 128 Bit GDDR6 @ 14 Gbps (Ø 190 GB/sec) 320 Bit GDDR6 @ 14 Gbps (Ø 476 GB/sec) 256 Bit GDDR6 @ 14 Gbps (448 GB/sec)
Speicherausbau 10 GB GDDR6 (7,5 GB nutzbar) 16 GB GDDR6 (13,5 GB nutzbar) 16 GB GDDR6
Festplatte 512 GB NVMe-SSD @ 2,4 GB/sec (4,8 GB/sec mit Kompression) 1 TB NVMe-SSD @ 2,4 GB/sec (4,8 GB/sec mit Kompression) 825 GB NVMe-SSD @ 5,5 GB/sec (8-9 GB/sec mit Kompression)
Laufwerk keines 4K UHD BluRay keines 4K UHD BluRay
Preislage 299 Dollar  (UVP: 299,99 Euro) 499 Dollar  (UVP: 499,99 Euro) 399.99 Dollar  (UVP: 399,99 Euro) 499.99 Dollar  (UVP: 499,99 Euro)
Release 10. November 2020 12. November 2020 (Europa: 19. Nov.)
16

Hardware- und Nachrichten-Links des 16. September 2020

Twitterer Patrick Schur hat einen klaren Hinweis darauf entdeckt, dass AMD im Desktop-Bereich die "Ryzen 4000" Serie tatsächlich überspringt und damit die kommenden "Vermeer"-CPUs als "Ryzen 5000" Serie in den Verkauf geschickt werden. Dies ergibt sich anhand zweier Produktnamen – ein Achtkerner und ein 12-Kerner – welche demzufolge weder APU-basiert noch Threadripper-basiert sein können, sprich höchstwahrscheinlich auf "Vermeer" bzw. der Zen-3-Architektur basieren. Prinzipiell war dieser Schritt in den letzten Woche in der Diskussion, nachdem AMD vergleichsweise spät im Jahr herauskommt und sicherlich nicht mehr das komplette Produkt-Portfolio noch dieses Jahr ausbreiten kann. Da bei AMD die Produktnamen auf das Veröffentlichungsjahr schließen lassen sollen (AMD dies jedoch recht frei handhabt, siehe die Zen-1-basierten APUs als "Ryzen 2000U" noch vor Jahresende 2017), für den Verkauf im Jahr 2021 aber natürlich die höhere Nummer besser klingt, hat man sich nun wohl doch dafür entschieden, diesen Nummern-Sprung zu machen. Jener könnte potentiell auch dazu führen, dass die Zen-3-basierten APUs (Codename "Cezanne") dann unter derselben Nummern-Serie erscheinen, nicht also wie bisher Nummern-technisch der nächsten Generation zugeordnet werden.

Look, what I've found!
AMD Ryzen 9 5900X (12 Core)
AMD Ryzen 7 5800X (8 Core)

Quelle:  Patrick Schur @ Twitter am 16. September 2020

16

GeForce RTX 3080 Launchreviews: Die Testresultate zur UltraHD/4K-Performance im Überblick

Als kleinen Vorgeschmack und Teaser für die nachfolgenden Launch-Analyse zur GeForce RTX 3080 sollen hiermit bereits die inzwischen ausgewerteten Performance-Werte der neuen nVidia-Karte unter der UltraHD-Auflösung präsentiert werden. Hierzu wurden die Benchmarks von (derzeit) 18 Launchreviews erfasst und miteinander verrechnet, aufgrund der Masse an ~1910 ausgewerteten Einzel-Benchmarks dürfte das herauskommende Ergebnis das Gesamtbild dieses Grafikkarten-Launches wohl recht treffsicher einfangen können. Zu beachten wäre, dass hierbei Wert auf Hardwaretests mit größerer Anzahl an Einzeltests gelegt wurde, gleichfalls auch die (maßvolle) Gewichtung beim der finalen Index-Bildung zugunsten jener Tests mit besonders hoher Benchmark-Anzahl erging. Denn insbesondere Gaming-Ampere hat die Tendenz, in einzelnen Benchmarks mal besonders gut davonzuziehen – darunter die von nVidia selber getesteten Titel, aber beispielsweise auch Red Dead Redemption läuft auf der GeForce RTX 3080 überdurchschnittlich gut.

AMD Pascal Turing
Mehrperformance
GeForce RTX 3080 (FE)
+31% vs. 2080Ti
+58% vs. 2080S
+69% vs. 2080
+83% vs. Radeon VII +87% vs. 1080Ti +82% vs. 2070S
+98% vs. 5700XT
+142% vs. Vega64 +149% vs. 1080
basierend auf 18 ausgewerteten Launchreviews zur GeForce RTX 3080 FE
16

Launch der nVidia GeForce RTX 3080: Die Launchreviews gehen online

Mit dem heutigen Launch der GeForce RTX 3080 startet nVidia seine Ampere-Architektur nunmehr auch für Gaming-Grafikkarten. Hiermit soll zum einen die Scharte der eher durchschnittlich bewerteten Turing-Generation ausgewetzt werden, als auch dem kommenden Ansturm der RDNA2-Grafikkarten sowie der NextGen-Konsolen vorgebeugt werden. Die GeForce RTX 3080 führt dafür – ungewöhnlich für eine xx80er Lösung – den besten Chip des Gaming-Portfolios in allerdings einer erheblichen Abspeckung ins Feld. Die gebotenen 68 Shader-Cluster entsprechend exakt dem Niveau der vorhergehenden GeForce RTX 2080 Ti – aber natürlich kann Gaming-Ampere mit seinen verdoppelten FP32-Einheiten deutlich mehr und so soll die GeForce RTX 3080 gemäß nVidias eigenen Benchmarks ca. +69% auf die GeForce RTX 2080 Super drauflegen. Ob dies der Realität entspricht, dürfen nun endlich die unabhängigen Hardwaretester anhand der "Founders Edition" zur GeForce RTX 3080 herausfinden, entsprechende Tests zu den Herstellermodellen sind erst für den morgigen 17. September freigegeben. Die Launchreviews zur GeForce RTX 3080 füllen somit derzeit das Internet, die Diskussion zum Launch in unserem Forum startet – und nachfolgend ist die obligatorische Launch-Analyse an dieser Stelle zu erwarten, welche insbesondere die aufgelaufenen Benchmarks zusammenfassen wird.

Technik Liste Release
GeForce RTX 3090 Ampere GA102, 82 SM @ 384 Bit, 24 GB GDDR6X $1499 24. Sept. 2020
GeForce RTX 3080 Ampere GA102, 68 SM @ 320 Bit, 10 GB GDDR6X $699 16. Sept. 2020
GeForce RTX 3070 Ampere GA104, 46 SM @ 256 Bit, 8 GB GDDR6 $499 15. Okt. 2020
15

Hardware- und Nachrichten-Links des 15. September 2020

Von Twitterer Rogame kommt eine Bestätigung, wonach "Sienna Cichlid" tatsächlich "Navi 21" entspricht. Jene Bestätigung ergibt sich aus neuen Linux-Treibereinträgen seitens AMD, welche dieselben PCI-Device-Nummern als "Sienna Cichlid" nennen, welche vorher auf Basis von MacOS-Treibereintragungen bereits "Navi 21" zugeordnet werden konnten. Dies ist natürlich nur eine letzte Bestätigung für einen sehr augenscheinlichen Fakt, räumt aber alle Chancen auf etwaige andere Auslegungen aus dem Weg. Früher Treibereinträge haben den Navi-21-Chip bereits mit als mit 80 Shader-Clustern (aka 5120 Shader-Einheiten) beschrieben, hinzukommend ergaben sich noch die Angaben von 8 Raster-Engines und 64 ROPs. Bezüglich des Speicherinterfaces gab es jedoch immer wieder widersprüchliche Aussagen – zum einen Angaben, die auf 256 Bit GDDR6 hinwiesen, andererseits aber (viele) Angaben, welche in Richtung HBM-Speicher gingen.

    AMD Navi 21  ("Big Navi", "Sienna Cichlid")

  • entweder 427mm² oder 505mm² Chipfläche unter der 7nm-Fertigung von TSMC
  • RDNA2-Architektur (GFX1030)
  • Hardware-RayTracing, Variable Rate Shading (VRS)
  • 8 Raster-Engines
  • 80 Shader-Cluster (max. 5120 Shader-Einheiten)
  • 64 ROPs
  • Speicherinterface weiterhin unsicher
  • 2x 8polige Stromstecker, TDP-Zielsetzung angeblich 275 Watt
  • offizielle Vorstellung am 28. Oktober 2020, Release vermutlich im November 2020
15

Gerüchteküche: Intels DG2 tritt mit Grafikchips à 128, 384, 512 & 960 EU im zweiten Quartal 2021 an

Videocardz berichten in zwei Meldungen – No.1 & No.2 – über die neueste Gerüchte- und Informationslage zu Intels DG2-Projekt, der nächsten Generation an extra Grafiklösungen aus Intels HPG-Linie ("DG" = "discrete graphics") der Xe-Architektur. Wie bekannt, ist das diesjährige "DG1" auf nur 96 EU ("Execution Units" – Einheiten-Block mit 8 FP32-Einheiten) rein als Mobile-Projekt gedacht und geht dort auch nur in den Einsteiger-Bereich hinein, die nVidia-Konkurrenz liegt grob bei einer GeForce MX350. Mittels DG2 will Intel ab dem zweiten Quartal 2021 dann endlich tatsächlich in den Grafikkarten-Markt einsteigen, wofür angeblich drei Grafikchips mit 384, 512 und 960 EU zum Einsatz kommen sollen. Da es zudem auch Verkaufsvarianten mit nur 128 EU geben soll, dürfte sich hierunter sicherlich ein weiterer Chip mit dann nur 128 EU verbergen.

DG2-128 DG2-384 DG2-512 DG2-960
Chipfläche ? ~189mm² ? ?
EU / FP32-Einheiten 128 EU = 1024 FP32 384 EU = 3072 FP32 512 EU = 4096 FP32 960 EU = 7680 FP32
Speicherinterface ? 192 Bit GDDR6 wahrschl. 256 Bit GDDR6 ?
Einsatzort wahrschl. Mobile Mobile + ? Mobile + wahrschl. Desktop wahrschl. Desktop
gemäß den Ausführungen von Videocardz: Meldung #1 & Meldung #2, "DG2-128" selbsttätig hinzugesetzt
14

Hardware- und Nachrichten-Links des 14. September 2020

AMD hat in der Nacht auf Twitter ein erstes offizielles Foto einer Radeon RX 6000 Grafikkarten veröffentlicht, hinzukommend ist die Karte nunmehr auch in Fortnite virtuell zu besuchen, was Twitterer NateOrb in weiteren Bildern festgehalten hat. Gezeigt wird augenscheinlich das größte kommende Modell der RDNA2-basierten Radeon RX 6000 Serie, da zwei 8polige Stromstecker vorhanden sind. Damit wäre zusammen mit dem PCI-Express-Steckplatz eine Leistungsaufnahme von 375 Watt möglich – was aber natürlich nichts zwingendes zur TDP dieser Karte bedeuten muß. Im Prinzip ist damit nur gesagt, dass die Karte samt Overclocking-Reserve für mehr als 300 Watt ausgelegt ist, denn dies entspricht der nächstkleineren Stromzufuhr (1x 6polig + 1x 8polig). Und dies hört sich dann wieder ganz gemäß einiger Gerüchte an, wonach AMD "Big Navi" auf eine TDP von 275 Watt hin konzipiert hat – eingedenk eines gewissen Sicherheitsabstands wie einer Übertaktungsreserve geht es da nicht unterhalb von 2x 8polig. Viel mehr läßt sich aus den vorliegenden Karten-Bildern derzeit leider nicht entnehmen, die drei zu sehenen Lüfter kann man in die eine oder andere Richtung hin deuten.

14

nVidia übernimmt ARM

nVidia hat den zuletzt häufiger kolportierten Kauf des britischen Chipentwicklers ARM nunmehr offiziell bestätigt, der Kaufpreis liegt (erfolgsabhängig) zwischen 33,5 bis 38,5 Mrd. Dollar für 90% der ARM-Aktien (10% der Aktien sowie die "ARM IoT Services Group" verbleiben beim bisherigen Eigner "SoftBank"). Hiervon zahlt nVidia allerdings nur 12 Mrd. Dollar in bar, der Rest wird in nVidia-Aktien beglichen – womit nVidia eine gute Möglichkeit bekommt, die sprudelnden Gewinne der letzten Jahre sinnvoll "loszuwerden", ohne sich dabei jedoch finanziell gänzlich zu übernehmen. Diese Übernahme wird maßgeblich durch nVidias hohe Aktienkurse der letzten Zeit begünstigt, nachdem nVidia derzeit einen Unternehmenswert von knapp 300 Mrd. Dollar aufweist (sogar deutlich mehr als Intel). Insbesondere die Begleichung von mehr als der Hälfte des Kaufpreises in Aktien kommt nVidia somit derzeit sehr günstig.

13

Hardware- und Nachrichten-Links des 12./13. September 2020

Eine letzte Bestätigung für die Existenz eines Tiger-Lake-Achtkerners hat Intel mittels eines eigenerstellten Artikels auf Medium geliefert: Danach wird bei den Details zum Cache-System der Tiger Lake zugrundeliegenden "Willow Cove" CPU-Kerne explizit ein Achtkern-Die erwähnt – und gleichfalls ausgeführt, dass es zu diesem später genauere Informationen geben wird. Mittels jenes Achtkern-Dies will Intel gemäß der Gerüchteküche dann Tiger Lake-H aus der Taufe heben, sprich Mobile-Prozessoren bis zu einer TDP von 45 Watt erstellen. Dies dürfte auf Basis des bisher zu Tiger Lake gezeigten recht problemlos und vermutlich ohne größere Rückschritte bei den Taktraten machbar sein. Leider wird dies erst nächstes Jahr passieren, womit entsprechende Notebooks kaum vor Frühling bis Jahresmitte 2021 zu erwarten sind. Dann erst kann Tiger Lake gegenüber AMD so richtig in den Ring steigen – denn die derzeit vorliegenen Vierkerner von Tiger Lake sind nun einmal Technik-bedingt nicht für alle Performance-Klassen geeignet.

The Willow Cove core increases the mid-level cache to 1.25MB — up from 512KB. We also added a 3MB non-inclusive last-level-cache (LLC) per core slice. A single core workload has access to 12MB of LLC in the 4-core die or up to 24MB in the 8-core die configuration (more detail on 8-core products at a later date).
Quelle:  Intels Boyd Phelps auf Medium am 3. September 2020

Inhalt abgleichen