3DCenter Diskussionsforen

Intel Xe Super Sampling (XeSS)

Autsch... wenn das schon so bei YT aussieht. X-D

Wie sieht Eure PC-"Grafikkarten-Laufbahn" aus?

Grafikchips - Sa, 10.08.2024 02:21
Zu meiner kleinen Sammlung hat sich vor Kurzem eine

ASUS RTX 2080Ti

gesellt.

Eure CPU-Historie

Prozessoren und Chipsätze - Fr, 09.08.2024 20:42
Zitat: Zitat von Wildfoot (Beitrag 11647605) Und schon wieder ein Update:

- original IBM XT (mit AMD D8088 und Intel C8087)
- IBM PS2/55 System mit Intel A80286
- Notebook mit Intel A80486-DX2 mit 66MHz
- Intel Pentium I mit 166MHz (ohne MMX) (erstes selber gekauftes System)
- Intel Pentium III Katmai mit 600MHz (und VIA Apollo Pro 133 Chipset :( )
- Intel Pentium III Coppermine mit 1000MHz (oced auf 1120MHz)
- Motorola MC68HC11E1CFNE3 mit 5MHz
- Intel Pentium 4 Prescott mit 3.6GHz
- Intel Pentium D 960 Processor (Presler, 2x 3.6GHz)
- Intel Core 2 Extreme QX9650 mit 400MHz FSB und 3.672GHz
- Intel Pentium Dual-Core E2160 (oced auf 400MHz FSB und 3.2GHz)
- Intel Core 2 Duo E8500 auf 400MHz FSB und 3.8GHz oced
- Intel i7-2630QM im Notebook
- 1x Intel Xeon E5-2687W v2 mit ASUS P9X79-E WS
- Intel i7-4960X Extreme Edition (oced auf 4.5GHz)
- 2x Intel Xeon E5-2687W v2 im Dual-CPU Betrieb mit ASUS Z9PE-D8 WS
- Intel i7-6950X auf X99-E WS/USB3.1
- 2x Intel Xeon E5-2687W v4 im Dual-CPU Betrieb auf Z10PE-D8 WS
- Intel i9-7980XE Extreme Edition
- 2x Intel Xeon Gold 6154 Processor im Dual-CPU Betrieb auf WS C621E SAGE
- Intel i9-12950HX im Notebook


Hmm... Vielleicht hole ich mir mal noch den Threadripper 1950X. Spannend wäre der allemal.

Gruss Wildfoot
Also... Aus dem Threadripper wurde dann leider doch nichts. ;)

Vorerst ist hier noch fast alles wie in der Liste oben. Lediglich bei den Notebooks kam ein i9-12950HX dazu.
Beim Desktop könnte ich performancemässig höchstens das PCI-E 3.0 reklamieren, alles andere ist auch nach gut 7 Jahren immernoch Top. Von dem her gesehen bräuchte ich noch kein Upgrade. :D

Nichts desto trotz werde ich mir auf spätestens Ende August nächsten Jahres eine neue Kiste bauen, so dass sie noch vollständig Windows 10 kompatibel ist, Win 11 ist für mich in allen Formen ein NoGo.
Und es wird wieder ein Xeon werden, damit ich die 40/48 PCI-E Lanes habe. Keine Ahnung was sich Intel dabei gedacht hat, die "normalen" CPUs in diesem Punkt so massiv zu beschneiden.

Grüsse, Wildfoot

CryEngine 5

Genau das, Starcitizen hat die Lizenz gekauft, die Cryengine 3.6(?) zu forken. (Später sind Sie zu Amazons Lumberyard gewechselt, was aber praktisch die gleiche Version + einige AWS Plugins für die cloud war). Und seit dem gehen sie getrennte Wege. Ich denke nach über 10 Jahre eigene Anpassungen der Engine an Starcitizens Bedürfnisse, ist da vom Original kaum noch was übrig. Deswegen Starcitizen als Cryengine zu nennen ist halt nicht wirklich richtig nach so langer Zeit. Und Ändert halt auch nichts an dem Punkt dass die Engine dennoch "tot" ist.

Microsofts AutoSR (Automatic Super Resolution) mit AI

Jo. Auf den Screens sieht es für "MS" Verhältnisse ja gar nicht mal so verkehrt aus, allerdings gabs dann in Bewegung bei Control doch wieder mehr Artefakte. Ist dann irgendwie nicht so mega sinnvoll, wenn das Game sowieso schon DLSS hat, und man Nvidia User ist. Für AMD User vlt. ertragbar, wenn diese schon FSR 2 bzw. 3.1 super fanden.

Gaming auf 8k

Zitat: Zitat von Relex (Beitrag 13591684) Der Kontrast fehlt halt.

Soweit ich weiß sind da die Laser Beamer am besten, aber die schaffen doch auch nur so zwischen 2000:1 und 4000:1 + einiger Tricks (nativ weniger). Lasse mich da aber auch gerne korrigieren.

Das ist halt für HDR nur so semi brauchbar... selbst wenn die Farbraumabdeckung sehr hoch ist. Bei den teureren Modellen ist das nicht mehr so, finde ich. Für günstige kann ich nichts dazu sagen (da alles native 4k teuer ist, interessiert mich "günstig" nicht. Nicht dass ich nicht gerne hätte, dass es günstig ist). Aber hier mal ein paar Videos, dann kann sich jeder selbst ein Bild machen:

Hier z.B der "günstigste" fake 8k Beamer (Ist von JVC). An der verlinkten Stelle wird natives 4k genutzt ohne Pixelshifting: https://youtu.be/hbgmJ5K9wAs?feature=shared&t=376

Da dieser aber aus meiner Sicht jenseits von Gut und Böse ist im Preis, hier der günstigste native 4k Beamer (ist von Sony, kostet 4.3k): JVC soll im allgemeinen besser sein beim Kontrast und es gibt auch von JVC native 4k Beamer ab 5.3k (:D), aber trotzdem hier mal von Sony:

- https://youtu.be/dEciQPAtdbk?feature=shared&t=409 (warten, bis er den Raum abdunkelt).
- https://youtu.be/zg5labQn7Fg?feature=shared&t=466
- https://youtu.be/e7i2nTS6khk?feature=shared&t=2522

Also ich finde nicht, dass die Kontraste hier scheisse sind. Ja, diese Beamer (4k+) sind natürlich auch teuer, keine Frage, aber zu sagen Beamer hätten generell einen schlechten Kontrast, halte ich für überholt. Ja, sie sind noch nicht perfekt und OLED-TVs (gerade bei HDR) sind natürlich überlegen, aber schlecht finde ich sehr übertrieben. Im 8k-Video, das ich verlinkt habe, wird auch erwähnt, dass (High-End) Beamer generell eher recht gut sind im Kontrast von dunklen Bildern mit hellen Inhalten (z.B Sternenhimmel). Wo sie aber anscheinend (laut dem Video oben) noch nicht ganz perfekt sind, ist der umgekehrte Fall (mehrheitlich helles Bild mit einzelnen dunklen Bereichen). Aber ich finde, die machen da nen guten Job.

Klar ist natürlich, dass ein Raum abgedunkelt sein muss und man nicht im Wohnzimmer am hellichten Tag mit nem Beamer schaut...Ich finde aber, das sollte man auch mit TVs und Monitoren machen (tue ich auch).

Hingegen bei HDR wird es natürlich schwierig. Die guten Beamer können das mittlerweile recht gut (siehe das 8k-Beamer-Video), aber ein Beamer wird natürlich die Helligkeit niemals so präzise regeln können, wie z.B ein OLED. Das muss man natürlich sich eingestehen.

Worüber ich jetzt noch nicht sooo viel Information gefunden habe, ist bezüglich der Bewegtschärfe bei Beamer (also ohne Pixelshifting). Habe aber auch noch nicht aktiv gross danach gesucht, sollte man als FPS-Gamer aber im Auge behalten. Ich denke aber, dass ein FPS-Gamer sich kein Beamer kauft. Aber Bewegtschärfe ist ja auch für High-PPI Leute wichtig, also Leute, die ein möglichst "scharfes" Bild haben will (scharf nicht im Sinne von "nachgeschärft" sondern "native schärfe").

Wer ist der beste Wrapper im ganzen Land (2024)?

Zitat: Zitat von Lurtz (Beitrag 13588895) Das kann man noch hinter dgvoodoo hängen, um dann auch unter DX11 SGSSAA zu nutzen? Die Nützlichkeit wäre wohl eher auf Radeon (oder Linux) beschränkt, wo Treiber-SGSSAA mit DX9 kaputt ist. Ansonsten geht mit in-game/Wrapper MSAA ja auch -> SGSSAA über den Treiber (wie mir soeben wieder eingefallen ist :freak: ).

AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread

Grafikchips - So, 28.07.2024 22:22
Pixeldichte und Sitzabstand sind das Wichtigste, um das zu bewerten. Dass Q im Vergleich zu P sich nicht lohnt, würde ich nicht unterschreiben - für die allermeisten Kombinationen. Sicher, P ist viel flotter, aber Q eben auch deutlich überlegen, gerade bei RT-Effekten, die qualitativ sehr deutlich mit der Auflösung skalieren.

MfG
Raff

nVidia - GeForce RTX 3050 Review-Thread

Grafikchips - Sa, 27.07.2024 21:35
Zitat: Zitat von Denniss (Beitrag 13586135) anstatt sowas 3040 zu nennen Genaugenommen wäre es eine 4040. Das macht die Sache ja aus "wissenschaftlichem Standpunkt" interessant: Was kann eine 40xx mit 4GiB VRAM und doppelt so viel L2 Cache wie eine 3090 Ti?
Eine Frage, die wir dank NVidia eventuell bald klären können. Oder auch nicht, wenn den Chip wie bei der MX570 eigentlich keiner verbaut.

AMD - Ryzen 8000G Review-Thread

Prozessoren und Chipsätze - Do, 25.07.2024 15:41
Zitat: Zitat von dildo4u (Beitrag 13584490) Nein High-End ist nicht betroffen daher habe ich 7060/4060 angesprochen. Also generell ist High-End stärker betroffen als langsamere Karten. Ganz einfach weil das (beschnittene) PCIE-Interface eher zum Flaschenhals wird wenn die Karte schneller ist.

Zitat: Low End Karten sind beschnitten was die verfügbaren Lanes angeht und allgemein problematischer da sie eher Auslagern müssen "dank" 8GB. Zu wenig Speicher bei langsameren Karten ist in der Tat die Ausnahme davon dass High-End stärker von beschnittenem PCIE-Interface betroffen ist. Aber in der Praxis ist das nicht so relevant - dies ganz einfach weil ein schnelleres PCIE-Interface die Karte auch nicht rettet wenn der Speicher nicht ausreicht. So zum Vergleich, die 7600/4060 haben Speicherbandbreiten über 250GB/s, da sind sowohl 8 GB/s (pcie 4.0 x4) wie 16 GB/s (pcie 4.0 x8, mehr als x8 unterstützen beide Karten nicht) einfach mickrig.

Zitat: 4X 4.0 ist doch wie 8X 3.0 Oder? So ist es. Und es gibt auch Leute die benutzen Karten wie die RX 7600/ RTX 4060 zum Aufrüsten von älteren Systemen mit bloss pcie 3.0 Unterstützung, da hat man dann effektiv eben auch nur pcie 3.0 x8, deswegen rät niemand davon ab.
Abgesehen davon gibt es auch noch externe Grafikkarten bei Notebooks, die sind dann sogar (mit USB 4) auf pcie 3.0 x4 beschränkt - das hingegen macht dann schon eher (bei Karten der 7600/4060 Klasse) einen Unterschied, brauchbar ist das trotzdem.

8400G/8500G sind eigentlich auch nicht für Käufer gedacht die diskrete GPUs nutzen, wenn man das trotzdem nutzt muss man halt mit den minimalen Performance-Einbussen leben aufgrund des PCIE-Interfaces (bei Nutzung von günstigeren Karten, High-End macht eh keinen Sinn, da limitert die CPU sowieso). Ansonsten muss man halt zum Ryzen 7600 greifen, so viel mehr kostet der auch nicht.

x86-Generationen: Wo stehen wir?

Prozessoren und Chipsätze - Di, 23.07.2024 08:57
Zitat: Zitat von Exxtreme (Beitrag 13582592) Und der Witz ist, dass selbst RISC-CPUs nicht wirklich RISC sind. Auch diese haben Decoder, die ihre Anweisungen noch weiter zerlegen. Auch andere Ansätze haben sich eher nicht durchgesetzt :wink:
" Itaniums EPIC-Architektur stellte den radikalen Versuch dar, Hardwarekomplexität in die Softwareoptimierung zu integrieren. Die gesamte Arbeit zur Bestimmung der parallel auszuführenden Anweisungen wurde vom Compiler erledigt, ehe die CPU auch nur ein Byte an Code ausführte."

https://www.elektronikpraxis.de/epic...d2790f1359de7/
https://www.bernd-leitenberger.de/Itanium.shtml

Jetzt aber auch mal kurz enger am Topic :smile:
Wo steht nicht nur der x86,sondern die CPU überhaupt? Das ist bisher immer so gewesen und auch weiter so (?), daß die Consumer vom Gabentisch der Serversparten gefüttert werden. Die Frage wäre jetzt wie sich da diese Situation weiterentwickelt.

Es sieht so aus, als wenn die CPU als solche an Bedeutung verliert, weil sie auf die Art wie sie ihre Sachen macht, hinter den Anforderungen nicht mehr hinterherkommt. Ohne jetzt KB-weise den Gedanken zu erklären, zwei rhetorische Fragen dazu:
Warum hat AMD Pensando und Xilinx gekauft?
Was ist Bluefield + Doca?

Auch Intel weiß es. Daher gibt es da einen ganzen Haufen von CPU + X. DSA, QAT, IAA, XMX, (AVX bekanntlich), DLB und, vRAN Boost (ufff :usad:) Das ist echt so einiges...

Und wenn man doch rein mit compute ballern will, scheint die Lösung immer mehr ein Mi300A zu sein. Oder wenigstens sowas wie GB200. Und die gelten nicht nur der KI-Blase (*)

Könnte es also sein, daß sich zukünftig die klassische CPU, der Verteilung der Aufgaben folgend, und der damit gesunkenen Notwendigkeiten, eher ähh..., leicht rückentwickeln wird? :freak:
Beobachten wir das nicht schon ähnlich und im Kleinen (und Speziellen) bei den Game-Engines? Ok als Ex-Gamer schätze ich das grad nur, aber mir scheint es, als wenn das Verhältnis für sinnige Paarungen zwischen GPU-Leistung und der CPU-Leistung eher konstant größer wird im Vergleich zu früher.

(*) Wieviel machen "sequential algorithms" und "complex statistical computations" in den Rechenzentren noch aus?

AMD/ATI - Radeon RX 6500 XT Review-Thread

Grafikchips - Mo, 22.07.2024 09:15
Moin!

Tjo, dann ist's leider doch nur PCI-E 3.0 ×8.

Du könntest dieses Tool noch als "dritte Meinung" heranziehen, gibt eine Linux-Version: https://www.forum-3dcenter.org/vbull...d.php?t=613462

MfG
Raff

Intel Bartlett Lake-S: up to 12P-Core or up to 8P-Core +16E-core

Prozessoren und Chipsätze - Mo, 22.07.2024 02:41
Just so we don't forget that LGA 1700 will only receive up to 8P-core Intel Xeon E-2400 processors from Q4/2023.

source: https://www.intel.com/content/www/us...uct-brief.html
source: https://www.intel.com/content/www/us.../products.html

AMD - Ryzen 7040 Mobile (Phoenix, Zen4) Review-Thread

Prozessoren und Chipsätze - Fr, 19.07.2024 23:29
Ich hab natürlich keine eigenen Erfahrungen, sondern mich in erster Linie vor allem an den (Vergleichs-)Messungen von NBC orientiert. Da wird der Abstand von MTL ggü. Hawk Point/Phoenix größer, je stärker man die TDP (NBC hat von 65W-35W) begrenzt. Genau das, was ich am Ende sowieso will. Klar, am Ende des Tages gibt's sicherlich noch schlimmeres als das.

Afterburner ist sowieso Pflicht. Funktionieren G-Helper und AC nebeneinander oder sollte man nur eines nutzen? Dann wahrscheinlich eher G-Helper, von AC war ich sowieso noch nie ein großer Fan.

Nvidia kann auch "FineWine", hier der Beweis

Grafikchips - So, 07.07.2024 01:25
Ist das so krass :eek:
Was ist dann erst in 3..4 Jahren möglich, wenn die Entwicklung weiterschreitet und noch mehr Verbesserungen einfließen?

Intel - "Raptor Lake Refresh"/Core i-14000 Review-Thread

Prozessoren und Chipsätze - Fr, 05.07.2024 11:16
The First Descendant kannst du kostenlos herunterladen und mal die Shader-Compiling-Zeit bei verschiedenen Settings testen. :)

MfG
Raff

MicroLED Displays

Nicht überraschend. Die LED-Transferbasierten Herstellungsverfahren waren immer eine Totgeburt.

Lediglich QDEL hat eine Chance, da das Herstellungsverfahren im Wesentlichen ja wie bei OLED funktioniert. Ich weiß aber nur von Sharp, die da ein Eisen im Feuer haben.

In the footsteps of Alder Lake - The rise of SMALL cores

Prozessoren und Chipsätze - Di, 25.06.2024 00:11
Skymont E-core Architecture Explained by Intel Fellow | Talking Tech | Intel Technology

PCI-Express-Benchmark gesucht, der nicht auf OpenCL oder CUDA basiert

Vielleicht kann dir da jemand mit dem DirectX-SDK einen kleinen PCIe-Lasttest schreiben. Mit dem Intel PCM (https://github.com/intel/pcm) könnte man sich dann den Durchsatz pro IO-Stack anzeigen lassen.

RISC-V

Prozessoren und Chipsätze - Mi, 19.06.2024 06:44
Das hast du auch im Nachbarthread geschrieben ohne jegliche Belege auf meine Nachfrage.
Zumal die Performance selten an SIMD scheitert. Die risc-v CPUs die es aktuell gibt sind nicht wegen des instruction sets nicht die schnellsten sondern wegen der CPU uArch. Da sitzen kleine Teams dran und da ist noch kaum Budget dahinter.

Jim Keller hatte SPEC Int Zahlen seiner CPU von Tenstorrent mit der der üblichen Wettbewerber verglichen und da war man absolut konkurrenzfähig.
Inhalt abgleichen