3DCenter Diskussionsforen

Sind Quantencomputer in drei Jahren das Maß aller Dinge?

So langsam überschlagen sich die Meldungen. Was war denn jetzt der Durchbruch? Ich hab nichts mitbekommen :usad:
https://www.hpcwire.com/off-the-wire...ting-adoption/

https://www.hpcwire.com/off-the-wire...antum-mission/

usw. usw. usw.

Intel - Arrow Lake Review-Thread

Prozessoren und Chipsätze - Fr, 28.11.2025 08:43
Bessere oder besser gesagt gefixte Performance unter Linux
Speedometer war auf Zen1 Level in 2024.

https://www.phoronix.com/review/core...-9-285k-2025/2

Intel - Alder Lake - Review-Thread

Prozessoren und Chipsätze - Do, 20.11.2025 11:43
Jep. Aber der neue Jingle ist trotzdem Shice ;)

nVidia - GeForce RTX 5070 Review-Thread

Grafikchips - Di, 18.11.2025 11:19
Aktuell brauchbare Angebote:

https://www.amazon.de/gp/product/B0F...OB55JKUJU&th=1
Asus Dual 5070 für 502,20 € (mit Coupon)

https://www.ebay.de/itm/187416943813...y-voucher20183
Asus Prime 5070 in weiß für 533,91 € (mit Coupon)

https://www.amazon.de/gp/product/B0D...OB55JKUJU&th=1
Asus TUF 5070 für 573,66 € (mit Coupon)

Ich hatte bereits eine Asus Dual und eine Asus Prime. Beide deutlich schlechter als die TUF. Sowohl von der Kühlleistung wie auch von der Optik. Dual und Prime sind Plastikbomber. TUF ist Vollmetall und fühlbar schwerer.

Zur Kühlleistung: Eine Dual war selbst mit 84 % Powerlimit noch immer lauter als eine TUF bei 100 %.

Ich empfehle daher den Aufpreis zur TUF.

Vielleicht gibt es zum Black Friday noch bessere Angebote, aber ich bezweifle es. Für Grafikkarten war der BF noch nie sonderlich gut.

Wie arbeitet die HDR-Kalibrierung von Windows 11?

Wenn du nen Monitor hast, der 1000 nits nur bei 2% Fläche schafft, und du im Kalibration tool 1000 nits auf 10% testest, dann wirst du trotzdem sehen, dass du bei z.B. 990 nits bereits Helligkeit verlierst.

Das heißt, obwohl der Monitor physisch dimmt, kann er trotzdem die Helligkeitsunterschiede anzeigen, weil der Monitor die 1000 nits nur signalseitig abschneidet. Wie das dann physisch ausgegeben wird, entscheidet der Monitor selbst.

Das muss ja auch so sein sonst hätte man bei einer extrem hellen Szene (wo viele Displays nur noch 250 nits schaffen) ja extremes clipping und würde sehr viele Details verlieren.

Aber nein, alle Details bleiben erhalten, nur der tatsächliche Helligkeitsoutput sinkt.

Mikoruckler in einem Spiel mit einem AMD Ryzen 7

Grafikchips - So, 16.11.2025 13:01
Ich habe da dieses lästige problem mit meinen Caver ,
will doch blos das das problem weggeht .

welches das ist, tut Nichst zur sache will das Problem nur weg habenm .
Problem Lösungen sind geldverschwendung hab doch Keine zeit
warum ist das so früher war das nicht So . :P
Warum machen die das so ? Alles wird Komplizierter
kannte michs früher gut aus, heute weis ich immer noch alles !

Will wegen Problem nicht Immer alles neukaufen ist doch Geldver Schwendung ,
geld spielt keine rolle aber ich hab balt keins Mehr !
Wer kann bei problem Helfen ?

nVidia - GeForce RTX 2080/Ti Review-Thread

Grafikchips - Do, 13.11.2025 15:20
Zitat: Zitat von Raff (Beitrag 13830893) Ich suche ja schon länger nach dem Eintrag bzw. Shot von Nvidia, bei dem erklärt wurde, dass Turing im Gegensatz zu folgenden Nvidia-Architekturen nur 2 von 3 Tasks parallel abarbeiten kann: Shading, Ray Traversal, DLSS. Wenn jemand etwas findet, bitte posten. :D

MfG
Raff Du meinst das?
https://www.purepc.pl/image/artykul/...ampere_6_b.png

Fragen zu BIOS-Einstellungen

Prozessoren und Chipsätze - Mi, 12.11.2025 12:47
Zitat: Zitat von Denniss (Beitrag 13839236) Kann ja sein das die Pumpe auf OPT angeschlossen ist und nicht auf Pump. Die Pumpe ist Richtig angeschlossen auf dem Fan4 Pump ganz unten
Temperatur und Drehzahl wird auch angezeigt ist aber eine andere als bei CPU.
So viel will ich im moment nicht rum experimentieren funktioniert ja Alles,
nur wenn ich mal was ändern will, will ich halt wissen wo für das ist ?

Rack 2.0

Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:

Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

Du meinst Sampler Feedback Streaming. Direct Storage alleine reduziert nur den CPU overhead.

Aber scheint wohl so als wäre SFS nicht praktikabel nutzbar. Oder hat irgendwelche Probleme/Limitierungen. Irgend nen Grund muss es ja geben, weshalb das nicht genutzt wird.

Bei Direct Storage GPU decompression stellt sich aber ansonsten auch die Frage, ob es ne miese implementierung ist oder nicht.

Microsofts KI lernt aus Deinem Gameplay - wenn Du es nicht abschaltest

Ist das Windows 11 exklusiv oder hat man das Problem auch bei Win10?
Aber eigentlich kann ich es auch anlassen, wenn es in Win10 drin ist. Das einzige was die KI von mir lernen kann, ist Selbstsabotage.

»UBIOS« statt UEFI: China entwickelt eigenes BIOS

Zitat: Zitat von Leonidas (Beitrag 13832087) Unwahrscheinlich. Im Westen wird man das dann "Sicherheitsrisiko" nennen und komplett ignorieren. im Westen ist UEFI ein Sicherheitsrisiko weswegen Google schnell drauf verzichtet hat.
Und IME...

Wenigstens war ich damals der erklärte Gegner jenes Mülls. Aber wer bin ich schon... Die gleiche Meinung hatte ich auch schon 2010 als WebGL herbeihalluziniert wurde. 2011 ging es dann los. Und dauert bis zum heutigen Tag an.

Probleme bei Frame Generation

Habe was Interessantes gefunden da ja CP77 nun offiziell XeSS Framegeneration auch mit non Intel GPUs unterstützt.



Mit XeSS-FG passen die Frequenzen am Bildschirm auch zu den Frames Ingame mit freien Frames. Verdammt... hätte ich das vorher gewusst hätte ich dies beim Fehlerbericht beigepackt. :D

btw.
Mit XeSS-FG passen die Frequenzen am Bildschirm aber nur mit Vsync On Ingame. Ohne Vsync springen die genauso wild hin und her. Ohne Vsync ruckelt aber auch XeSS-FG hier ziemlich stark, wäre so eh nicht nutzbar.

Gibt es ein generelles Stutterproblem mit dem 9800X3D?

Prozessoren und Chipsätze - Mi, 22.10.2025 15:18
Was für ein Browser wird benutzt? Irgendein Video-AI-Upscaling aktiv?

Intel - "Raptor Lake Refresh"/Core i-14000 Review-Thread

Prozessoren und Chipsätze - Fr, 17.10.2025 11:43
Ich habe immer noch ein älteres Bios bei mir. Hatte es mit neueren einfach nicht so zum laufen gebracht wie gewünscht, sobald UV eingestellt hat es Leistung verloren und der Takt ging auch nicht mehr wie eingestellt hoch. Ist auch nur ein 13600K der etwas übertaktet ist. Sollte es wirklich mal Probleme machen (raptor lake problem) kostet ein neuer 14600k ~180€, oder ich habe einen Grund aufzurüsten :)

nVidia - GeForce RTX 4080 Super Review-Thread

Grafikchips - Do, 16.10.2025 16:23
RTX 4080 Super unter Wasser, im wahrsten Sinne des Wortes. :D



Finde seine Reparaturvideos sehr spannend. :)

12VHPWR-Stecker: Das Problem und mögliche Lösungen

Grafikchips - Do, 16.10.2025 14:36
Zitat: Zitat von Matrix316 (Beitrag 13827798) Vor allem weil die Karten nur noch halb so lange sind wie früher. Nicht die Karten, sondern die Platinen. Musste es zwei mal lesen bevor ich es kapiert habe.

Da aber auch Implementierungen mit anders verlegtem Stecker (siehe Sapphires 9070 XT Nitro) das "Problem" haben, ist das maximal ein Teil der Lösung, aber nicht die Lösung. So wie auch der Wireview II Pro nur das Problem aufdeckt, aber nicht behebt.
So etwas aktiv überwachendes & regelndes wie Aquacomputer mit dem Ampinel hat, fest verbaut, wäre die Lösung. Oder halt ein weniger pfriemeliger Stecker mit ordentlich Sicherheitsmarge on top.

nVidia - Titan V

Grafikchips - Di, 14.10.2025 11:21
Ja, unter Linux tut sich immer noch was - selbst bei uralt-GCN-Karten. (Auch abseits von spielespezifischen Optimierungen.)
https://www.phoronix.com/news/Radeon...D-Tex-Old-GPUs
https://www.phoronix.com/review/radv-aco-gcn10

Um den Bogen zum Thema zu spannen: Dass das bei NVidia auch mal passiert ist zwar sehr unwahrscheinlich aber auch nicht unmöglich. Vielleicht läuft Volta in 10 Jahren ja unter Nouveau/Nova besser als mit dem NVidia-Treiber.

PCIe 4.0 und PCIe 5.0 - Wie entwickelt sich der Schnittstellenstandard?

Prozessoren und Chipsätze - Mo, 13.10.2025 08:53
Zitat: Zitat von Sardaukar.nsn (Beitrag 13825902) Die neuen Standards bestimmt in Zukunft maßgeblich China. Ja. Natürlich. Klar :ufinger:
Zitat: Daher kommt eh schon 90% der Ware. In den nächsten 10 Jahren wird man auch bei den ganzen Normen und Standards entscheiden: https://www.vdma.eu/viewer/-/v2article/render/4665076 Du meinst wie sie sich bei Wifi 6 auch einbrachten, und dann allen hinterherliefen Lizenzen für OFDMA zu zahlen?

Aber ok, wer kennt denn nicht die chinesischen Normen bei Netzteilen für Kleingeräte... Oder die chinesische Norm für Werkzeugstahl. Alles sehr sehr beeindruckend :freak:

PS:
Zitat: Zitat von Shink (Beitrag 13825920) Warum denn auch nicht, wenn die den Krempel fertigen müssen und die Standards so auf Kante genäht sind. Wir sollten sowas alles jetzt nicht auf den HPWR reduzieren ;)

180 Grafikkarten getestet: HD 5450 bis RTX 5090

Grafikchips - Mi, 08.10.2025 10:57
Thx. Super Idee. :up:
DX 11 & Windows 7 auch schon 15 Jahre her. Heftig.
Mal stöbern und gucken, was so drin ist.
Hätte selbst mal Lust auf so ein Hobby Projekt.
Zum Beispiel die eigenen nvidia GPU's durch die UE Historie zu jagen.
Bestimmt höllisch Arbeit. :freak:
Inhalt abgleichen