3DCenter Diskussionsforen

nVidia - GeForce RTX 5090 Review-Thread

Grafikchips - vor 1 Stunde 12 Minuten
Als „Wärmepumpe“? :D
Strom geht rein - heiße Luft kommt raus :ulol:

AMD/ATI - RDNA 4 Verfügbarkeitsthread

Grafikchips - vor 1 Stunde 42 Minuten
Wenn man Asus TUF haben will geht es auch bei Asus, wären dann wenn ich nicht falsch gerechnet habe 639€

Bessere Monitore?

Neue Beiträge im Forum Technologie - vor 2 Stunden 9 Minuten
Also bei den OLEDs habe ich die maximal möglichen 30 Tage eigentlich fast ausgereizt. Wobei ich bei dem letzten ja erst keine Probleme hatte, die kamen dann erst nach ein paar Tagen Pause wieder... Von daher werde ich nicht schlau draus. Falls ich den IPS jetzt behalte, kann ich es natürlich nochmal länger versuchen, falls es nicht zu unangenehm wird.

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

Neue Beiträge im Forum Technologie - vor 4 Stunden 5 Minuten
Zitat: Zitat von robbitop (Beitrag 13853458) Der kleine Sprung in der Revisionsnummer impliziert allerdings nur kleine Änderungen. Redstone wirkte bei so einer langfristigen Ankündigung ja eher nach einem major release (oder zumindest nach ein wenig mehr). Nicht wenn es sich um eine technische Version handelt, was bei einer DLL sinn macht. Die Erhöhung der ersten Nummer die major version, ist ein Bruch der API oder Prozesse, es Bedarf einer Änderung im Code wo die DLL verwendet wird. Die zweite Nummer ist die minor version, API und Prozesse sind erweitert worden, bleiben aber kompatibel. Die letzte Nummer ist die Build und Bugfix version, wenn sich nichts an der API oder Prozessen ändert, so wird diese erhöht.

Eine Verbesserung des ML-Models ohne Änderung oder Erweiterung der Input, was ein API Change wäre, ist also mit der Erhöhung der letzten Nummer völlig ausreichend. Und man kann keine generelle Ableitungen machen. Das Marketing kann es FSR 15 nennen und intern ist die DLL weiter eine 4.x.y ...

---
Edit: Das ist natürlich Mist.

Zitat: API changes:
- Added ffxCreateContextDescUpscaleVersion which must be linked to ffxCreateContextDescUpscale when creating a context to ensure correct behavior with future updates.

AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread

Grafikchips - vor 6 Stunden 51 Minuten
Da ich aktuell aufgrund einer Virusinfektion (letzter Freitag und Samstag waren die absolute Hölle ;() verdonnert bin zu Hause unnütz rumzueiern hatte ich mir gedacht schaust du dir an was ein Unterschied von -45mV zu -70mV tatsächlich real so ausmacht. "Auf dem Papier" hört sich das Delta nach relativ viel an, in der Praxis ist der Unterschied bei der weiteren Spannungssenkung dann doch deutlich niedriger. Habe dafür den sehr gut reproduzierbaren CP77-Benchmark genommen. Jeweils drei Durchläufe, von diesen Daten dann den Schnitt vom Mittelwert.
Anhang 94875

-45mV, -500Mhz, max. 261W:
Anhang 94876

-70mV, -500Mhz, max. 261W:
Anhang 94878

-70mV, -500Mhz, max. 252W:
Anhang 94877

Das Delta "auf dem Papier" zwischen -45mV und -70mV beträgt hier 25mV. Tatsächlich wurde die Spannung aber nur im mickrige, weitere 5mV abgesenkt im Schnitt. Das finde ich schon irgendwie bemerkenswert wie diese Offsetwerte im Treiber täuschen können. Bei max. sehen wir immerhin reales Delta von 10mV. Um die gleiche Performance von -45mV, -500Mhz max. 261W zu erreichen lassen sich weitere 9 Wattchen einsparen. Aber auch mit diesem max. 252W Setting sieht man nirgendwo ein Delta von 25mV vom "Papier" sondern nur ein Delta von 18mV bei den avgs Voltage.

PS: die 5% percentile und 1% percentile bitte nicht auf die Goldwaage legen. Die Frametimes sind seit Patch X bei CP77 nicht so pralle. Da kann es schon mal etwas größere Abweichungen geben. Ich habe mich hier praktisch nur an den avgs. orientiert.

Edit:
Nochmal drüber nachgedacht...

-45mV, -500Mhz, max. 261W = 2762Mhz im Schnitt bei 894mV
-70mV, -500Mhz, max. 252W = 2778Mhz im Schnitt bei 876mV

Ich habe mit dem max. 252W PT nicht ganz genau die 2762Mhz getroffen. Würde ich den genau treffen würde das 25mV Delta hier tatsächlich passen. Im Prinzip fehlt nur eine Spannungsstufe ausgehend von den hier abgebildeten 18mV zu den zu erwartenden 25mV.

btw.
Bei dem ersten Vergleich mit -45mV vs. -70mV bei jeweils max. 261W hatte ich natürlich einen Denkfehler. Das Delta von nur 5mV, damit kann man hier logischerweise nichts anfangen da der Takt mit -70mV @2813Mhz 51Mhz höher liegt und somit mehrere Taktstufen in der neuen V/F-Kurve höher.
Miniaturansicht angehängter Grafiken        

nVidia - GeForce RTX 5080 Review-Thread

Grafikchips - vor 7 Stunden 31 Minuten
Zitat: Zitat von Matrix316 (Beitrag 13853245) Nur mit den Zahlen bin ich nicht ganz zufrieden. Oder hat jeder seine Karte übertaktet? Irgendwie bin ich ganz leicht unter Durchschnitt, aber anscheinend doch über den Ergebnissen einer Founders Edition. Takt ist immer so bei 2,8 GHz rum. :confused: Ich denke mal das die meisten welche den 3DMark verwenden auch schauen was mit der Karte möglich ist - um die 10000 Punkte sollten drin sein beim Speedway.

Ich lauf derzeit bei 3 GHz mit 0.935 V - ich bin mir nicht sicher ob das stabil ist :) 0.945 lief stabil über lange Zeit bei 3 GHz. Über 3 GHz muss man die Spannung empfindlich anheben um überhaupt noch stabil zu sein - bei mir ist so bei 3.1/3.15 GHz schluss mit 1.025 V - dann regelt auch das Power Target ab. Klar geht die Karte auch auf 3.2 GHz - jedoch hab ich das noch nie stabil bekommen auch wenn ein Speedway run durchläuft.

nVidia - RTX 5000 Verfügbarkeitsthread

Grafikchips - vor 16 Stunden 52 Minuten
Alza hat die 5090 wieder für 2500. Ist ein Schnäppchen, nehme ich an, bei Verfügbarkeit sonst um die 2700-2800.


Also wer noch einen Brand 3D-Beschleuniger braucht .......

https://www.alza.at/gainward-geforce...ce=geizhals_at

Wie bekommt man eine Titan Ada?

Grafikchips - vor 17 Stunden 5 Minuten
Wenn ich mich recht erinnere, hat er dazu auch mal was in einem Video gesagt. Angeblich hat die Karte ihn $ 10.000,- gekostet, vergleichbar wenig und sicherlich nicht nur heute ein begehrtes Sammlerstück ;-).

In dem verlinkten Video sagt er auch einiges zu dem Design und den Sachen die man zum Teil wenn auch in leicht abgewandelter Art bei der 5090 wieder findet. Er meint zum Schluss, dass dies in Serie noch mal deutlich aufwendiger zu produzieren gewesen wäre wie z.B. die 5090, die ja schon ein heftiges Overengineering erfahren hat.

Intel - Stabilitätsprobleme bei Raptor Lake

Prozessoren und Chipsätze - vor 17 Stunden 13 Minuten
Letztens den Lappi mit 13980 HX dagehabt. Gestreichelt, funzt immer noch.

Obligatorisch:




Obriges gilt auch auf der Arbeit jetzt zur Weihnachtszeit wenn keine Sau verfügbar sein wird.


Abropos: Auffer Arbeit einige neue Maschinen bekommen -> alles Ratpor Lake (wohl weil billig).

BIOS-Update

Prozessoren und Chipsätze - So, 14.12.2025 23:32
Zitat: Zitat von Theworlds (Beitrag 13853062) Eigentlich könnte man hier auch schließen Gerne.

AMD - Ryzen 9000 Review-Thread

Prozessoren und Chipsätze - So, 14.12.2025 22:06
Zitat: Zitat von Gipsel (Beitrag 13850215) Speichercontroller-Lotterie
Ne, das Problem lag ganz anders! Zum Einen muss ich leider behaupten, dass ich das dümmste Schaf auf Erden bin und das Problem lag tatsächlich lediglich ausschließlich daran, dass ich mit dem x3d keine +200Mhz bei allcore -15 fahren kann. Auf 175MHz läuft alles in Butter. Ich hätte sicher auch das UV anpassen können, dies will ich aber nicht. Diesbezüglich ging mein non3d besser, aber nun gehen 8400mt/s echt easy, was der non 3d nicht geschafft hat. Bei dem war bei ~8370mt/s Ende.

nVidia - GeForce RTX 5070 Ti Review-Thread

Grafikchips - So, 14.12.2025 14:00
Zitat: Zitat von Lurtz (Beitrag 13853175) Ich hoffe jetzt eher das sind Treiberprobleme Möglich. Wenn Blackwell crasht, crasht das offenbar gerne hart die Firmware o.ä. auf der Karte. Hab ich schon bei diversen Sachen gehabt (Ursache aber keine Treiber-Crashes/Bugs direkt): Der Treiber kam dann nach einem Reset gar nicht mehr aus den Puschen und ich musste das System erstmal komplett ausschalten.

RISC-V

Prozessoren und Chipsätze - Mi, 10.12.2025 04:10
RISC-V im Framework Laptop:



Scheint zu funktionieren…wenn auch noch nicht besonders effizient.

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Zitat: Zitat von Ganon (Beitrag 13850888) Der Input Lag ist dann abhängig davon wo der Strahl gerade ist. Schwankt dann also zwischen 0 und 16 ms, was sich dann auf 8ms mittelt.

Der Lag ist nicht abhängig von 0-16ms sondern (bei 60Hz) immer mindestens 16ms oder bei PAL/50Hz sogar 20ms. Von einer zur nächsten Änderung einer Scanline vergeht immer mindestens diese Zeit. Auch wenn die Scanline in der Mitte 8ms nach der ersten gezeichnet wird, muss ja erst die untere Hälfte des Bildes, und dann wieder die obere Hälfte gezeichnet werden bis sie sich wieder ändern kann. Die Untergrenze für die Latenz ist damit immer eine ganze Frametime.

Spintronics

Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:

Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.

Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.

PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..

Intel - Arc B580 Review-Thread

Grafikchips - Mo, 08.12.2025 22:52
Xe3 in PTL kommt vor der größeren Xe2 dGPU. Naja das wird für längere Zeit die letzte Consumer dGPU, weil Celestial in Xe3p gestrichen wurde.

Vor 2028-2029 wird man wahrscheinlich nichts Neues bekommen, weil Intel andere Prioritäten verfolgt. Zum Beispiel mit AI Chips wie Jaguar Shore, der die Xe4 Architektur vor den iGPUs bekommt. Vorher noch Crescent Island in Xe3p. Die Architekturen werden trotzdem weiterentwickelt, so könnte in ein paar Jahren Celestial noch kommen, aber dann eben nicht mit Xe3p.

Frame Generation für jede GPU (Lossless Scaling)

Interessantes Video. Mich hat das Thema mit der 2. GPU noch überrascht. Das skaliert viel besser. Ich frage mich gerade, ob hier MIG (Multi Instance GPU) auf einer einzelnen GPU auch helfen könnte. Also wenn man z.B. 8x GPCs hat, das Game auf z.B. 6x GPCs laufen lassen und DLSS (SR, RR, FG) auf den restlichen 2x GPCs ausführt. Vermutlich kommt man damit netto aber nicht besser weg.

Real-time Raytracing

Neue ReSTIR Paper von Nvidia über die letzten 6 Monate:
https://cwyman.org/papers/sig25_ReSTIR_Splatting.pdf
https://research.nvidia.com/labs/rtr...rom2025restir/
https://research.nvidia.com/labs/rtr...2025partition/
https://research.nvidia.com/labs/rtr...g2025restirpg/

Hauptthemen sind dabei die bei ReSTIR übrig gebliebenen und schwierigen Probleme:
- Linseneffekte und Motion Blur
- Bewegung (Smearing, Blurring und Disocclusion)
- Lichtpfad-Korrelationen von ReSTIR (Boiling Artifacts)
- Schwierige Beleuchtungspfade (wenig Energie, kleine Leuchtquellen)
- Kaustiken und Refraktionen

Da gibt es zum Teil schöne Verbesserungen. Davon wird vermutlich das ein oder andere im RTXDI & RTXPT Repo auf Git landen.
Inhalt abgleichen