3DCenter Diskussionsforen

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

Neue Beiträge im Forum Technologie - vor 42 Minuten 20 Sekunden
Ehrlich gesagt sehe ich aber keinen optischen Unterschied zwischen FG 3.1.6 und FG 4.0.0. Ich betrachte sowas aber auch nicht mit 5% Speed im 400% Zoom. :D Das überlasse ich den Pixelzählern. ;)

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

Neue Beiträge im Forum Technologie - vor 1 Stunde 7 Minuten
Zitat: Zitat von Taigatrommel (Beitrag 13851812) Die fehlende Unterstützung für Vulkan stört mich ebenfalls. Ist denn bekannt, ob zumindest dran gearbeitet wird oder lässt man das stillschweigend sein? AMD unterstützt Vulkan nur sehr spärlich. Schon FSR3 bekam den Vulkan-Support sehr viel später.

AMD/ATI - RDNA 4 Verfügbarkeitsthread

Grafikchips - vor 1 Stunde 57 Minuten
@dargo
Denkst du, dass die Asus 9070 Prime OC EVO für 499€ ein guter Deal war? :redface:

BIOS-Update

Prozessoren und Chipsätze - vor 2 Stunden 2 Minuten
Heute gibt’s sicherheits Updates per bios

Ich nehm eig jede Version mit - bei jedem
Board… da kommen schon ein paar Flash Vorgänge zusammen

Bei meinen Gigabyte Boards mit am4 gehts nicht mit CPU

Bei nem Asus b650 von nem Bekannten letztens auch nicht
Stand nichts von im Handbuch - ging aber nicht - b650e mit 9800xd3 bootet natürlich nicht.

Hat 3 Versuche gebraucht dann insgesamt und ist nicht „zerflasht“
Nach dem 3. mal wollt er immernoch nicht - erst ein Bios reset hat dann geholfen

Im Bios und nicht im Windows updaten minimiert auch ein wenig das Rest Risiko.
Ein sterbendes Netzteil ist aber echt ein 6er im Lotto

nVidia - GeForce RTX 5080 Review-Thread

Grafikchips - vor 7 Stunden 3 Minuten
Zitat: Zitat von RoNsOn Xs Hey Joseph,
könntest du sonst hier nochmal exakt auf meine Fragen eingehen, wie ich sie im Thread stellte? Werde ansonsten übers Weekend nochmal bisschen versuchen zu tunen. :smile:

Das ist meine Kurve, beim VRAM habe ich einfach AB gemaxt, +3000 das läuft fast bei jeder RTX 5080. Bringt aber nicht so viel wie die hohe Zahl suggeriert aber ein bisschen je nach Spiel. Kannst das aber auch auf 0 lassen, und dafür die GPU höher ziehen. Ich habe immer schon beides getunt. Warum dein Takt in Steel Nomad sank, weiß ich nicht, bei mir ist der Takt immer fest angetackert. Vlt. war deine Kurve anders?

Bessere Monitore?

Welche Monitore meint ihr da Beide bitte, Modell und Type wären exakt ?

AMD - Ryzen 9000 Review-Thread

Prozessoren und Chipsätze - Mi, 10.12.2025 20:09
Zitat: Zitat von Semmel (Beitrag 13851433) https://www.mydealz.de/deals/9800x3d...conrad-2694243

9800X3D boxed für ca. 370 € Effektivpreis möglich.
Hab mir mal zum Spaß einen gekauft, auch wenn ich noch keinen RAM habe. :D Hm, ich habe Ram aber noch keine CPU. :uponder::|:biggrin:

nVidia - RTX 5000 Verfügbarkeitsthread

Grafikchips - Mi, 10.12.2025 18:50
MSI 5070Ti Expert für 756€

https://www.jb-computer.de/komponent...tner=geizhals#

Ich kann zu dem Shop nichts sagen, die 28 Bewertungen Bei GH sind Ordentlich aber bei Trustpilot steht der Shop sehr schlecht da (aber auch nur 11 Bewertungen), daher Vorsicht!

RISC-V

Prozessoren und Chipsätze - Mi, 10.12.2025 04:10
RISC-V im Framework Laptop:



Scheint zu funktionieren…wenn auch noch nicht besonders effizient.

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Zitat: Zitat von Ganon (Beitrag 13850888) Der Input Lag ist dann abhängig davon wo der Strahl gerade ist. Schwankt dann also zwischen 0 und 16 ms, was sich dann auf 8ms mittelt.

Der Lag ist nicht abhängig von 0-16ms sondern (bei 60Hz) immer mindestens 16ms oder bei PAL/50Hz sogar 20ms. Von einer zur nächsten Änderung einer Scanline vergeht immer mindestens diese Zeit. Auch wenn die Scanline in der Mitte 8ms nach der ersten gezeichnet wird, muss ja erst die untere Hälfte des Bildes, und dann wieder die obere Hälfte gezeichnet werden bis sie sich wieder ändern kann. Die Untergrenze für die Latenz ist damit immer eine ganze Frametime.

Spintronics

Ich stimme der Chatgpt Einschätzung im großen und ganzen zu..Wie schon weiter oben von mir gesagt und was jetzt auch da nicht richtig rüber kommt:

Die Anwendung wo MRAM jetzt schon genutzt wird, da ist es nichtmal sooo neu. Ein Vordringen in andere Anwendungen aber aktuell zweifelhaft, weil SRAM DRAM Flash halt doch zu gut weiterentwickelt wurden, als dass es da Potential gegeben hätte.

Für künftige Computingkonzepte ist Spontronik wohl genauso wahrscheinlich oder unwahrscheinlich wie jedes andere Major Konzept.

PS: Die Zeit, wo man bei Hossenfelder sinnvolle Infos erhalten konnte, sind glaub seit 5 Jahre gefühlt vorbei..

Intel - Arc B580 Review-Thread

Grafikchips - Mo, 08.12.2025 22:52
Xe3 in PTL kommt vor der größeren Xe2 dGPU. Naja das wird für längere Zeit die letzte Consumer dGPU, weil Celestial in Xe3p gestrichen wurde.

Vor 2028-2029 wird man wahrscheinlich nichts Neues bekommen, weil Intel andere Prioritäten verfolgt. Zum Beispiel mit AI Chips wie Jaguar Shore, der die Xe4 Architektur vor den iGPUs bekommt. Vorher noch Crescent Island in Xe3p. Die Architekturen werden trotzdem weiterentwickelt, so könnte in ein paar Jahren Celestial noch kommen, aber dann eben nicht mit Xe3p.

AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread

Grafikchips - Mo, 08.12.2025 15:23
Von dem was ich bisher mitbekommen habe von den ganze Billigen ist die Prime noch ganz in Ordnung, also verglichen mit Swift, Reaper, Steel legend, Challenger und Co.

Die Evo ist halt nochmals etwas Billiger (Kühler etwas kleiner) gemacht als die normale Prime, daher denke bei der 9070 ok, bei 9070XT, hm da lieber die normale Prime?

Frame Generation für jede GPU (Lossless Scaling)

Interessantes Video. Mich hat das Thema mit der 2. GPU noch überrascht. Das skaliert viel besser. Ich frage mich gerade, ob hier MIG (Multi Instance GPU) auf einer einzelnen GPU auch helfen könnte. Also wenn man z.B. 8x GPCs hat, das Game auf z.B. 6x GPCs laufen lassen und DLSS (SR, RR, FG) auf den restlichen 2x GPCs ausführt. Vermutlich kommt man damit netto aber nicht besser weg.

Real-time Raytracing

Neue ReSTIR Paper von Nvidia über die letzten 6 Monate:
https://cwyman.org/papers/sig25_ReSTIR_Splatting.pdf
https://research.nvidia.com/labs/rtr...rom2025restir/
https://research.nvidia.com/labs/rtr...2025partition/
https://research.nvidia.com/labs/rtr...g2025restirpg/

Hauptthemen sind dabei die bei ReSTIR übrig gebliebenen und schwierigen Probleme:
- Linseneffekte und Motion Blur
- Bewegung (Smearing, Blurring und Disocclusion)
- Lichtpfad-Korrelationen von ReSTIR (Boiling Artifacts)
- Schwierige Beleuchtungspfade (wenig Energie, kleine Leuchtquellen)
- Kaustiken und Refraktionen

Da gibt es zum Teil schöne Verbesserungen. Davon wird vermutlich das ein oder andere im RTXDI & RTXPT Repo auf Git landen.

Unreal Engine 5

Zitat: Zitat von Gymnopédies (Beitrag 13849362) Das machte doch den größten Charme mit aus, das viele Games ihre eigene "Handschrift" (Engine) hatten. Die „eigene Handschrift“ hat 0% mit der Engine und 100% mit dem Artstyle zu tun.

AMD/ATI - Radeon RX 9060 XT Review-Thread

Grafikchips - Fr, 05.12.2025 19:51
Zitat: Zitat von phoenix887 (Beitrag 13849029) Mein Non XT 9070 läuft seit Erscheinen mit -60mV. Idt numsl wie immer bei so Sachen Lotterie. Bissel Lotterie ist natürlich immer drin. Mich würde aber brennend interessieren ob die N48 die hier mit hohen, negativen Offset angegeben werden auch mein worst case in Ratchet & Clank überleben. :tongue: Leider testet das keiner. ;( Ich bin mittlerweile selbst am überlegen ob ich meinen N48 24/7 mit -45mV (R&C Test bestanden) laufen lasse oder ob ich doch nicht mehr nehme, da andere Spiele wesentlich mehr vertragen. Aktuell lasse ich bsw. -70mV laufen. R&C spiele ich eh nicht.

nVidia - GeForce RTX 5070 Ti Review-Thread

Grafikchips - Do, 04.12.2025 11:03
Zitat: Zitat von Dorn (Beitrag 13848179) Zusätzlich kann man sogar per FPS Limit den Verbrauch senken. :biggrin:
Wenn man ganz hart ist, DLSS und Frame Generation Regler bis zur Schmerzgrenze setzten. ;D Bis zu MFG x3 empfinde ich das auch wirklich ein valides Argument. Je nach Spiel liegst du da bei einer Latenz zwischen 40 und 60 ms, zumindest unter 4K. Das geht absolut klar.
Genau deshalb ist eine 5070 Ti für 4K auch wesentlich besser geeignet als es die 4070 Ti jemals war.

Unter 1440p kannst du dann richtig sparen. Das Transformermodell auf „Qualität“ sieht schon sehr gut aus, und unter 4K macht selbst „Balanced“ noch ein hervorragendes Bild.
Da fragt man sich wirklich: Wozu brauche ich eigentlich so einen dicken Stromschlucker wie die 5090 im Rechner? Nvidia macht sich da die Konkurrenz im Grunde selbst.

nVidia - GeForce RTX 5090 Review-Thread

Grafikchips - Di, 02.12.2025 11:42
Zitat: Zitat von x-force (Beitrag 13847177) das sind 0,1v mehr als nv bei den karten sonst freigibt.

bekommt man hier jedes jahr auf garantie ne neue karte, oder ist es ein märchen, dass der prozess auf den anderen karten nicht mehr hergibt? :rolleyes: Bei meiner Karte sinds 25mV. Von 1.125V auf 1.150V (bzw. je 5mv weniger).

Aber am Ende eh egal. Das XOC hat so ne niedrige Crossbar-Clock, dass es quasi immer langsamer ist als das Gigabyte und erstrecht langsamer als das Matrix BIOS. Außer man presst tatsächlich 900W+ durch.
Inhalt abgleichen