3DCenter Diskussionsforen

AI/Machine Learning in Gaming

Bei ihm läuft ein KI-Agent auf einem Gaming-Laptop. Mir solls nur recht sein. Ich hab öfters Gedanken gehabt richtig schöne Games in 8K von einem Bot spielen zu lassen wo ich nur zugucke. Die Idee ein Game zusammen mit einem eigenen Laptop durchzuspielen finde ich äußerst amüsant. Während er zockt, kannst du mit ihm auch noch per STT quatschen und ihm eine passende Persönlichkeit wie in Voxta verpassen. Von mir aus können es alte NES Spiele sein oder auch nur ein Spiel. So Battletank 1991 oder Bomberman zu viert mit drei lustigen LLMs. Shut up and take my money...

Unreal Engine 5

DLSS 4 Plugin für Unreal Engine 5.6 ist nun verfügbar

-> https://developer.nvidia.com/rtx/dls...e=6#getstarted

Arroganz oder Berechnung?

Grafikchips - Do, 03.07.2025 23:07
Zitat: Zitat von Raff (Beitrag 13776714) Was mich dabei immer etwas aufbaut, ist die Tatsache, dass MFG mehr Speicher braucht als "keine FG". Sprich, die Fälle, wo der VRAM eng wird, werden häufiger – und das kann man mit den richtigen Settings gegen diese "Blendermodelle" verwenden. :naughty: Japp.

Zitat: Zitat von x-force (Beitrag 13776846) nene, du bist da auf einem auge blind.

du hast dich auch in diesem post nicht dazu geäußert unter welchen umständen mfg auf den karten überhaupt sinnvoll ist!

du erwähnst nie, dass flüssige settings nur einen klick(texturen) entfernt sind.
du berücksichtigst nicht, dass für mehr als 1080p eh die rohlleistung fehlt.
du berücksichtigst nicht, dass mit 1080p max texturen eh nicht sinnvoll darstellbar sind.

usw usf ich finde Raff in fast allen Fällen als sehr ausgewogen.

Es stimmt schon, dass man in der Praxis nicht unbedingt auf Ultra zockt, also auch nicht auf Max-Texturen und dass man dann auch nicht so schnell ins VRAM-Limit läuft. 2024 hielt ich Raffs Warnungen vor 12-GiB-Karten für noch leicht übertrieben, aber 2025 halte ich Warnungen vor 8-GB-Karten für Pflicht.

Wobei ich bei meinem Lappi mit mobiler "4070" (also 4060 Ti) mit 8 GB keine Sorgen habe weil ich weiß was man damit machen kann und was nicht. Ganz ehrlich? Gerade für das Powertarget und die schleißigen 8 GB VRAM finde ich die mobile 4070 ziemlich gut, wenn man sich ein wenig Zeit nimmt, verschiedene Setting zu probieren.

Für einen Desktop dürften 8-GB-Karten aber aktuell nicht so viel kosten, weil man absehbar in Probleme läuft. 1440p ist das neue 1080. Rohleistung haben die GPUs der 50-er Serie eigentlich reichlich. Was Nvidia schon immer hinbekommen hat, seit der ersten Geforce, ist Rohleistung.

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

Zitat: Zitat von dildo4u (Beitrag 13777540) Vermutlich immer noch grottige Performance dafür besseres Bild?

Monster Hunter FSR4 Support ab Montag.

https://info.monsterhunter.com/wilds...020.00.00.html Steht ja sonst kein Wort von irgend welchen Performanceverbesserungen in den Patchnotes. Also Capcom und PC Spiele :freak:

Eure CPU-Historie

Prozessoren und Chipsätze - Fr, 27.06.2025 10:08
Update
Haupt PC:
  • 80286-16
  • Intel Pentium 120 @133
  • AMD K6-2 400
  • AMD K6-2 450
  • AMD Duron 700 @1033
  • Intel Pentium 4 - 1,6 (Northwood) @2,4
  • AMD A64 3700+ @ 2,7
  • AMD X2 3600+ @ 2,8
  • Pentium Dual-Core E5200 @ 2,9
  • Intel Core2Quad Q9650 @3,6
  • Intel Core i7-2600k @4,5
  • Intel Xeon E3-1240v3
  • AMD Ryzen 7 3700X
  • AMD Ryzen 9 5900X
  • AMD Ryzen 7 5800X3D
  • AMD Ryzen 7 7800X3D
  • AMD Ryzen 7 9800X3D
Laptop und zweit PC:
  • Intel Pentium T4200
  • Intel Atom x5-Z8300
  • Intel N95
  • AMD Ryzen 7 5700G

Wie sieht Eure PC-"Grafikkarten-Laufbahn" aus?

Grafikchips - Do, 26.06.2025 09:24
Zitat: Zitat von Shink (Beitrag 13773180) Ja wow, von A770 16GB auf B580 auf A750 8GB... dir ist vermutlich auch langweilig? Hehe, ne, hatte die sehr günstig bekommen und nutze die als Notnagel. Der Sprung von A770 auf B580 macht schon Sinn, da die B580 um einiges besser performt hatte. Jedoch war der Overhead bei den Treiber/der Karte Müll (siehe im B580 thread)

8 GB VRAM – Problem der Hersteller oder der Käufer?

Grafikchips - Mi, 25.06.2025 14:43
Zitat: Zitat von PHuV (Beitrag 13773050) Da es doch mittlerweile genug Alternativen auf dem Markt gibt, ist das für mich nur eine Scheindiskussion und Empörung. Einfach nicht kaufen, oder nur ab 12-16 GB kaufen, fertig. Und sorry, wer sich nicht vorher in den entsprechenden zahlreichen PC Technik-Foren informiert und keine entsprechenden Tests liest, selbst schuld. So ist es, neutrale sachliche Tests lesen und dann für sich selbst entscheiden.

Dieses ständige Gejammer der Medien kann man sich mMm. wirklich sparen – das sind am Ende vor allem Infos für Enthusiasten, nicht für Durchschnittskäufer.

Ich meide diese Formate/Publikationen mittlerweile konsequent.

AMD/ATI - Radeon RX 9060 XT Review-Thread

Grafikchips - Mi, 25.06.2025 11:16
Zitat: Zitat von NOFX (Beitrag 13776135) Geht das Bild auch kleiner als in Originalgröße? :)

Passt der 5700X nicht gut bzw. limitiert der die Karte? Ich wollte meinen Ryzen 1600 auch mal upgraden, da der 5700X3D ja jetzt immer teurer wird, hatte ich auch auf den 5700X spekuliert mit zukünftig einer 9060XT um die Radeon RX480 8 GB abzulösen. Nee der 5700X passt von der Leistung her gut dazu und kostet mit 110€ auch kaum noch was. Das Upgrade wird sich für dich auf jeden Fall lohnen.

Ist bei mir eher ein subjektives Problem. Die 8-Kern Zen3 werden durch den kleinen DIE stellenweise schnell heiß. Dürfen zwar bis 95 Grad warm werden und alles darunter sollte technisch kein Problem sein. Ist aber so ne Kopfsache bei mir das die CPU nicht heißer als 75 Grad werden soll. Und da wird es im ITX Build mit einem max. 90mm großen Single-Tower Kühler dann herausfordernd das leise zu bekommen.

Leute, wie könnt Ihr so zocken?

Der neuste Samsung 8K von 2025 mit 8K120 hat auch noch kein BFI@120Hz. Das 60Hz Flickern ist der einzige noch vorhandene Nachteil. Von der Helligkeit und so gibt es von mir nichts zu beanstanden. Retroarch NES Games sehen mit dieser Helligkeit ziemlich bombastisch aus, quasi wie ein 65" CRT mit 500nits. Bin hin und her gerissen zwischen PC Games in 8K und altem 2D. Wenn ich gerade begrenztes Budget hätte würde ich alles in eine High-End Samsung 8K Glotze stecken und verbliebenen Rest in eine Grafikkarte... Der Nutzen von hellem BFI in 65" ist so gewaltig.

Intel - Stabilitätsprobleme bei Raptor Lake

Prozessoren und Chipsätze - Di, 24.06.2025 14:39
Ich glaube, dass das hier noch vllt am nächsten an die Sache rankommt.

https://x.com/jaykihn0/status/1818800333222789519

Seit dem ich die Firmware updates drauf hab, hab ich auf die Southbridge noch einen Alphacool Kupfer Kühler draufgepappt, weil er jetzt wärmer wurde (im Idle).


Und das hier könnte mit reinspielen(wurde von mir im März erwähnt):

Zitat: Zitat von mocad_tom (Beitrag 13721361) https://www.asus.com/de/motherboards...ro-WS-W680-ACE


Version 4001 12.52 MB 2024/10/30

"1.Updated with Intel microcode 0x12B to address elevated voltage requests during idle or light activity, further mitigating Vmin Shift instability issues.
2.The option to disable C1E in the BIOS has been removed to ensure it remains enabled, reducing processor stress and maintaining stability per Intel's recommendation."


Version 4101 12.52 MB 2025/01/14

"1.Enhanced system performance, stability and allowed the C1E power state to be disabled."


Ich denke der Teufel steckt da in diesem Detail(C1E).
Zuerst erzwingt man C1E immer aktiv zu haben und dann baut man wieder ins BIOS ein, dass man C1E optional deaktivieren kann.

Ich glaube, dass die am meisten degradierten Systeme, die dauerhaft in einem C0 standen und eine schnellabtastende Maus dranhatten - sprich 24/7 Betrieb und an der Maus rütteln und der Monitor wurde Hell.

Laptop HX werden davon weniger betroffen sein, weil die halt später dann in S3(Suspend-to-RAM) bis S4(Suspend-to-Disk) gehen.

(Ich weiß nicht ob Always-on-Always-Connected in HX so einfach implementiert werden kann - Arrow Lake-HX hat ja z.B. auch keine LPE-Cores auf dem SoC-Die)

IPC-Vergleich: Blackwell, Lovelace, RDNA4 & RDNA3

Grafikchips - Di, 24.06.2025 12:51
Zitat: Zitat von VooDoo7mx (Beitrag 13775756) Und was beim Vergliech zwischen Ada und Blackwell oft nicht beachtet wird, ist dass Blackwell viel emhr Takt je Spannungspunkt schafft.
Das heißt, wenn man die Karten (Ada und Blackwell) manuell einstellt, egal ob man Undervolting oder Overclocking betreibt, wird der Abtsand zu Gunsten Blackwell nochmal deutlich größer. Ist solange man nicht der Verbrauch vergleicht oder Power limitiert ist, ist das völlig Wurst. Ob die Karte für z.b. 2.5 GHz nun 900mV oder 1000mV braucht macht für die Performance keinen Unterschied.

nVidia - GeForce RTX 5070 Ti Review-Thread

Grafikchips - Mo, 23.06.2025 17:31
Hat hier eigentlich jemand schonmal (gilt im Endeffekt für alle Blackwell-GPUs) eines der 80Gbps-Kabel ausprobiert? Scheint wahrscheinlich kein funktionierendes mit >2m zu geben? Hatte jetzt probehalber das 3m von Silkland hier, was auch bei der Länge mit 80Gbps beworben wird (zertifiziert sind deren Kabel aber offiziell nur bis 2m), aber das funktioniert leider überhaupt nicht. Dachte erst, liegt am UV/OC, dass es permanent Freezes gab, bis ich dann mal auf die Idee kam, es könnte ja das Kabel sein. Und zack, Monitor von DP2.1 zurück auf 1.4 gestellt und alles an Problemen verschwunden.

Ansonsten warte ich halt, bis es vielleicht irgendwann mal auch offiziell funktionierende Kabel mit 3m Länge gibt. Wenigstens funktioniert DLDSR bei Blackwell ja jetzt auch mit DSC.

Native Auflösung, DLSS oder DLAA: Wenn die FPS gleich bleiben, was bevorzugt Ihr?

Grafikchips - Mo, 23.06.2025 12:04
Bei der Frage kommt es beim PC Monitor immer auf die Zielauflösung. Hier gibt es eben Leute, die die noch mit 2560x1440 oder 3440x1400 auf 45" (würg) rumkrebsen.

Ich nutze ein 27" UHD Monitor (163ppi) und den 16" 2560x1600 Laptop Screen. (189 ppi)
Bei beiden Bilschirmen kann ich bei DLSS Q kaum oder eigentlich keinen Unterschied zu nativer Auflösung feststellen.
Wenn man dann noch das neu Transformermodell nutzen kann, ist es sogar möglich niedrigere DLSS Stufen zu nutzen.

Am 55" UHD OLED TV bei einen Sitzabstand von 3-4m kann ich auch keinen Unterschied feststellen.

Also nutzte ich eigentlich immer DLSS wenn möglich.

Da ich mittlerweile komplett auf Laptop umgestiegen bin, ist es gerade auch beim Laptop wichtig so wenig W wie möglich durch die GPU zu jagen damit das Gerät immer noch leise bleibt. Also ist auch da DLSS sehr wichtig. Bei 240Hz nimmt man natürlich auch gerne die zusätzlichen fps mit.
Aber selbst auf meinen 4090 Desktop habe ich immer DLSS genutzt auch wenn mehr als genug Leistung übrig war.
Die Stromrechung dankt und gerade auch zur warmen Jahreszeit sind mal 150W weniger Wärme die im Raum verteilt werden auch sehr entspannend.

nVidia - GeForce RTX 5080 Review-Thread

Grafikchips - Mi, 18.06.2025 13:46
Zitat: Zitat von Mayk-Freak (Beitrag 13772971) Danke für den Bios Link, hab das Bios gerade auf meine 5080 Zotac Solid OC geflasht und es funktioniert einwandfrei endlich hat Zotac auch ein ordentliches Power Bios und man muss nicht das Asus Astral Bios nehmen. Ich konnte es auch erfolgreich Flashen - hab mein Silent Bios überschrieben. Nur leider erreiche ich keine Mehrperformance und die ganze Sache wird instabil. Es schaut so aus als würde durch die Mehrabwärme das mehr an Taktfrequenz aufgefressen. Bin erst mal wieder aufs 'amplify' Bios zurück - cool das die Karte dual bios hat.

Zum rumspielen machts schon Spass, werde sicher noch einige Stunden versuchen das maximum raus zu holen mit dem Bios - für den Alltagsbetrieb scheint es mir aber nicht tauglich.

Komischer Nebeneffekt - 3DMark findet kein Display - im Benchmark run seh ich nichts, er läuft aber durch und gibt mir offizielle Punkte.

Danke für die Hilfestellung auf jeden Fall.

Board wechseln für XFX Radeon RX 6750 XT oder nicht, oder überhaupt diese Karte?

Grafikchips - Sa, 14.06.2025 18:39
Zitat: Zitat von GrimReaper85 (Beitrag 13730206) I was looking for a backup card, but I wouldn't be buying a 3070 even for a backup. I already bought Gigabyte Gaming OC 6700 XT with bad paste (2200 rpm at 180W) and bad fan bearings, one ASUS Strix 2080 with VRAM artifacts, one ASUS Strix 2080 Ti with VRAM artifacts and flickering black screen (all three certainly mined) and one EVGA 2080 Ti with bad paste (80°C+ and 2500 rpm+ at 260W and 73°C and 2000 rpm at 180W) and bad fan bearings, sold each one.
I will simply not ever sell 5070 Ti and it will be a backup card sometime.
You simply cannot get a very good card under €800 anymore. Maybe 7800 XT, but above €500 it is also too much. The risks of buying a used card - Das Risiko beim Kauf einer Gebrauchtkarte.
Ich denke ich würde Kühler und Paste erneuern (und natürlich auch die Pads auf den Speichermodulen) wenn möglich. Ansonsten hoffe ich, Du hast den Käufer nach Dir über die Probleme informiert.
Als Neuware würde ich wohl eher die 9070 oder 9070 XT nehmen, weil preiswerter. Aber wenn ich die 5070 Ti schon gekauft hätte, würde ich sie auch behalten. Technisch ist die gut.
Zitat: Zitat von GrimReaper85 (Beitrag 13730206) 9060 XT 128-bit 16GB as fast as 7700 XT seems OK at your expected €350-400.
But price just can't and won't be this low. MLID says $399, maybe $349. That is in Euro €450-500 which is yet again terrible value, you can already get a 20% faster 7800 XT for €500. And I agree with MLID even if I compare to what 9070 costs - $550 or €700. There just can't be such a huge gap between €400 and €700. Look at Geizhals, several offers for the 9060XT 16 GB below €400. That is with German VAT. - Unter €400 mit deutscher Mehrwertsteuer.

Edit: Oops, accidential necromancy

Intel - Alder Lake - Review-Thread

Prozessoren und Chipsätze - Sa, 14.06.2025 08:44
Wieso sollte das Bartlett Lake sein? den Specs nach ein Alder Lake mit mehr Takt ...

AMD - Zen 3/Ryzen 5000 Review-Thread

Prozessoren und Chipsätze - Fr, 13.06.2025 23:38
Der 5500X3D ist jetzt offiziell gelistet von AMD.

3GHz Base, 4 GHz maximal Takt, 6C/12T. Bin gespannt wo AMD den preislich ansiedelt. Sollte ca 10% unterhalb des 5600X3Ds herauskommen, der kostete ~ 230$. Sub 200$ ist also Pflicht. 5700X3D liegt immer noch bei 225€, sollte der 5500X3D hier erscheinen würde ich 150€ anpeilen (da liegt ein 12600KF) wenn ich AMD wäre (wird aber nicht passieren, weil AMD halt AMD ist).

Apple MetalFX Upscaling

MetalFX kommt neu auch mit Frame Generation und Ray Reconstruction:
https://www.computerbase.de/news/bet...n-apple.93069/

Frame Generation für jede GPU (Lossless Scaling)

1.3:
Zitat: Quality Improvements
Enhanced overall image quality within a specific timestamp range, with the most noticeable impact in Adaptive Mode and high-multiplier Fixed Mode
Improved quality at lower flow scales
Reduced ghosting of moving objects
Reduced object flickering
Improved border handling
Refined UI detection

Introducing Performance Mode
The new mode provides up to 2× GPU load reduction, depending on hardware and settings, with a slight reduction in image quality. In some cases, this mode can improve image quality by allowing the game to achieve a higher base frame rate. https://store.steampowered.com/news/...72320947848078
Inhalt abgleichen