3DCenter Diskussionsforen

Grafikkarte wirkt sich auf die Dauer von Spiele-Ladezeiten aus

Grafikchips - vor 3 Minuten 29 Sekunden
Das Steam Shader Pre-Caching-Fenster dürfte ja jeder kennen, der schon mal Steam mit OpenGL, Vulkan oder Linux benutzt hat. Ich nehme mal an, das hat damit zu tun, oder?

AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread

Grafikchips - vor 22 Minuten 42 Sekunden
Zitat: Zitat von Hakim (Beitrag 13863052) Wenn ich mir bei Techpowerup die Hotspot Temps der TUF anschaue, die dort sehr gut sind, frage ich mich wie du mit -50 mV und 30W weniger bei 90 Grad Hotspot landest. Ja gut evt halt die Manuelle Lüfterkurve Die -50mV haben keinen Einfluss auf die Wattage (Wärmeentwicklung), zumindest nicht in den allermeisten Fällen bei Gamingworkloads. Dann boostet die GPU halt höher bis zum PT-Limit. Nur so als Randinfo, habe das Gefühl das wird oft hier missverstanden. Nur die tatsächliche Wattage bestimmt die Thermik. In Kombination mit Lüfter-RPM versteht sich von selbst.

Zitat: Zitat von Dant3 (Beitrag 13863118) Edit: Um es noch mal zum Abschluss zu bringen, gleiche Testbedingungen in Cyberpunk wie vorher, nur mit kompletten STOCK Settings, ergibt rund 56 Core / 83 Hotspot / 78 Speicher bei knapp unter 1400 RPM. Die "schlechten" Werte kamen also durch mein OC / Lüfterkurve zustande. Du hast doch mit -50mV und 300W überhaupt kein OC betrieben wenn die TUF @Stock 335W nuckeln darf, ganz im Gegenteil. :tongue: Oder anders ausgedrückt... du hast mit deinen Settings die Wärmeabgabe der Graka nicht erhöht sondern gesenkt. Also entweder braucht die TUF ordentlich Wind damit es noch halbwegs kühl bleibt und/oder in deinem Gehäuse wirds zu warm. Da du es ja mit Stocksettings jetzt selbst getestet hast wirds wohl eher ersteres zutreffen. Dann ist die ganze Kühlerkonstruktion bei der TUF aber wirklich absolut enttäuschend. Vor allem bei dem Materialaufwand.

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Ich erwarte erstmal nichts. Wir müssen uns wohl daran gewöhnen, dass Gaming bis auf Weiteres höchstens die zweite Geige spielt.

AMD/ATI - RDNA 4 Verfügbarkeitsthread

Grafikchips - Sa, 03.01.2026 17:29
Asus 9070XT Prime White für 580€

https://www.mydealz.de/visit/threadd...08816/12127085

Da aufs Coupon klicken, richtiger Betrag wird an der Kasse angezeigt

Intel - Arc B580 Review-Thread

Grafikchips - Sa, 03.01.2026 15:27
in der Intel Arc RGB controller software sollte man den Schriftzug abschalten können. Bei meiner A770 LE geht das da zumindest

AMD - Zen 3/Ryzen 5000 Review-Thread

Prozessoren und Chipsätze - Fr, 02.01.2026 19:23
Am Ende wahrscheinlich nur theoretisch interessant, die wenigsten dürften Alder Lake mit DDR5 kombiniert haben, zumindest bei Kauf im Releasejahr, da war DDR5 noch zu teuer bei zu geringen Vorteilen.

AMD - Ryzen 7 5800X3D Review-Thread

Prozessoren und Chipsätze - Fr, 02.01.2026 17:16
Zitat: Zitat von user77 (Beitrag 13861751) Habe ihn jetzt für 375€ verkauft den 5800x3d, gekauft damals für glaub ich 329€ November 2022, 3 Jahre gute Dienste und noch Gewinn gemacht.
Hole später noch meinen Ersatz: Ryzen 9 3950X (16C/32T) für 160€.
Total Overkill für das was ich ihn brauche. ja tatsächlich, in Ebay sind die gut was wert
375€ für den alten 5800x3d :freak:

hab auch noch DDR4 G.Skill B-Die über

der 5700x3d ist offenbar nicht mehr einfach zu erwerben, eigentlich schade damit liessen sich die alten Boards noch schön aufrüsten

Sammlung von GPU-Generations-Vergleichen (Tabelle im ersten Post)

Grafikchips - Fr, 02.01.2026 14:40
Aufruf an alle:
Ihr könnt mir auch gerne Links zu Artikeln oder (yt-)Videos da lassen, dass lästige Formatieren & Eintragen übernehme ich gerne :)

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

Zitat: Zitat von dargo (Beitrag 13861332) Danke... dir auch frohes Neues Jahr. :) Hoffe bist mittlerweile einigermaßen fit und hast das Schlimmste hinter dir? :) Ja Danke, ES lebt noch, war richtig heftig, aber z. Glück kurz

habe es gestern mit Kolleggas schon wieder gur krachen lassen
u.a. um 2:00h Nachts mit Auto durch Gegend gefahren
erstaunlich, was man da so alles zu sehen bekommt:biggrin:

Multi-GPU für AI

Grafikchips - Do, 01.01.2026 07:09
Ihr könnt jetzt ruhig noch eine extra KI-GPU anschaffen so lang es geht. Habe gerade mein System getestet wie es ist beim parallelen Zocken und Video-Rendern. Alles kein Problem, eine 5090+5070Ti sind in ComfyUI für Video-Rendering eingeteilt und zocken tue ich auf einer 3090 Path of Exile in 4K. Man könnte jetzt theoretisch noch 10Gb CLIP auf die CPU/RAM legen und die 5070Ti für irgendein Chatbot verwenden, aber mit meiner 6-core CPU lande ich zu lang auf 100% CPU-Auslastung, was für paralleles Gaming nicht so gut ist.

Es ist wirklich sehr komfortabel wenn man in ComfyUI zwanzig Videoprompts aufreihen kann und dann Stunde später aus dem Spiel alt-tabben und das Resultat angucken.

nVidia - GeForce RTX 4090 Review-Thread

Grafikchips - Mi, 31.12.2025 23:51
Wenn Pu der Bär auf Taiwan feuert ist sowieso alles verloren.

interessant ist, das fast alle Pubär Memes bezüglich XI aus dem Internet verschwundenen sind

*reminder Xi = PuBär

nVidia - GeForce RTX 5070 Ti Review-Thread

Grafikchips - Mo, 29.12.2025 16:38
Hab ich beim Testspiel also grad auch noch daneben gegriffen. Murphy lässt grüßen….

8 GB VRAM – Problem der Hersteller oder der Käufer?

Grafikchips - Sa, 27.12.2025 19:02
die 5060 ist echt hart beschissen.. fliegt weiter und macht platz für eine Ti mit 16GB.


(..)

mfg
tobi

Gaming auf 8k

Zitat: Zitat von Gouvernator (Beitrag 13858501)
Die Zukunft ist dann nur noch AI Echtzeit-Rendering. Nicht nur paar Shader und Texturen - alles. Dafür müsste man mit es erstmal schaffen mit AI pro Rechenleistung mehr darzustellen als mit klassischen Rendertechniken. Davon ist man noch meilenweit entfernt.

Die heutigen Bildgeneratoren sind extrem ineffizient und nicht viel mehr als ein Proof of Concept. Da braucht es komplett neue Algorithmen um irgendwie an Echtzeit Bildgenerierung überhaupt denken zu können, und die fallen nicht von heute auf morgen vom Himmel.

Wenn sich da algorithmisch nichts signifikantes bewegt sind wir aktuell beim AI-Rendering aktuell in etwa am Stand der 80er bis 90er beim Raytracing. Wenn wir also rein mit Rechenleistung in die Richtung Echtzeit AI-Rendering kommen wollen, sind wir mindestens 30-40 Jahre davon entfernt, realistisch eher weiter da es nicht anzunehmen ist, dass wir in den nächsten 30 Jahren ähnliche Steigerungsraten der Rechenleistung sehen werden wie seit den 90ern bis heute.

OLED macht Fortschritte

Wäre ich auch dabei, wobei ich noch ein bisschen breiter und zb 6k2k noch geiler finden würde des qrbeit Willens :D
Inhalt abgleichen