3DCenter Diskussionsforen

Bessere Monitore?

Zitat: Zitat von Relex (Beitrag 13847266) Ja, die dunkeldarstellung bei OLED ist einfach nur geil. Nicht nur Schwarz. Das ist das was die Mini LED-Fanatiker offenbar nicht verstehen. Dass das beeindruckende bei OLED nicht das Schwarz = Abschalten einer Zone ist, sondern die Details bei sehr niedrigen Nits.

Wenn mans nicht gesehen hat, weiß man nicht was man verpasst. Ich warte seit 25 Jahren auf so eine Displayart (und jetzt kann ich sie nicht benutzen :usad:).

Zitat: Zitat von Grindcore (Beitrag 13847276) Als Besitzer eines Mini-LED Monitors kann ich nur sagen, dass das Ganze ziemlich gut funktioniert. Und ich habe den Vergleich zu einem OLED-Display. Gerade mit HDR ist der Kontrast einfach nur top und stellenweise wie eine LED-Taschenlampe direkt in die Visage. Das Local Dimming eliminiert den IPS-Glow komplett, Arc Raiders ist hier ein absolutes Paradebeispiel, die zahllosen dunklen Passagen sind auch mit lediglich SD + Local Dimming UM LÄNGEN besser als "normales" IPS, der Kontrast immer ausreichend. Ist natürlich eine kompromissbehaftete Technologie im Vergleich zu OLED allein schon die Fummelei in den Einstellungen an meinem Xiaomi, aber zum Zocken ist das einwandfrei und dieses LD-bedingte Bleeding stört im allgemeinen null. Ja, Sonne oder sowas kann schon toll aussehen. Aber gerade den Effekt einer Taschenlampe kriegen OLEDs viel besser hin, weil Mini LED in dunklen Szenen seine Helligkeit gar nicht nutzen kann.

Und SDR und Local Dimming, naja. Kann subjektiv schon besser aussehen, was die Akkuratheit der Darstellung angeht, kommt da objektiv aber ziemliche Grütze raus was Gamma etc. angeht.

Und ja, auch das Gefummel nervt, weil nicht jeder Modus mit jedem Content gut funktioniert.

Zitat: Zitat von Troyan (Beitrag 13847280) Alleine das VRR Flimmern macht OLEDs absolut untauglich, wenn man im "dunkeln" spielt. Da bringt der tolle Kontrast nichts, wenn das Bild vor sich hinflackert.

Ich bin von dem 500Hz Oled auf meinen MiniLED zurück und in Starwars Outlaws habe ich mich gewundert, wieso plötzlich das alles so hell ist. Die meisten OLEDs schaffen mit ihren <=350 Nits bei 50% Helligkeit kaum mehr als typische SDR Bildschirme. Da hat man dann null mehr von HDR und der wahrnehmbare Kontrast liegt deutlich unter vernünftig laufenden MiniLEDs. Ich habe mit MFG außer in Menüs kein Flackern gesehen. Auf dem VA bisher nicht mal in Menüs.

Letzteres kann ich nicht nachvollziehen. Ja, Mini LED kann sehr hell werden, aber der Kontrast sinkt dennoch, weil das Local Dimming den Kontrast nicht mehr herstellen kann. Merkt man auch wenn man in hellen Szenen das Local Dimming von der höchsten Stufe auf Aus stellt. Da tut sich fast nichts mehr, weil das Bild einfach schon flach ist und überhaupt kein "lokaler" Kontrast mehr da ist.
OLED wird nicht so hell, aber der Kontrast bleibt bis zum hellsten Punkt viel höher.

AMD - Ryzen 9000 Review-Thread

Prozessoren und Chipsätze - Di, 02.12.2025 19:54
Zitat: Zitat von mczak (Beitrag 13847529) Wie soll das gehen ohne neues IOD? Ja, ich weiß, war ne ziemlich dumme Frage.

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

Zitat: Zitat von dargo (Beitrag 13847342) Danke. :)

Streamline schmiert weiterhin, Nukems sieht gut aus. danke fürs testen
streamline?
aber nukems immerhin:smile:

nVidia - GeForce RTX 5070 Ti Review-Thread

Grafikchips - Di, 02.12.2025 12:43
Zitat: Zitat von Semmel (Beitrag 13847434) Fast das Gleiche ereiche ich mit offener Kurve und einem Powertarget von 252 Watt. (@5800X3D)
Da habe ich einen konstenten Stromverbrauch von diesen ca. 252 W.
Damit läuft die GPU ebenfalls meistens zwischen 2950 und 3000 MHz, aber sie darf eben zwischenzeitlich auch mal auf knapp 3,3 GHz @ 1,05 V boosten. Ich habe sogar den Eindruck, dass das die Frametimes verbessert. Da bin ich aktuell mit meiner großen 5090 dabei zu testen, ob sich die 60–70 Watt mehr lohnen, nur um die Karte über 3000 MHz zu prügeln und ob das in den 1%-Low-Perzentilen überhaupt einen Unterschied macht.
Je nach Setting wären das 200–300 MHz mehr Takt, aber dafür kratzt man dann auch an der 600-Watt-Grenze. Da sitze ich im Büro quasi im T-Shirt und kurzer Hose :freak:

Die 5070 TI TUF OC ist halt eine extrem leise Karte durch den Kühler. Wenn ich sie bei etwa 925 mV bei Laune halte, bleiben die Lüfter konstant bei 700–800 RPM.
Dadurch hörst du am Ende alles andere im Rechner nur die GPU nicht. Sobald du aber über 1,05 Volt boostest, verändern sich Temperatur und damit natürlich auch die Lüftergeschwindigkeit.
Unterm Strich dürfte es bei den normalen AVG-FPS keine große Rolle spielen, ob du mal kurzzeitig höher boostest oder konstant knapp unter 3 GHz fährst. Am Ende des Tages greift so oder so das Powerlimit.

nVidia - GeForce RTX 5090 Review-Thread

Grafikchips - Di, 02.12.2025 11:42
Zitat: Zitat von x-force (Beitrag 13847177) das sind 0,1v mehr als nv bei den karten sonst freigibt.

bekommt man hier jedes jahr auf garantie ne neue karte, oder ist es ein märchen, dass der prozess auf den anderen karten nicht mehr hergibt? :rolleyes: Bei meiner Karte sinds 25mV. Von 1.125V auf 1.150V (bzw. je 5mv weniger).

Aber am Ende eh egal. Das XOC hat so ne niedrige Crossbar-Clock, dass es quasi immer langsamer ist als das Gigabyte und erstrecht langsamer als das Matrix BIOS. Außer man presst tatsächlich 900W+ durch.

AMD - Ryzen AI 300 Serie SoC - Strix Point Zen5+RDNA3.5 (P)Review Thread

Prozessoren und Chipsätze - Mo, 01.12.2025 17:45
https://gpdstore.net/de/product/gpd-win-5/

Das GPD Win 5 gibt es jetzt mit 128 GB RAM zu bestellen, und mit 4 TB SSD kostet es 3000 Euro.

Wie sieht Eure PC-"Grafikkarten-Laufbahn" aus?

Grafikchips - Mo, 01.12.2025 14:51
Zitat: Zitat von Silvir (Beitrag 13803540) Der Liste eine (gebrauchte) 3060 TI hinzugefügt ... Spielzeug für meinen Oculink-Dock (eGPU).

Hercules monochrome (Hersteller unbekannt, falls nötig + software CGA emulator)
Paradise EGA 64KB(?)
Trident 8800 512KB
irgendeine VLB-Karte
ATI Rage II 2MB
Helios Voodoo Rush 6MB
Matrox Millenium G200 4MB + Creative Voodoo II 8MB
Hercules Geforce 2 MX400 32MB
Asus Geforce 6800 128MB
Powercolor X1900XT 512MB
Sapphire HD4870 1024MB
MSI GTX 480 1536MB
Asus Matrix HD 7970 Platinum 3072MB
MSI GTX 970 100ME 3584+512MB
Palit GTX 1080 Gamerock 8096MB
PowerColor Red Dragon RX 6800 XT 16384MB
Inno3d RTX 3060 TI GDDR6X X3 OC 8096MB

Notebook:
ATI Mobility 9000
AMD HD6310
NVIDIA GT 840M
Intel HD Graphics (Cherrytrail)
Intel HD 520
AMD 780m Black Friday FOMO ...

Hercules monochrome (Hersteller unbekannt, falls nötig + software CGA emulator)
Paradise EGA 64KB(?)
Trident 8800 512KB
irgendeine VLB-Karte
ATI Rage II 2MB
Helios Voodoo Rush 6MB
Matrox Millenium G200 4MB + Creative Voodoo II 8MB
Hercules Geforce 2 MX400 32MB
Asus Geforce 6800 128MB
Powercolor X1900XT 512MB
Sapphire HD4870 1024MB
MSI GTX 480 1536MB
Asus Matrix HD 7970 Platinum 3072MB
MSI GTX 970 100ME 3584+512MB
Palit GTX 1080 Gamerock 8096MB
PowerColor Red Dragon RX 6800 XT 16384MB
Inno3d RTX 3060 TI GDDR6X X3 OC 8096MB
ASUS Prime Radeon RX 9070 XT OC Edition 16384MB

Notebook:
ATI Mobility 9000
AMD HD6310
NVIDIA GT 840M
Intel HD Graphics (Cherrytrail)
Intel HD 520
AMD 780m

VIA - Zhaoxin x86-Prozessoren

Prozessoren und Chipsätze - Mo, 01.12.2025 14:39
Nicht schlecht. Da haben die Chinesen innerhalb kurzer Zeit ziemlich aufgeholt. Multi-Thread bei mehr Energieaufnahme also im Bereich eines Intel Gen14. Und Single-Thread immer noch deutlich zurück einige Generationen aber auch aufgeholt.

Zitat: Zitat von Badesalz (Beitrag 13846708) Über eine digitale Souverenität auf dem Niveau eines i7-14700 kann ich nicht lachen. Jetzt so, als Deutscher.

Auch nicht darüber, daß China nicht in der MS365-Hölle steckt. Ja das stimmt. Das beste was in Deutschland aus einer FAB laufen könnte war ein 28nm Bulldozer Derivat, gerade noch so für Office ausreichend. Da sollte die China CPU selbst Single-Thread mittlerweile dran vorbeigezogen sein.

AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread

Grafikchips - Mo, 01.12.2025 09:09
Zitat: Zitat von Dant3 (Beitrag 13846999) Grundsätzlich kotzt es mich mit der grafikkarten lotterie nur noch an.
Die hersteller können noch so tolle kühler / lüfter verbauen, wenn die spulen so ein riesige schwachstelle sind bringt das doch alles nichts und erscheint einfach nur noch absurd. Ich war und wäre ja eigentlich immer noch ein riesiger freund von optimierten silent systemen, aber man kann am restlichen system wirklich alles raus holen, die grafikkarte scheißt dir dann einfach mal quer in alles rein und es hat sich mit silent erledigt. Früher gabs Lotterie bei Monitoren (LCDs) die mich auch nur noch angekotzt hatte, heute sind es Grafikkarten. :freak:

AMD/ATI - RDNA 4 Verfügbarkeitsthread

Grafikchips - Mo, 01.12.2025 08:23
Zitat: Zitat von Haarmann (Beitrag 13846972) Einmal eure Preise in CH ;)

Wären 485 - seltsamerweise ist die Karte aber über 10% teurer ... selber Laden natürlich. Öhm... du wirst es überleben.

Monatliches Durchschnittseinkommen Brutto 2022 in der Schweiz = 6.788 CHF (7.275 Euro)
Monatliches Durchschnittseinkommen Brutto 2024 in Deutschland = 4,634 Euro

;)

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Wir haben in der Firma die Visualiserung von Revit Dateien (Gebäude) in Envision getestet, da gab es DLSS als Upscaler. Man kann die Gebäude dann virtuell begehen und bsp. Videos für einen Kunden erzeugen - oder es ihm sogar live zeigen.

https://www.chaos.com/envision

Gutes Upscaling ist da bitter nötig, die Mitarbeiter arbeiten auf mobilen RTX PRO / Quadro GPUs, die sind nicht so wahnsinnig leistungsfähig. Gleichzeitig haben sie aber 4K Monitore, da man darauf die feinen Strukturen einfach besser sieht. Aktuell kaufen wir RTX PRO 2000 Blackwells in den Thinkpads, das sind de facto mobile 5060s mit weniger TGP - die profitieren sehr stark von DLSS.

Unreal Engine 5

Live-Event mit 8-10 Millionen Spielern gleichzeitig und mutmaßlich 60fps HWRT auf PS5:


Ich behaupte mal, dass wäre mit keiner anderen verfügbaren Tech auch nur im Ansatz so möglich gewesen (auch wenn ein paar Glitches).
Lief hier mit DX12 und immer noch schönen Legacy-Details wie Butter.

Real-time Raytracing

Zitat: Zitat von Relex (Beitrag 13846369) (CoD oder Das Spiel hier) Zwei Spiele zeigen noch keinen Trend.
Vielleicht sollten sie neue Engines entwickeln, die sofort für RT optimiert sind.
RT wurde hier ja auf vorhandene Engine angeflanscht

AMD/ATI - Radeon RX 9060 XT Review-Thread

Grafikchips - Fr, 28.11.2025 17:50
Zitat: Zitat von Raff (Beitrag 13845228) Die kleine Schwester der Radeon RX 9060 XT im ersten vollumfänglichen Test:

Radeon RX 9060 vs. Geforce RTX 5050 im Test: Welche Karte für 250 Euro ist die beste? Schlägt sich ganz wacker. Ich finde ja immer noch die hätte im Hinblick auf das Gesamtportfolio deutlich mehr Sinn gemacht als die 9060 XT 8 GB - da hat man dann im Vergleich mit der 9060 XT nicht eine Karte die nominell gleich schnell ist aber an Speichermangel leidet und etwas günstiger ist, sondern eben wirklich eine Einsteigerkarte die dafür nochmal günstiger ist. Aber man hat wohl bloss wenige teildefekte Chips, und möchte da nicht Massen davon verkaufen.
Interessanterweise wenn man sich so die Preise ansieht von der 9060 XT 8 GB und der 7600 sollte die 9060 eigentlich kaum noch teurer sein als letzere, und ist dabei natürlich deutlich besser.

Sind Quantencomputer in drei Jahren das Maß aller Dinge?

So langsam überschlagen sich die Meldungen. Was war denn jetzt der Durchbruch? Ich hab nichts mitbekommen :usad:
https://www.hpcwire.com/off-the-wire...ting-adoption/

https://www.hpcwire.com/off-the-wire...antum-mission/

usw. usw. usw.

Intel - Arrow Lake Review-Thread

Prozessoren und Chipsätze - Fr, 28.11.2025 08:43
Bessere oder besser gesagt gefixte Performance unter Linux
Speedometer war auf Zen1 Level in 2024.

https://www.phoronix.com/review/core...-9-285k-2025/2

OLED macht Fortschritte

Ich schätze das es genau für Handys am meisten Sinn macht da sparsammer.

https://www.notebookcheck.net/Upgrad....997696.0.html

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

Zitat: Zitat von ][immy (Beitrag 13844452) Nvidia ist auch gerade dabei den gaming Markt quasi zu verlassen, ist ja inzwischen für die nur noch ärgerlich das man die Produkte dich in anderen Bereichen teurer verkaufen könnte. Klar deswegen tritt man gerade voll auf Holiday Season Marketingschiene und veranstaltet sowas wie die Geforce Gamer Festival in Seaul wo sogar Jensen anwesend war. Was macht AMD schnell?

Multi-GPU für AI

Grafikchips - Sa, 22.11.2025 20:48
Zitat: Zitat von Daredevil (Beitrag 13843690) Mit Thunderbolt 5 kannst du maximal 4x M3 Ultra zusammenschalten ( MacOS 26.2 ) und kommst auf 2TB VRAM. Und wenn du Bock auf basteln hast, kannste an die Macs auch noch ne AMD/Nvidia Karte anstöpseln per USB. ( https://x.com/__tinygrad__/status/1991927844562522311 )

Gilt das als MutliGPU? :D Ja natürlich gilt das als multiGPU. Man muss eigentlich die Macs immer im Auge behalten. Aber das ist auch nicht günstig... Wenn ich bei Idealo auf 96Gb Ram klicke , dann sind es effektiv wie meine 72Gb Vram mit 3 Karten. Für etwa den gleichen Preis. 128Gb sind schon mal deutlich günstiger und 256Gb,512Gb sind quasi Schnäppchen... :uup:

Ne, in meinem Fall nutze ich AI als Resteverwertung. Quasi jede neue Grafikkarte ist künftige neue AI Karte. Ich kaufe "KI" nur noch in Teilstückchen dazu, falls es für irgendwas signifikant nützliches reichen soll.

Wie gerade jetzt mit 800€ 2-Slot 5070Ti. Für 60Gb LLMs. Wenn man eine recht frische 100B LLM per Systemprompt jailbreaken kann, ohne sie gleichzeitig dümmer zu machen, dann kommt man an erstaunliches Wissen heran. Um mal das Gegenwert für diese teure multi-gpu Spielerei zu verdeutlichen.

PS.
Für Vibe-Coding reichen lokale Rechenkapazitäten eh nicht aus. Wie ich feststellte, brauche ich für meine Verhältnisse 200B+ Modell mit minimum 70t/s, besser 150t/s...
Inhalt abgleichen