Forenneuigkeiten

Real-time Raytracing

Neue Beiträge im Forum Technologie - vor 1 Stunde 24 Minuten
Zitat: Zitat von dargo (Beitrag 12580543) Das glaube ich dir gerne. Ich hatte damals bei Crysis 1 auch kein Problem damit mit 1024p und 30+fps ohne VRR zu spielen. Ich habe mich aber als Spieler weiter entwickelt und würde heute Beides auf keinen Fall akzeptieren. Ich habe in keinem Spiel mit RT 30 FPS, sondern komme über das Grafikmenü eigentlich fast immer auf mindestens 60 FPS - wobei mich leichte Drops mit Gsync auch nicht wirklich stören. und trotzdem hätte ich MSAA deshalb niemals missen wollen. Und natürlich habe auch ich mich weiter entwickelt, spiele in Ultrawide, in einer höheren Auflösung als damals, trotz neuer Grafiktechnologien. Und da gehört RT für mich eben dazu. Bei dir klingt meine Argumentation, als sei sie kein Fortschritt zu dem, was man damals in Crysis erlebt hat.

Zitat: Zitat von dargo (Beitrag 12580543) Das ist ein völlig falscher Vergleich im Kontext. TAA hat den Renderingprozess vs. MSAA beschleunigt und nicht (erheblich) verlangsamt wie Raytracing. Nein, das ist genau der richtige Vergleich im Kontext. Denn zuerst kam ja MSAA - keine Ahnung, ob du die Zeiten ohne noch kennst. ;) Andere Methoden, die leistungsfähiger waren, kamen ja erst Jahre später dazu. Zukünftig wird man bei der Entwicklung von RT sicher auch neue Methoden entwickeln, während parallel dazu die Rohpower ansteigt. Wie ich bereits sagt - irgendwann musste da einer den ersten Schritt machen. Ich habe sowas in der Evolution von Spielewelten schon Dutzende mal erlebt. Eigentlich ist das mit RT wie immer in den vergangenen 25-30 Jahren.

AMD/ATI - Radeon RX 6XXX Verfügbarkeitsthread

Grafikchips - vor 1 Stunde 43 Minuten
Gigabyte Radeon RX 6900 XT AORUS MASTER

https://www.techpowerup.com/277753/g...-graphics-card

P.S.: Gigabyte ist für mich noch Favorit vor ASUS bei Grafikkarten mit AMD-GPUs.

Performance & Enthusiast: Aktuelle Grafikkartenpreise #2

Grafikchips - vor 1 Stunde 55 Minuten
Hui ... 1660 Super für 300 Euro - gebraucht. Die Preise sind +100 Euro gestiegen. Vllt sollte man nun überzählige Grafikkarten verkaufen?

NVIDIA GeForce Game Ready 461.09 WHQL

Grafikkarten - vor 3 Stunden 9 Minuten
Ja persönlich halte ich es falsch alles bei dieser Komplexität nur aus einer Perspektive zu betrachten die einem passt und alles andere zu ignorieren innerhalb der gesammt workflow balance.
Der Aufwand aber ist eben für viele zu hoch, Nvidia hat ja interessanterweise versucht zum Ampere Launch alle auf eine einigermaßen gleiche Linie zu bekommen mit ihrem Hardwaretest Kit was einige Reviewer ja erhalten haben und teils drüber schmunzelten b.z.g der Genauigkeit.

Aber wie gesagt Nvidia ist hier nicht ganz unschuldig mit ihrem ewigen vorangehenden Benchmark gepushe und DLSS wird nunmal von vielen als Cheat betrachtet was absolut absurd ist aber irgendwann werden sie Anfangen es zu akzeptieren wenn sie verstehen das sie es eh schon akzeptieren ;)

Und b.z.g nur aus einer perspektive betrachten ;)

Zitat: Das gilt auch bei der Videowiedergabe auf YouTube. Für ein Ultra-HD-Video mit 60 FPS (VP9) benötigt die Radeon RX 6900 XT 53 Watt, die GeForce RTX 3090 derweil nur 38 Watt. Anders sieht es dagegen aus, wenn HDR hinzugeschaltet wird: Mit 61 Watt ist die AMD-Karte dann gute 22 Watt sparsamer als das Konkurrenzmodell. Da darf man gespannt sein auf Ampere vs Navi 2x Notebooks internal/external HDR playback und Gaming

AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread

Grafikchips - vor 3 Stunden 25 Minuten
Igor kann nur sein Testsample testen und bewerten. ;) Ich weiß aber jetzt nicht ob Igor ein Testsample von MSI bekommen hat oder die Karte im Retailmarkt gekauft hat. Oder du einfach mit deiner Pech hattest, nützt dir jetzt natürlich nichts.

AMD/ATI - Radeon RX 6800/6900(XT) OC/UV

Grafikchips - vor 4 Stunden 32 Minuten
Zitat: Zitat von /Locutus oB (Beitrag 12579971) ein neues 750 watt be quiet. was soll das damit zu tun haben?

is halt irgendwie komisch. z.B. 3dmark läuft sauber in einer Dauerschleife und man denkt sich super alles stabil. geh ich danach in wattman is alles wieder auf Default. ich schliesse da momentan nichts aus.. habe mir jedenfalls ein neues mit mehr headroom bestellt und will mal sehen ob sich dadurch etwas ändert.

Ich teste immer mit Witcher 3.. da gehen immer schön die Lüfter hoch und .. bei 1060mv und weniger ist der Treiber in Game immer ausgestiegen (ins Menü kam man noch , aber sobald die Ladesequenz vorbei war.. plop und zurück auf den Desktop)

Ryzen + Mainboard + RAM Erfahrungen

CPU's und Mainboards - vor 6 Stunden 15 Minuten
Für Interessierte:
Hab endlich Detailinformationen zu den ECC capabilities von den AMD CPUs gefunden:

https://www.amd.com/system/files/Tec...h-3Fh_BKDG.pdf

Data Poisoning scheint mir auch ohne ECC eine sinnvolle Option. Dann bekommt das Program, das auf als kaput erkannten Speicher zugreifen will, eine Exception anstatt mit falschen Daten weiter zu machen. Keine Ahnung ob das bei "Auto" aktive ist und wie gut das bei normalen DRAM wirkt. Es gibt ausser ECC auch CRC im DRAM. Wenn das wirkt, dann kann man sicher bessere die Stabilität des Speichers checken.

Rasseln/Zirpen bei der RX 6800

Grafikkarten - vor 6 Stunden 56 Minuten
Das neue NT ist bereits auf dem Weg und sollte Ende der Woche da sein.




Gruß

NVIDIA GeForce Game Ready 461.40 WHQL

Grafikkarten - vor 14 Stunden 51 Minuten
Danke, das ist auch kein Thema, bleibt ja stets genug Zeit um das vorzubereiten, ab 15 Uhr gehen die Artikel auf GeForce erst online und solange warte ich zumeist ab. :)

GeForce Hotfix Driver Version 461.33

Grafikkarten - vor 14 Stunden 52 Minuten
Zitat: Zitat von McSilencer (Beitrag 12577031) Blaire bei mir passiert mit dem Treiber genau das Gegenteil, ich habe deutlich mehr Abstürze. Hab das die letzten Tage auf meinen 3 PCs (2x 2080ti und 1080ti) mehrfach "getestet". Bei 2 PCs hab ich mit DDU (1x 2080ti und 1x 1080ti) mehrfach gereinigt/deinstalliert und beim anderen immer ganz normal per Windows. Ergebnis war immer das gleiche, mit 461.33 auf allen 3 PCs nach ganz unterschiedlicher Spielzeit (von 15 min bis 2½ am Stück) kontinuierlich Abstürze mit 460.89 nicht einen einzigen. Bei einem Freund von mir mit 3080 das gleiche Problem. Kannst du mal bitte "nachfragen", ob es dazu ähnliches Feedback gibt oder nur wir beide mit unseren PCs dieses Problem haben, schon mal Danke im voraus.

Ach ja, und das damals geschilderte Problem mit den Freestyle Einstellungen (siehe PN) ist leider auch noch nicht behoben. :wink: https://www.forum-3dcenter.org/vbull...d.php?t=604570
Wäre interessant zu wissen, ob immer noch Crash-Probleme in Assassins Creed Valhalla mit dem neuem 461.40 GRD bestehen oder ob nun alles wie gewünscht funktioniert?! :)

nVidia - GeForce RTX 3090 Review-Thread

Grafikchips - Di, 26.01.2021 23:24
ah, sehr nützlich jetzt muss ich nur noch Kühlkörper auf die Backplate packen und man wird wahrscheinlich einen Unterschied feststellen... oder der Wassersblock kommt endlich mal ...

90°C hat der RAM bisher nicht erreicht, typisch sind so rund 80°C in Cyberpunk 1440p@60Hz
Miniaturansicht angehängter Grafiken  

Alter WLAN Stick unter Windows 10

Neue Forenbeiträge - Di, 26.01.2021 22:13
Da das DLAN immer mal wieder Abbrüche und schlechte Übertragungsraten hat, wollte ich einen ältere Hama WLAN USB Stick nutzen, dieser wird allerdings nicht unter Windows 10 erkannt, es gibt anscheinend nur offizielle Treiber bis Windows 7: https://de.hama.com/service/download...k/wireless-lan .Habe diese mal installiert, bringt aber leider nix.

Gibt es eine andere Möglichkeit das Teil unter Windows 10 zum Laufen zu bringen? Alternative universelle Treiber, o.ä? Wäre zu schade da Teil einfach wegzuschmeissen, nur weil es keinen offiziellen Treiber Support mehr gibt.
Kategorien: 3DCenter Forum

OLED macht Fortschritte

Zitat: Zitat von ezzemm (Beitrag 12579150) ...Zu der Zeit habe ich viel BF3 gespielt, und bin dort mit dem LittleBird oft über Flaggen gekreist; also Fadenkreuz auf den Flaggenbereich und seitlich gekreist. Und mit LightBoost war trotz meiner eigenen Bewegung und der der Gegner diese immer gut und scharf zu sehen.
...
Aber die Abwesenheit des Blurs war ein Traum. Für MP-Shooter, wo man eh die Grafik runterregelt um 120+ fps zu haben, ist das Fehlen von VRR auch kaum ein Problem. Auch ich hatte hier u.a. Battlefield (vor allem aus dem Grund, weil hier oft totales Chaos mit vielen Gegner gleichzeitig herrscht) im Kopf. Das strengt so schon extrem die Augen und die Konzentration an. BF1 auf PS5 läuft ja mit brauchbaren 60fps, allerdings gibt es da eine Dschungelmap, da verschmieren die Gegner regelrecht mit dem Hintergrund bei schnellen Drehungen auf dem LG CX. Und wenn man da nicht mit einem speziell abgestimmtem Bildmodus trickst, hast du einfach jedesmal das Gefühl nichtmehr gegen die Gegner, sondern gegen den Monitor zu spielen.

Ja, es ist OLED und OLED ist theoretisch extrem schnell (auch der Input Lag wird ja stetig für Gaming immer weiter optimiert/reduziert, auch wenn das ein vollkommen anderes Thema ist), aber es ist einfach so, dass man eben merkt, dass OLEDs vornehmlich eben primär TVs sind, und man da immer irgendwo Abstriche machen muss.

Klar, warum auf Konsole mit nur 60fps spielen...nur wird es eben dort recht schnell sehr deutlich. VRR auf PC ist natürlich nochmal haushoch überlegen, aber auch hier gilt ja obiges, nur eben in stark abgemildeter Form.

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

Nun gut ich hab mich mal erbarmt. Es tut ja sonst keiner! Hab bisher nur die PC Version des GamePass genommen, aber mit der Xbox Version konnte ich mir nochmal den 1€ Zugang erschummeln !

Ich hab VRS Tier 2 nun getestet und wie ich vermutet habe, variiert der Leistungsgewinn enorm nach Szene. Hier ein Idealszenario für VRS Quality:



off




Der Leistungsgewinn ist hier beträchtlich, da die dunkle Lichtstimmung viele gleich aussehende Pixel bedeutet. Diese können dann in geringerer Präzision gerendert werden.

Eine etwas normalere Szene:

off



on



Auch hier kann VRS einiges an Leistung rausholen, aber doch weniger als in dem Ideal-Szenario.

Es gibt natürlich auch einige Szenarien, da holt VRS kaum etwas raus, da es dann zu viele einzigartige Pixel gibt. Besonders in hellen und variierenden Szenen ist der Leistungszuwachs gering.



on



Trotzdem, auch 1-2 FPS kann man definitiv mitnehmen!

Was die Qualität angeht ist diese im Qualitätsmodus praktisch nahezu nicht von der nativen Auflösung zu unterscheiden. Wenn dann fällt es absolut nicht ins Gewicht. Von daher kann man das Feature im Qualitäts-Modus getrost anlassen, da die Performance an einigen Stellen schon ordentlich geboostet wird.

Ich könnte mir vorstellen, dass Entwickler immer besser drin werden, VRS in die Spiele einzubauen und ordentlich auszunutzen! Insgesamt also definitiv ein cooles Feature!

Bessere Monitore?

Zitat: Zitat von robbitop (Beitrag 12579584) Ist aber oft Geschmackssache. Jo, wobei mein Geschmack ist, HDR auf LCD, besonders im Monitor-Bereich, ist einfach nur Müll bzw. ein Checklisten-Dingens, wenn man's erst mal auf einem OLED gesehen hat.
Der Eindruck ist manchmal, manches Marketing- und sonstiges-Bla bzgl. HDR würde nur aus einem Punkt bestehen= max. Helligkeit.

Intel - Tiger Lake - Review Thread

Prozessoren und Chipsätze - Di, 26.01.2021 18:43
Das Fazit bei CB ist auch vernichtend:

https://www.computerbase.de/2021-01/...7-11370h-test/

Intel Core i7-11370H im Test: Tiger Lake-H35 mit vier Kernen im RTX-Gaming-Notebook

"Am Ende bleibt es, wie es ist: Auf Tiger Lake-H35 hat der Markt nicht gewartet, er dürfte schnell im Abseits verschwinden. Vielmehr lautet nun die klare Botschaft: Wenn es hohe Leistung in einem Intel-Notebook und nicht in einem AMD-Notebook sein soll, dann gilt es auf Tiger Lake-H45 zu warten: Alle jetzt erkannten Probleme werden dort nicht anzutreffen sein."

3090 - Treiber-Crash beim Booten (video scheduler internal error)

Grafikkarten - Di, 26.01.2021 18:26
Hallo

Danke für eure Rückmeldungen!

Es hat sich wohl erledigt, mit dem Abschalten einiger Services (Vray License + Dongle Verwaltung), ggf. auch mit dem Entfernen der Dongle. Der Zusammenhang zum BSOD ist mir weiterhin ein Rätsel, da die Hardware und Peripherie sonst nicht verändert wurde, aber Hauptsache es funktioniert wieder.

AMD fTPM für Bitlocker ja/nein?

Neue Forenbeiträge - Di, 26.01.2021 18:11
Ich will Bitlocker benutzen und denke über den fTPM nach.

Ich habe schon im Netz nach Infos/Reviews gesucht und bin unteranderem auf dieses Video gestoßen: https://youtu.be/JeiJE6ocSGo

Das der fTPM bei einem BiosUpdate zurückgesetzt wird sehe ich als kein Problem. Man kann ja Bitlocker suppenden.

Hat sich hier schon jemand damit beschäftigt?
Eure Erfahrungen und Meinungen würden mich interessieren.
Kategorien: 3DCenter Forum

AMD fTPM für Bitlocker ja/nein?

CPU's und Mainboards - Di, 26.01.2021 18:11
Ich will Bitlocker benutzen und denke über den fTPM nach.

Ich habe schon im Netz nach Infos/Reviews gesucht und bin unteranderem auf dieses Video gestoßen: https://youtu.be/JeiJE6ocSGo

Das der fTPM bei einem BiosUpdate zurückgesetzt wird sehe ich als kein Problem. Man kann ja Bitlocker suppenden.

Hat sich hier schon jemand damit beschäftigt?
Eure Erfahrungen und Meinungen würden mich interessieren.
Inhalt abgleichen