Thilo Bayer ist Chefredakteur der PCGH. :)
PCGH Benchmarks waren schon immer etwas abweichend von CB und Co weil dort wie du vermutet hast besonders stressige/fordernde Szenen pro Spiel rausgesucht werden. Ich kann mich noch entsinnen als alle anderen nur timedemos benchten und bei der PCGHs aufwändiger per kuratierten savegamefiles gebencht wurde.
IMO: wenn Raff seine Finger im Spiel hatte, taugen die Benchmarks. :) Der macht das schon seit einem viertel Jahrhundert - scheisse man wird alt ^^
Jedem seine Ansicht dazu. Jeder hat unterschiedliche Präferenzen.
Jetzt können wir gern zurück zum Thema und zu einer zivilisierten Diskussion. ;)
Spoiler
btw zum Thema Skill und Korrelation zur Framerate ist es genau andersrum: gerade im Progaming Bereich werden hohe Frameraten, niedrige latenz und high refreshrates seit Jahrzehnten bevorzugt und entsprechende Produkte dort zuerst vermarktet (zB Nvidia mit reflex und 240 hz gsync da eine Veranstaltung mit Progamern gemacht hatte vor einigen Jahren.) :)
Und ja gerade Sekiro, AC6 oder Elden Ring jeweils in NG+++ da machen 50 ms enorm viel aus, weil dann ein Großteil deiner iframes weggefressen wird. ;) Ich spreche schon von anspruchsvollen Titeln. ;)
also zuerst bin ich kein fan von gdm, wenn man seine timings tweakt. das versteckt nämlich instabilitäten, die sich dann doch nach ein paar wochen wieder bemerkbar machen und fehlersuche schwierig gestalten. damit wirst du dann wahrscheinlich keine 3600mhz mehr schaffen, aber dafür hast du wenigstens ne klare vorstellung was geht und was nicht.
ansonsten ist ein großer faktor noch das refreshintervall (trefi), kann aber sein dass du das nicht einstellen kannst, bei meinem am4 board gehts auch nicht.
kleinere sachen die ich noch sehe:
rrdl könnte er auch 4 schaffen
die write latencies (rcdwr und cwl) können durchaus deutlich unter ihre lese-counterparts (hatte rcdrd 17 und rcdwr 9 laufen).
Die neue headless 4.0.19 funzt.
aber
OS hat das Problem von Gestern immer noch, sprich sobald man das Overlay anschauen will, wird FG/MFG disabled, siehe Post#860 Anhang3. Tritt jetzt auch in ES2 auf. (man muss deshalb besser gleich in der ini ändern)
Die Fps-Anzeige ist davon nicht betroffen, funzt weiterhin. DAS ist ein ganz blödes Problem, weil es viele User abschreckt, die ne einfache Bedienung wollen! may be, das tritt nur mit AMD-Grakas auf wg. der nvngx.dll, die irgendwie mit dem Menü korrespondiert
(AMD braucht aber die nvngx.dll, um DLSS überhaupt zu erkennen)
In ES2 läuft der neue OS-Build aber in H3 nicht, warum auch immer, bleibe da auf meinem ollen 8054fbd.
(für Notfälle evtl. ganz nützlich und kann auch mit headless 4.0.19)
Miniaturansicht angehängter Grafiken
Macht keinen Sinn für so wenig Zielgruppe. Außerdem hättest du dann bei den meisten Inhalten links & rechts schwarze Balken. Das würde wohl noch mehr Leute stören als oben und unten.
Zudem gibt es ja nicht nur 21:9 Format sondern noch x andere.
16:9 ist bislang der Beste Kompromiss. Willst du mehr Fläche, nimm einfach einen größeren Fernseher.
Zudem gibt es wohl auch das Problem, das die meisten Leute mit der Höhe des Fernsehers weniger Probleme haben als mit der Breite. Für mehr Bildfläche bräuchte es schon deutlich breitere Geräte.
Meine beiden Laptops haben kein Update erhalten durch Microsoft es ist eine reine Lüge was immer behauptet wird, ein Bios Update gibt es auch nicht, sind nur noch wenige Monte bis Ende und dann werden sich einige PCs nicht mehr booten .
Mal schauen was es für einen Neuen Ärger geben wird nach dem Gesetz Reproduzierbarkeit haben muss, die Anleitung nützt herzlich wenig wenn in wenigen Monaten der PC nicht mehr geht.
Hmm bei einer Neuauflage des 5800X3D würde ich bis 300€ auch nochmal zuschlagen und meinem altgedienten B450 Board aus 2018 im Zweitrechner eine letzte Aufrüstung auf den Maximalausbau gönnen. Das System hat im Laufe der Jahre schon einen Ryzen 2700X gesehen und zuletzt einen 5700X.
Ist es bei Asus eigentlich immer noch so das sie den gleichen RoG Kühler für alle Chips verwenden, wo dann am Ende wie bei der 1060 nur 2 von 4 Heatpipes über den Chip gehen ?
Eine 4090 erreicht im Durchschnitt in etwa die 50-60fps mit 4K DLSS-Performance bei PT-Games.
Eine PS6 wird vermutlich nicht so schnell wie eine 4090 werden, aber mit den algorithmischen Verbesserungen könnte 4K/60fps klappen, ja.
Und das mit ausgewachsenem ReSTIR. MegaLights der UE5 ist da ja eher eine leichtgewichtige Adaption von stochastischem Beleuchtungs-Rendering.
Da sowas wie MegaLights auch auf einer PS5 läuft, dürfte man in Zukunft fast nur noch Games mit volldynamischen Beleuchtungssystemen inkl. "many lights support" sehen.
MegaLights wird zudem Production Ready mit UE 5.8 (Mitte 2026). Somit ideal für Game-Releases H2/2027 und dem Start der neuen Konsolen.
Ich denke die AI-Grafik ist bzw. wird schon wieder in 1-2 Jahren veraltet sein. Also nachdem man völligen Fotorealismus erreicht hat. Die nächste Stufe ist wenn du deine eigene photorealistische Welt aus einem Foto erschaffst. Quasi ein ganzes Level besteht nur aus dem Foto-Hintergrund wo dein Char gerade steht. Momentan habe ich das kurz geschmeckt in LTX2. Mit 20 Sek. 60fps interpolierten FullHD Fotos. Das ist hoch beeindruckend.
Und geht quasi in die selbe Richtung wie mit KI-Musik wo du deine eigene Top10 Chartqualität Songs erschaffst. Nur halt eben mit Games. Wo du nur ein Foto nach deiner Stimmung generierst und kannst sofort dort in fotorealitischem 3D loslegen.
Jetzt kam endlich das Paket und heute gleich installiert.
Funktioniert ebenso 1A diesmal aber mit 0815 Gskill Value DDR4 und der Xeon bleibt unter Last mit einem Shadow Rock bei unter 60°C:freak:
Leistung wie schon von anderen Xeon gewohnt, niedrige Taktrate aber dieser hier "nur" 12 Kerne (HT deaktiviert),
das Board gefällt mir richtig gut und daher halte ich mal nach einen 2698 v4 20 Kerne ausschau, die gibt es so um die 40€:biggrin:
Edit:
Die Xeon sind in verbindung mit den China Boards eine super Kombo,
die eine Ausstattung bei den Boards für 50 - 70€ bieten wo man bei uns gerne mal 130€+ alleine für das Board hinlegen muss.
z.B. mein 110€ Board mit dem Xeon D mit 16 Kerne bietet 2x 2,5 Gbit Ports, das günstigste Board kostet bei uns 270€
Zitat:
Zitat von Raff
(Beitrag 13911265)
Neues Spiel: Radeon VII klatscht GTX 1080 Ti und kabbelt sich stattdessen mit der (mies ausgelasteten) Titan V. :biggrin:
Poor Volta
Pragmata scheint wirklich gut zu sein, die Demo hatte mir damals gefallen. Ich denke, am Wochenende werde ich es mir kaufen.
Hab jetzt mal mit der 5070Ti meiner Lebensgefährtin getestet, da funktioniert alles, wie es soll. Ich dachte schon, es liegt an mir.
Bei den Stabilitätstests gibt es aber noch Optimierungsbedarf. Hab den Scanner mal ganz aggressiv mit 900mV und iirc +550Mhz probiert, das Ergebnis war nichtmal im Menü von Spielen stabil. 950mV und +475 MHz probiert und ich habe bisher ein scheinbar stabiles Ergebnis erhalten. (960mV und irgendwas über 3Ghz).
Aber bisher gefällt mir das sehr gut und würde mich freuen, wenn's vielleicht irgendwann auch mal auf meiner 4090 läuft.
Vielen Dank jedenfalls für die tolle Arbeit. :smile:
Nochmal zu deiner PN: Afterburner ist, wie bereits erwähnt, aktuell. Hab sogar Mal die Beta drauf gemacht, gleiches Verhalten. Die Kurve wird nicht übernommen und wenn ich dann per Afterburner Versuche, sie zu übernehmen, wird auf die Standardkurve zurückgesetzt.