Zitat:
Zitat von -/\-CruNcher-/\-
(Beitrag 12613586)
Frag mich warum er den Mip vergleich nicht gleich bei der Woodplank textur gleich am Anfang gemacht hat
Vielleicht weil es eine extrem detailarme Textur ist?
Auf jeden Fall ist das Verhalten etwas seltsam, hier sieht man beispielsweise schön, dass für DLSS die korrekte Mip für die Zielauflösung verwendet wird:
Kann es sein, dass das Spiel für verschiedene Oberflächen einen unterschiedlichen BIAS verwendet, und bei einigen vergessen wurde diesen an DLSS anzupassen?
Zitat:
Zitat von Der HeinZ
(Beitrag 12612948)
Ok, das habe ich falsch verstanden.
Da kannst ja du nix dafür wenn ich meine Frage undeutlich formuliere :) Danke auf jedefall nochmal für die Hinweise.
Chroma Farbuntertastungstest geht ganz einfach.
Ladet euch das Bild runter und öffnet es mit Paint und prüft selbst ob ihr "blurring" also verschmieren erkennen könnt.
Wenn die Schrift bei euch verschmiert ist und/oder Artefakte zeigt, dann habt ihr eine beschnittene Farbuntertastung an.
Wenn die Schrift klar und deutlich zu erkennen ist, habt ihr volle Chroma Farbuntertastung 4:4:4.
Achtet darauf, dass ihr 100% Windows Scaling habt, weil bei höheren Auflösungen die 150% DPI Skalierung falsch-positive Ergebnisse anzeigt.
Naja, kabelgebundenen Datenträger waren schon immer irgendwie zu langsam. Sind aber immer noch das Schnellste was man so hat. Alles andere hat Monsterlatenzen im Vergleich dazu. Und diese Latenzen bremsen viel mehr als der etwas niedrigere Durchsatz. Es gibt bis heute im normalen Betrieb keinen spürbaren Unterschied zwischen Sata3 und M.2. Allenfalls ist das in theoretischen Benchmarks messbar. Nur wenn man terrabyteweise von Datenträger A nach Datenträger B kopieren würde könnte man was merken.
Hab mal versucht zu benchen. Einmal knapp unter Vram, einmal knapp drüber.
Musste dafür die Auflösung ändern, ich vermute der Benchmark sagt gar nix aus :D, der Wert über Vram ist aber nur soviel langsamer wie ich von der etwas höheren Auflösung erwarten würde. Andere Parameter kann man leider nicht einstellen.
Bester Vergleich wäre halt mit zwei Karten die bis auf die Ram Grösse identisch sind, gibt es ja nicht. Also von daher wohl eher Blödsinn, aber ich wollte auch mal was posten ;D
Zitat:
Zitat von jay.gee
(Beitrag 12580603)
Zukünftig wird man bei der Entwicklung von RT sicher auch neue Methoden entwickeln, während parallel dazu die Rohpower ansteigt. Wie ich bereits sagt - irgendwann musste da einer den ersten Schritt machen. Ich habe sowas in der Evolution von Spielewelten schon Dutzende mal erlebt. Eigentlich ist das mit RT wie immer in den vergangenen 25-30 Jahren.
Im Grunde würde ich das auch so sehen... Wie viele Jahre hat es gedauert, bis Tessellation mal halbwegs vernünftig in Spiele integriert wurde, und nicht nur dazu genutzt wurde, irgendwelche einzelnen Objekte mit 72 Millarden Polygonen aufzublasen...
Wobei dieses Mal immerhin eine neue Konsolengeneration parat steht, die Raytracing ebenfalls unterstützt und zumindest genügend Leistung hat, um es hier und dort einzusetzen... dieses Mal dauert es also vielleicht nicht einen ganzen Konsolenzyklus, bis die Technik durch den Gebrauch im Mainstream von den Entwicklern etwas geschickter eingesetzt wird und optimale Herangehensweisen ausgetüftelt wurden...
Hier, altes Beispiel (Enemy Front), das hatte ich noch irgendwo rumfliegen. Irgendein random Geröllhaufen zu Tode tesselliert, alles andere darum flach und polygonarm - und der nächste Geröllhaufen ist dann aus irgendeinem anderen Grund nicht tesselliert - kompletter Polygon-Wildwuchs
das fand ich damals immer irgendwas zwischen unterhaltsam und nervtötend, wenn die Performance dann wegen irgendwelchem übertesselliertem Müll um 80 % abgekracht ist oder so^^
Miniaturansicht angehängter Grafiken
Zitat:
Zitat von BlacKi
(Beitrag 12597142)
@basix
das ist aber nicht pauschal auf andere spiele übertragbar. denn amd liegt hier mehr als das doppelte hinter nvidia. das bildet sich in den spielen nicht ab. in pubg ist amd sogar schneller als nv im cpu limit.
Ich habe mich bei der RDNA2 Aussage auf den Mesh-Shader Test bezogen. Dort kackt AMD aus irgendeinem Grund ab. Spiele sind da etwas ganz anderes ;)
Bei Nividia ist aber Turing und vor allem Pascal in Spielen oftmals schneller im CPU-Limit verglichen mit Ampere.
Der 3DMark Test kann eh nur begrenzt auf Spiele umgemünzt werden. Das war bei diesen Feature-Tests schon immer so.
Zitat:
Zitat von basix
(Beitrag 12572553)
Eine der verlinkten Folien zeigt die Kosten von Crosspoint ReRAM auf Niveau von SLC Flash.
Also wenn du die Folie meinst die ich gesehen habe, die zeigt den Crosspoint zwischen planarem ReRAM und Stacked ReRAM, in dem dann stacked ReRAM ab einem Punkt viel stärker skaliert.
Sprich bei wenigen Stacks, ist das Stacking selbst anscheinend aufwändiger, als die mögliche Kostenersparnis, wenn aber genügend Stacks vorhanden sind wird die Kostenersparnis immer größer, was wir ja auch schon bei NAND gesehen haben.
Von Ende Mai mit 360W 8K TV und Ende September mit 370W RTX3090 grob ca. 300€ Stromkosten extra. Die Jahre zuvor war immer ca. 150€ eine Gutschrift wegen weniger Verbrauch auf dem Konto, jetzt mit besagtem 8K Equipment ca. 150 € Nachzahlung. Ist zwar alles pi mal Daumen aber es zeigt grob die Richtung wohin es geht wenn man sich 8K anschafft. Bei einem noch größeren als 65" 8K TV der auf 600W zugeht, wäre es vom Stromverbrauch schon ziemlich bedrohlich geworden.
Aber lohnt sich das? Absolut. Gerade Path Of Exile wiederentdeckt mit 60 FPS Dynamic Resolution 8K/VRR. Gerade VRR zieht 8K am größten. Denn ohne jeglichen VSync ist 8K eigentlich wertlos. Aber VRR gibt auch noch FPS Smoothness dazu.
monatliche kosten
ISP = 100+ oder 3.33 pro Tag, 0.1389 pro Stunde fuer 100Mbit+
Stromkosten = 30*24/7*150 = 32.4 pro Monat (0.30 pro Kw)
1h@150Watt = 33 : (30*24) = 0.045
Cyberpunk 2077 soll locker 50h kaputten, veralteten spielspass bieten ...
50h : 0.045 = 2.25 Stromkosten
Internet Kosten fuer 50h (50*0.1389) = 6.945
Spiele Lizenz 50+
Geforce Now Dienst pro monat = 5.50? / pro Stunde = 0.0076
Oh Herr, lass Hirn vom Himmel regnen, die arme Seele hier braucht ganz dringend deine Hilfe.
- Er sagt EXPLIZIT das er weil er gestreamt hat nicht "hunderte Euro für eine Gaming-Grafikkarte" ausgeben müsse und deshalb das ganze für 5,50 haben konnte...
- Das er das Spiel kaufen muss - so oder so - ist impliziert wenn man spielen will. :facepalm:
- Er hat den PC, monitor/TV ja schon [für andere Zwecke], wieso sollen das Kosten sein die Relevant für das Streaming sind? :facepalm:
- Was soll das ganze aufgerechne von Internet und Hardware dafür? Die würde auch laufen wenn er Pornos schaut statt CP zu spielen. 0,0 Relevanz :facepalm:
- 100 Eur/Monat Internet? Ich zahle 24 Eur für ne 100er VDSL Leitung, wenn man sich umschaut bekommt man für um die 30 Eur überall VDSL, für'n fuffi gibts schon 250MBit von Big-T also laber nicht rum :facepalm:
Das ist der absolut dümmste Post den ich je lesen musste und da ist der next-gen-Konsolen Thread mit deinem anderen Schwachsinn inkludiert.
hiermit verabschiede ich mich auch aus dem Forum auf laengere Sicht. (bitte dies hier nicht weiter kommentieren, wer technische Fragen hat kann mir nachwievor per forum ne email schicken, oder twitter etc.)
Mir aber nicht, vorallem solange man keine AB Bergleich sieht. Trotzdem sah es doch passabel aus.
Habt ihr es nun mit euren Samsung Kisten hinbekommen??