Ja ich weiß OT, deshalb der letzte Beitrag von mir: Ich schaue da mehr auf die Wachstumsraten als auf den Status quo. Ansonsten wäre bsw. Nvidia auch nicht das wertvollste Unternehmen der Welt. Das Wachstum findet in der Cloud statt und den Zug hat Apple völlig verpennt. AMD und Nvidia combined werden Apple beim Umsatz/Gewinn bald überholt haben.
Die Spanne an maximal stabilem UV ist unter den Spielen enorm hoch. Selbst wenn einige Spiele mit -130mV noch laufen, muss man in anderen dafür auf -50mV runter. Das macht irgendwelche UV-Ergebnisse in einem einzigen Spiel ziemlich nichtssagend. Vom Gefühl her würde ich sagen, dass Spiele mit generell niedrigerem GPU-Takt auch anfälliger beim UV sind, d.h. weniger Reserven haben. Sonst ist es - gerade bei CPUs - ja eher so, dass die hohen Boost-Frequenzen am schnellsten instabil werden.
Und ich hatte mal durch Logs herausgefunden, dass die Standard V/f-Kurve meines OC-BIOS (317W) ca. 10mV mehr anlegt als das Quiet-BIOS (304W) bei gleichem Takt. Folglich hätte ich im OC-BIOS auf dem Paper immer ein um 10mV besseres UV-Ergebnis, auch wenn es gar nicht besser läuft als das Quiet-BIOS. Bei 340W vs 304W könnte das natürlich noch extremer sein, je nachdem was die Hersteller da als Standardeinstellung reinhauen.
Zitat:
Zitat von DrFreaK666
(Beitrag 13922093)
Und dass RTX2000 für aktuelle Spiele zu langsam sind... Das ist doch schon ewig so. Irgendwann war Voodoo 1 auch zu langsam
Ich würde die Voodoo 1 nicht mit der RTX 2000 vergleichen. Man hatte bessere Bildqualität und Performance. Das war damals wie ein Sprung ein paar Jahre in die Zukunft. RTX 2000 ist eher wie prä-Voodoo: bessere Bildqualität wird mit Performance-Einbußen erkauft.
Wohl kaum. Im letzten HWUB-Test mit 3600 CL14 zog der 5800X keine Schnitte gegen einen 5700X3D, und die paar MHz mehr eines 5950X machen den Kohl auch nicht fett. Der 5950X wird in vielen Spielen näher an einem 5600X als an einem 5800X3D sein...
Zitat:
Zitat von robbitop
(Beitrag 13919131)
Da kann man nur schlussfolgern, dass nichts mehr ist mit Optimierung auf Konsolen.
Ich kann daraus nur schlussfolgern, dass Games solange für die Konsole (= lower-end PC) optimiert werden, bis sie vernünftig laufen und etwaige Optimierungen einfach "umsonst" in die PC-Version übernommen werden.
Zitat:
Zitat von Daredevil
(Beitrag 13920019)
Nachdem Apple offiziell nun ihre MacStudios auf 96GB begrenzt hat und die MacBooks eh nicht mehr als 128GB adressieren, ist das ein kluger Schachzug. Jetzt aber bitte liefern AMD und Momentum mitnehmen! :)
Der M3 Ultra ist im Abverkauf, Apple stellt die Modelle nicht mehr her. Daher der Rückgang. Alle Modelle mit den großen Speicheroptionen sind einfach abverkauft worden.
Die neuen Mac Studio und mini Modelle mit M5 Ultra und M5 sollten Anfang Juni vorgestellt werden, dann auch wieder mit den großen Speicheroptionen.
Zitat:
Zitat von DrFreaK666
(Beitrag 13918537)
Wie soll das erst auf der Switch 2 laufen? :ugly:
Du kannst UE5 nach Bedarf reduzieren.
Die Batman Anforderungen nutzen FG damit sie uralte GPU wie 2070 Listen können.
Das ist zu wenig, außerdem prügelt Doom die Grakas nicht gerade dick. Ich habe ja nicht mal 4k weil ich sowieso der Meinung bin, dass weder die 4090 noch die 5090 4k Karten sind. (y)
Ich rechne aber auch erst mit in 2 Jahren Verfügbarkeit der 6090.
Kann aber auch sein, dass die 6090 gar nicht kaufbar sein wird, weil China sowieso Taiwan platt machen wird bzw. erst mal Seeblockade. (y)
Zitat:
Zitat von ChaosTM
(Beitrag 13919828)
30+ % in der Hose sollte man nicht ignorieren ! (y)
Naya, ob 5 oder 6,5 cm/fps ist auch schon egal. (y)
Double enlargement klingt schon besser. :redface:
Zitat:
Zitat von Ex3cut3r
(Beitrag 13918655)
Tolller Monitor, 39", endlich 5120x2160 also 21:9 4K und damit 32" PPi endlich im UW Format. Aber nur mit 165HZ.....das ist mir im Jahre 2026 in Zeiten von MFG ein bisschen zu wenig, für mich müssten es bei einem neukauf mindenstens 240HZ als untere Grenze sein, eher 360HZ und am idealsten wären sogar 480HZ.
Hab das gleiche Problem, vor allem wenn man von 240Hz kommt will man das noch weniger machen. Aber es geht in die richtige Richtung, vor nicht allzu langer Zeit gabs solche 5kx2k Screens nur in 60Hz. Aber ja, mit MFG kann man eigentlich nicht genug Hz am Monitor haben, oder es kommt endlich Pulsar mit OLED :D
Bei allen Android-Phones und allen Iphones seit 10 Jahren Gang und Gäbe.
Aber bei Windows ist es störend und nervig.
Dass man bei den Grafikkarten einen Cut macht ist nur logisch.
Wie soll man bei einem (DRM-)geschützten Medium sonst die Verschlüsselung bis zum Monitor hin aufrechterhalten.
Ich weiß ich drifte ab - aber eine Dreambox ist aktuell faktisch tot.
Es gibt keine Android-Box mit funktionierenden Netflix-/DisneyPlus-/... und gleichzeitig Satelliten-Eingang und diese Box sollte noch ein bisschen öffentlich-rechtlich aufzeichnen können.
Wenn Microsoft das nicht durchzieht, dann ist Windows so tot wie die Dreambox.
Zitat:
Zitat von gedi
(Beitrag 13918351)
Den Treiberschrott gibt es doch eher von NV und insbesondere Intel
Zudem scheint es mir, dass du bereits Hilfe beim Einschalten deines PCs benötigst.
Wenn dann ist Nvidias Treiber im Vergleich zu AMD/Intel unsauberer. Nvidia ist bereits informiert.
Zitat:
Zitat von joe kongo
(Beitrag 13848963)
Ist bei meiner 9070XT das Gleiche, -70mV liefen nur scheinbar stabil,
Probleme kamen später sporadisch bei geringer Belastung.
Die notwendigen Reserven für spontane Lastwechsel kennt nur AMD.
Takte können instant wechseln, Spannungen nicht.
meine nitro+ läuft bei den meisten sachen mit -120mV ohne probleme, wirklich stabil über alle getesten games und benches ist sie aber erst mit -80mV, und da ich gerne ne reserve habe sind 24/7 auf -70mV am laufen.
Zitat:
Zitat von Palpatin
(Beitrag 13917523)
Das Argument macht keinen Sinn, weil sich 16:9 auch gegenüber 4:3 durchsetzen konnte und das zu einer Zeit als die Inhalte überwiegend 4:3 waren.
Als sich 16:9 durchgesetzt hat, waren Fernseher auch noch so klein dass sie auf einem Phonomöbel verloren aussahen. Da macht es natürlich Sinn das Format an den (überwiegenden) Content anzupassen.
Heute kannst du dir den größtmöglichen Fernseher kaufen der in dein Wohnzimmer passt, und das wird in der Regel von der Breite bestimmt.
Der einzige Grund auf Höhe zu verzichten wäre wenn es dafür signifikante preisliche Vorteile gäbe.
Das wird aber nicht der Fall sein, wenn man ein neues Nischenformat einführt. Das wird sogar teurer sein. Damit wird es berechtigterweise niemand kaufen, und es schnell wieder vom Markt verschwinden.