So... jetzt paar mehr Messwerte von mir. Eins vor weg... imho sollte man sich von einzelnen Screenshots mit Verbrauchsangaben etc. verabschieden. Wenn die Graka nicht im Powerlimit hängt variiert der Verbrauch dermaßen, dass eine exakte Erfassung kaum möglich ist. Selbst in einer Szene mit vermeidlich kostanten GPU-Last wo man sich gar nicht bewegt und nur in eine Richtung schaut schwankt der Verbrauch nicht gerade unerheblich. Nach diesen Messungen wird mir auch langsam klar warum man beim N31 im unteren PT-Bereich (bei mir 312W) so wenig überhaupt einsparen kann. Je niedriger das PT umso geringer logischerweise der reale Takt und somit auch die Spannung. Und bei 312W PT bewegt man sich mit N31 schon bei 800+mV. Deshalb habe ich zwei Messungen mit dem Benchmark von CP77 durchgeführt. Einmal PT 90% was ca. 312W bedeutet und einmal mit PT +2% was ca. 354W bedeutet. Letzteres ist damit näher an eine Referenz RX 7900XTX angelehnt.
Stocksettings werden bei mir wie gesagt immer mit 2965Mhz + 1150mV @Wattman durchgeführt. Und ich wiederhole mich gerne nochmal... diese Werte haben nichts mit Realwerten in Gamingworkloads zu tun, außer vielleicht Menüs und so ein Quatsch!
Stock @max. 312W PT:
UV-Versuch @max. 312W PT:
Stock @max. 354W PT:
UV-Versuch @max. 354W PT:
Bei den Verbrauchswerten, Frequenzen etc. bitte nur die avg. Werte betrachten, der Rest ist irrelevant.
Wie man sehen kann schaffe ich es bei einem Powerlimit von 312W nur 33W einzusparen bei gleicher Performance. Bei einem 354W PT schaffe ich immerhin schon mal 57W einzusparen bei gleicher Performance. man sieht auch ganz gut, dass ich bei 312W als Limit nur 66mV weniger schaffe wo es bei einem 354W Limit schon 99mV weniger sind.
Zitat:
Zitat von Raff
(Beitrag 13271476)
Die Chance, dass AMD bei den 7800ern eine angemessene Speicherkapazität von 16 GiByte installiert, ist laut meiner Einschätzung hoch. Was den Rest angeht - hier eine Sammlung zum Thema "8 GiByte are NOT enough": https://extreme.pcgameshardware.de/t...#post-11270346 (viel, aber nicht ansatzweise vollständig) ;)
MfG
Raff
Naja, der Markt ist inzwischen ein anderer. Damals war es schwer überhaupt eine GPU zu bekommen und AMD kam sehr zögerlich hinterher, heute hat sich das extrem abgekühlt. Zwar hält man die Preise noch künstlich hoch, aber dauerhaft wird das nicht halten.
Was man jetzt (besonders bei den günstigsten Speicherpreisen) anbietet zu den Preisen ist einfach nur noch frech von Nvidia.
Kann man nur hoffen das sich das nicht dauerhaft durchsetzt.
Zitat:
Zitat von Gott1337
(Beitrag 13271651)
auch wenn du mit denen zu tun hattest, kannst du erst einen Unterschied feststellen, wenn du beide gut kanntest. Ich denke eher das alle Firmen voller Nerds zu der Zeit waren. Auch Jensen ist ein super Nerd, guckt euch mal die Vorträge von ihm an wo er von seiner Studienzeit erzählt.
auch MS/Apple/ATI etc. waren voller Nerds, muss ja auch so sein bei so kleinen Firmen, da bleibt gar kein Geld übrig für andere.
"Leider" ändert sich das bei allen wenn sie größer werden, was es aber auch muss. Die Nerds sind da immer noch, von denen hörst du aber nichts mehr weil die Kommunikation eben von Angestellten übernommen wird die nur dafür eingestellt wurden.
Aber ist doch alles OT Leute
ist nicht ganz OT.
Wie 3dfx heute wäre kann keiner sagen. Ich sprach von damals, und bereits da war nVidia auf dem Raubtier Kapitalismus Trip.
Und das Bild dass du da von Jensen zeichnest (bzw. nVidia) ... da brauchts schon eine sehr tiefgrüne Brille um das so zu sehen.
Deshalb konnte ich das nicht so stehen lassen. Bevor das noch mehr abdriftet gerne per PN oder extra Thread :)
Also die Microsoft Edge GPT Suche ist (inzwischen?) total banaler scheiss, wo ich mich frage wozu man da GPT4 braucht? Das hat ja überhaupt nichts mehr mit der openai Chat Version zu tun.
Jeglicher Versuch eines "Chats" scheitert, es werden einfach nur simple kopierte Suchergebnisse präsentiert.
Wenn du deine Frage bei google eintippst kriegst du auf so etwas sogar fast ne bessere Antwort.
Das einzige das ich finde an Unterschied ist Version 2.0 hat eine "Limited Hash Rate". Das was sie eingeführt hatten um das Datenmining ein zu bremsen.
Solltest du nicht gerade Minen ist es für Gaming egal. Wird glaub ich über das Karten Bios auf ca. die Hälfte an Hash Rate geblockt.
In 1080p Ultra sind sämtliche 8GB Karten bei den min fps schlecht, bei Intel auch die avg fps mit 8 GB. Das Speichermanagement ist einfach nicht so gut bzw. ist auch der Speichercontroller selber einer der Schwachpunkte, hat Intel ja selber zugegeben.
Zurzeit ist eine 6700XT mit 12GB echt das Preis-/Leistungsmonster und startet bei 400€.
Leider müssen wir noch einige Monate auf die Nachfolger warten und der Preis wird sicherlich 30-50% höher liegen, so meine Vermutung.
Zitat:
Zitat von 00-Schneider
(Beitrag 13271135)
Wenn man in 4K zockt, lohnt sich das nur bei einer 4090, da nur diese 60fps mit RT schafft.
Selbst eine 4080 fällt Richtung 50fps.
Für mich wäre der größere Aufreger, das generell nicht mehr als 60 gehen.
Das dann eine 4090 in 4K die 60 erreicht, die 4080 knapp drunter liegt, ist dann irgendwie nicht wirklich der Rede wert. ;)
Ich finde es nur schade wenn Möglichkeiten brach liegen
Pcie 5.0 ist halt eine davon
Der Verzicht auf den i/o hub würde den Preis drücken und auch bei am4 hat man das bis auf asrock nie gemacht
Dabei bieten die CPUs sogar 28 lanes dieses Mal
Ich verstehe halt nicht wer da seine Finger drinn hat das unbedingt I/o Hubs verbaut werden müssen
Die Aufteilung mit x600e mit oc und Pcie 5.0 würde mich sehr ansprechen
Und a600 ohne alles würde die Platinen Preise extrem drücken
Wie kommst du denn darauf, dass bei USB 2 Hubs so schlecht sein sollte?
Da konnte man auch schon Maus und Tastatur betreiben und von einen USB-Stick mit den ca 40 MB/sek kopieren?
Ich mach das noch mal auf, es ist echt schlimm dass man in der Netz-Suche nur oberflächliche Infos bekommt etwa für den Opa nebenan wie ein USB-Hub ist ein Verteiler.
USB 2.0 arbeitet so wie ich es in Erinnerung hab mit minimalen Zeitschlitzen von 125 Micro-Sekunden in 8ter Blöcken. Somit steigt die Latenz von 125 Micro Sek auf 1 ms wenn bis zu 8 Geräte incl des Hubs angeschlossen sind. Bei mehr Geräten noch höher. Da es kein Routing gibt wird jedem Gerät min ein Zeitschlitz in so einen 8ter Block fest zugewiesen. Wenn also Maus und Tastatur plus extrene HDD angeschlossen sind dann sind das mit dem HUB 4 Geräte. Da auch die langsamen Geräte fest min ein Zeitschlitz zugewiesen wird reduziert sich in dem Fall die Bandbreite der HDD auf 5 von 8 Zeitschlitzen, so wie ich es in Erinnerung hab. Hat da jemand mal ne Seite mit echten Informationen die in die Tiefe gehen?
Jedenfalls war USB 3.0 ne Revolution gegenüber 2.0 weniger wegen der Bandbreite sondern wegen der viel besseren Technik. Es ist deshalb echt Schade dass Gerätehersteller offenbar aus Kostengründen meist nur USB 2.0 unterstützen dabei wäre 3.0 gerade auch bei webcams TV-Adaptern etc. ne super Sache im Hinblick dass die an HUBs angeschlossen werden. Jedes solches Gerät an einen eig. USB2.0 Port kein Prob aber wegen der HUBs schon, was bei 3.0 nicht wäre.