Zitat:
Zitat von Troyan
(Beitrag 13278329)
Die 3090TI war doch ein Abzockeprodukt wie die 6950XTX von AMD. Und gegenüber der 3090 ist die 4090 ein riesiger Sprung.
Alles andere ist doch nicht zu vergleichen, weil die UVPs erst im letzten Sommer durchgängig erreicht worden sind. Wobei selbst hier die Abverkäufe der 3090 deutlich besser waren als bei der 3080. Die gab es nie wirklich unter 800, wo man selbst öfters für 1000 eine 3090 kaufen konnte...
passt zu meinem fazit.
Zitat:
Zitat von BlacKi
(Beitrag 13278326)
wenn man alles mit reinnimmt, kommt man zu dem schluss: mining war übel, aber es wird alles langsam besser, es braucht nur noch etwas zeit.
Das mit dem "besseren VRAM-Management" bei Nvidia ist auch nur noch ein Lacher. Sieht man ja wieder bei den Crashes von Resident Evil oder TLOU. Von Letzterem gibts auch auf YT lustige bunte Texturmuster mit Nvidia (vermutlich 8-10GB-Karten) zu sehen, wird schon langsam zum Evergreen.
Auch sehr gnädig, dass MM RT nicht im Parkour ist. Und auf einmal sollen die HD-Texturen in Far Cry mit 8GB RT richtig gestreamt werden? Schon klar...
Bin bisher ganz zufrieden mit der 6700. Wie ich es erwartet habe ist die Karte mit dieser Lüfterkonstruktion kühl und leise, beim normalen Spielen (hab nur nen 60Hz Monitor und spiele mit VSync) bisher meist ~60°C und nichts zu hören. Hab sie aber auch noch nicht geprügelt.
Laut HWInfo 138W TGP, die ich bisher auch noch nicht anliegen gesehen habe, das macht die 2x8Pin noch unverständlicher. Auch mit 25% Igor-Zuschlag komme ich damit max auf ca 175W. :freak:
Zum UV hab ich bisher nur ein wenig mit WM gespielt, kann aber bisher nicht sicher sagen, ob die niedrigere Spannung auch wirklich anliegt. Zumindest HWInfo sieht <1,2V.
Aber wer kam auf die Idee in Spielen ein "Komfortfeature" zu verbauen, dass diese die Einstellungen automatisch hochsetzen, wenn sie eine neue GPU erkennen? Das macht meine Vergleichsmessungen (zur 480) deutlich umständlicher. :rolleyes:
Das einzige das ich finde an Unterschied ist Version 2.0 hat eine "Limited Hash Rate". Das was sie eingeführt hatten um das Datenmining ein zu bremsen.
Solltest du nicht gerade Minen ist es für Gaming egal. Wird glaub ich über das Karten Bios auf ca. die Hälfte an Hash Rate geblockt.
Zitat:
Zitat von aufkrawall
(Beitrag 13263996)
Wenn man so arm ist, dass man sich eine 3060 12GB oder 6700 XT vom Munde absparen müsste.
Mit den 8GB Intel muss bzw. sollte man in Hogwarts schon ohne RT Texturdetails reduzieren, in Metro EE gibt es auch schon leichte Einbrüche und in Sons of the Forest mit DXVK ebenfalls. 60 mehr, und es spielt sich massiv sorgenfreier + DLSS (XeSS ist Stand jetzt kompletter Müll auch gegen FSR 2, könnte man auch mal klarer benennen...) + Reflex + Luxus wie ein Treiber fps-Limiter + konstantere Performance + weniger Grafikfehler + normal funktionierendes Idle-Takten mit jeder CPU/Board...
Wer das nicht so sieht, hat den Kopf im Dunst oder nicht ganz ehrliche Motive.
Gibt hier einige Bürgergeld Empfänger, aber ja, die 60 sollte man schon dazulegen. 8GB und weniger müssen im März 23 nicht mehr sein.
Kann man so flexibel mit Konsolen sein wie mit dem PC, ich zumindest nicht. Daher sehe ich die Konsolen nur bedingt als Alternative zum PC.
Und wenn die Preise oben bleiben wird auch bei mir die Update Zyklen einfach länger. Werde wie schonmal gesagt die 4080 kaufen wenn die unter 1200 ist. Damit ist für eine ganze Weile Ruhe und die Karte ist ausreichend flexibel für gestern bis morgen die Performance und Grafikqualität zu liefern.
Langsam glaube ich sicher der Mehrpreis der Karten ist die Gebühr um KI Entwicklung zu haben. Sprichwort DLSS 2 und 3. Und das gute ist, je länger die Technologie auf dem Markt ist desto besser kann die Qualität werden.
Ob der Preis auf die Füsse fällt? Sehen wir in den nächsten Quartalen. AMD korrigiert(e) den Preis, Nvidia bisher nicht...
Lüfter einlaufen lassen? Really? Habe ich noch nie von gehört, bin aber offen für neues. :usad:
Ich kann sie nicht niedriger laufen lassen, 800rpm ist min bei 100w und so laufen die permanent.
Mal n Tag auf volle pulle laufen lassen, oder was soll ich machen?
Zitat:
Zitat von vinacis_vivids
(Beitrag 13210484)
PowerVR wird vermutlich als IP an Apple verkauft um konkurrieren zu können. Apple hat ja die Kohle und kann RT gut gebrauchen.
Nein PowerVR hat ein Abkommen mit chinesischen Unternehmen,
2024 soll die erste Mittelklasse GPU auf den Markt kommen.
PowerVR hat genug erfahrung durch den Android Markt als das es dann in der Mittelklasse darum geht Marktanteile zu kassieren.
2024 haben wir 4 Grafikkartenhersteller, Nvidia, AMD, Intel und PowerVR.
Nvidia und AMD werden sich das im Hochpreissegment ausmachen (also NV)
In der Mittelklasse wird sich AMD mit Intel und PowerVR gewaltig die Finger verbrennen.
Dazu muss man auch mal den Einstieg betrachten, Nvidia mit ihrer 1630 und 1650 mit 4GB,
dazu noch die Krüppelkarte alias 6400 mit 4 Lanes von AMD und beide haben 4GB.
Die ARC 380 hat mal eben 2GB mehr also 6GB und 8 Lanes als GPU Anbindung.
Ein Pentium auf Sockel 1200 oder Ryzen 5 1400 bietet mehr Leistung mit einer Arc A380,
als eine RX 6400 mit PCIE 4.0 mit einem Ryzen 3100 mit PCIE 4.0, bei einem Ryzen mit PCIE 3.0 fällt eine RX 6400 hinter eine GTX 1630.