Zitat:
Zitat von bestMAN
(Beitrag 13263807)
Ich selber nutze eine RX6750XT und bin nicht abgeneigt, einer 770 mit 16GB Speicher die Chance zu ermöglichen.
Das ist aber eine seltsame Idee (oder geht's dir rein um den Basteldrang?)
Bei der Auswahl zwischen der MSI Gaming X oder der Inno3D X3, welche wäre da besser in Sachen Spulenfiepen? Kosten beide in etwa gleich viel (unter 1300CHF).
Sofern die Preise nicht mehr nachgeben möchte ich eine der Karten kaufen. Ist ja gerade eher eine Seitwärts Bewegung in Sachen Preis.
Zitat:
Zitat von horn 12
(Beitrag 13263503)
Raja Kuduri velässt intel mit Ende März 2023
Ob ihn AMD wieder mit ins Boot holen sollte!
Wenn man mehr als nur Überschriften lesen würde, würde man solche Posts nicht verfassen. Er gründet irgendein Software-Startup, der hat nix mehr mit AMD am Hut.
Angesichts der weiter langsam sinkenden 7900 XT Preise womöglich eher uninteressant, dennoch der Vollständigkeit halber: Im Mindstar gibt es die Powercolor Red Devil 6950 XT für 709,-
Man kann es oft schon erahnen, aber dieser Test mit Replay in Fortnite zeigt nicht die realen harten Einbrüche mit GeForce, wenn man bestimmte Map-Bereiche überquert. Mit Radeon sind die nur einen Bruchteil so ausgeprägt.
Zitat:
Zitat von Lurtz
(Beitrag 13258879)
Und ja, sie wird übertroffen, nach einem Full-Node-Sprung bzw. komplett neuem Fertigungsverfahren. Wo sollen denn in Zukunft noch Fortschritte herkommen? Oder soll jetzt einfach alles linear mit dem Preis skalieren und mit der nächsten Generation kosten Mittelklasse-GPUs dann 1.000 oder mehr?
"Naja, es ist halt ein Luxus-Hobby, das man nicht ausüben muss. Wenn man es sich nicht leisten kann, muss man eben was anderes machen."
"Es ist halt sehr schwer bzw. aufwändig, moderne Technologien zu entwickeln. Das kostet und treibt die Preise in die Höhe."
"Ja, willst du denn alles geschenkt haben?! Diese allgegenwärtige Gratismentalität... :rolleyes:"
Ich sehe das übrigens nicht so. Ich halte das alles einfach nur für etwas, das in Richtung Wucher tendiert. *g*
Kann man so flexibel mit Konsolen sein wie mit dem PC, ich zumindest nicht. Daher sehe ich die Konsolen nur bedingt als Alternative zum PC.
Und wenn die Preise oben bleiben wird auch bei mir die Update Zyklen einfach länger. Werde wie schonmal gesagt die 4080 kaufen wenn die unter 1200 ist. Damit ist für eine ganze Weile Ruhe und die Karte ist ausreichend flexibel für gestern bis morgen die Performance und Grafikqualität zu liefern.
Langsam glaube ich sicher der Mehrpreis der Karten ist die Gebühr um KI Entwicklung zu haben. Sprichwort DLSS 2 und 3. Und das gute ist, je länger die Technologie auf dem Markt ist desto besser kann die Qualität werden.
Ob der Preis auf die Füsse fällt? Sehen wir in den nächsten Quartalen. AMD korrigiert(e) den Preis, Nvidia bisher nicht...
Lüfter einlaufen lassen? Really? Habe ich noch nie von gehört, bin aber offen für neues. :usad:
Ich kann sie nicht niedriger laufen lassen, 800rpm ist min bei 100w und so laufen die permanent.
Mal n Tag auf volle pulle laufen lassen, oder was soll ich machen?
Zitat:
Zitat von basix
(Beitrag 11837847)
Jeweils im Rechner verbaut:
ATi Radeon 9000 Pro
Nvidia GeForce 7600GS AGP
Nvidia GeForce 8800GT
ATi Radeon HD4870 1GB
ATi Radeon HD5870 (4 Jahre lang ein treuer Begleiter, hammer Karte!)
AMD Radeon HD7950 Boost (nur 4 Monate lang...aber übertakten machte viel Spass, ausser dass das Netzeil zwischendurch eine Notabschaltung gemacht hat beim übertreiben ;D)
Nvidia GeForce GTX 780
Nvidia GeForce GTX 980 Ti
Nvidia GeForce RTX 2080 Ti
Daneben habe ich noch allerhand andere Schmuck- und Sammlerstücke hier herumfliegen. Die meisten habe ich lange nach Release für wenig Geld ersteigert und bilden sozusagen meine aus Interesse an der HW aktiv verfolgte Grafikkarten Historie ab :D
6800 Ultra
X850XT PE
7900GTX
X1950XTX
8800GTX
2900XT
9800GTX+
HD3870
GTX 285
GTX 480
GTX 580
HD5970 (2x HD5870 musste sein :) ansonsten Multi-GPU --> böse)
GTX Titan Classic
R9 290
GTX 750 Ti
GTX 1050 Ti
R9 Nano
RTX 2080 Ti -> RTX 4090
Die 4 Jahre mit der Turing Karte waren gut und hat Spass gemacht, RTX und DLSS 2.0 waren schöne Boni :) Bin jetzt aber von 1440p auf 4K ungestiegen, da ist die neue Karte besser geeignet.
Zitat:
Zitat von Blase
(Beitrag 13241261)
Nimmt man nicht immer die aktuellste DLL? Was ist mit der nvngx_dlss_3.1.1?
Die vereinheitlicht mehrere DLSS-Presets, was es übersichtlicher und komplizierter gleichzeitig macht.
Aber dass mit gefühlt jeder neuen DLL die Ergebnisse komplett abweichen, sollte damit Geschichte sein.
Zitat:
Zitat von vinacis_vivids
(Beitrag 13210484)
PowerVR wird vermutlich als IP an Apple verkauft um konkurrieren zu können. Apple hat ja die Kohle und kann RT gut gebrauchen.
Nein PowerVR hat ein Abkommen mit chinesischen Unternehmen,
2024 soll die erste Mittelklasse GPU auf den Markt kommen.
PowerVR hat genug erfahrung durch den Android Markt als das es dann in der Mittelklasse darum geht Marktanteile zu kassieren.
2024 haben wir 4 Grafikkartenhersteller, Nvidia, AMD, Intel und PowerVR.
Nvidia und AMD werden sich das im Hochpreissegment ausmachen (also NV)
In der Mittelklasse wird sich AMD mit Intel und PowerVR gewaltig die Finger verbrennen.
Dazu muss man auch mal den Einstieg betrachten, Nvidia mit ihrer 1630 und 1650 mit 4GB,
dazu noch die Krüppelkarte alias 6400 mit 4 Lanes von AMD und beide haben 4GB.
Die ARC 380 hat mal eben 2GB mehr also 6GB und 8 Lanes als GPU Anbindung.
Ein Pentium auf Sockel 1200 oder Ryzen 5 1400 bietet mehr Leistung mit einer Arc A380,
als eine RX 6400 mit PCIE 4.0 mit einem Ryzen 3100 mit PCIE 4.0, bei einem Ryzen mit PCIE 3.0 fällt eine RX 6400 hinter eine GTX 1630.
Zitat:
Zitat von 00-Schneider
(Beitrag 13237116)
Gerade bei den hier genannten VRAM-Fressern würde mich mal der Verbrauch interessieren, wenn man den Texturregler um eine Einheit nach links verschiebt. Inklusive Bildvergleich Max vs. Max - 1.
Genau das.
Man stelle sich vor, jemand bringt ein Spiel heraus, das eine Textureinstellung bietet, die nur auf einer Hand voll Grafikkarten sinnvoll ist. Aus Gründen, die ich nicht verstehe, testet z.B. PCGH und Techpowerup nur diese eine Einstellung und stellt fest: "Das Spiel ist schlecht optimiert" oder "fahrt eure 3080 und 4070Ti zum Recyclinghof und holt euch eine Arc A770 - die Zeiten von <16GiB VRAM sind vorbei".
Wenn ihr jetzt sagt: Die "zweithöchste" Textureneinstellung ist nicht vorhanden/sieht in 1080p schlechter aus als FSR 1.0/kostet auch nicht weniger VRAM, dann wär das doch eine super Antwort. Ich hab das Spiel nicht, kann mir die Antwort jemand geben?
Zitat:
Zitat von vinacis_vivids
(Beitrag 13229016)
Die R9 390 8GB kam 2015 raus. Das sind 8 Jahre her.
Jetzt schaut man rüber zum Geizhals Jensen, der die 3070 verkauft, ebenfalls mit 8GB. Der Laden ist einfach Anti-Fortschritt und Anti-Gaming und Anti-Innovation. Wer weiter dort kauft, braucht sich über fehlenden Fortschritt nicht wundern.
Hat wirklich die grössere VRAM Menge immer einen Vorteil gehabt? Im Schnitt eher nicht, da die Konsolen so "schlecht" waren und Nvidia mit dem Marktanteil den "Takt" vorgibt.
Es hat die Entwicklung potentiell verlangsamt, aber das ist nur eine Spekulation.
Zitat:
Zitat von bardh
(Beitrag 13210419)
Ist das der neue Masterplan von Nvidia? Schliesslich passen alle RTX 30 und RTX 40 Modelle nun preislich nahtlos aneinander, ohne sich zu überschneiden.
Ja klar, die haben ihre Mission quasi erfüllt, die alte Gen noch so gut es geht abverkaufen und von oben anfangend langsam ersetzen ohne mit dem Preis runterzugehen :freak:
Alles ab 3080 macht jetzt eh nicht mehr wirklich Sinn da es die 4070 Ti gibt und unten schließt nahtlos die 3070 Ti an. Sieht man auch schön das alles wieder eine Preisstufe nach oben geht.