Zitat:
Zitat von Crazy_Borg
(Beitrag 13043440)
Wo issen da der Fortschritt? :freak:
In diesem Bereich hat sich der Käufermarkt zu einem Verkäufermarkt gewandelt. Deshalb sind die Situationen nicht vergleichbar. Der Fakt wird sich die nächsten Jahre auch nicht ändern.
Zitat:
Zitat von mercutio
(Beitrag 12935879)
Edit: alten Beitrag gefunden, ich aktualisiere die Liste mal.
davor im PC von Papa war noch prä 3D, Doom 1, Doom 2, SimCity 2000-Zeiten (ein 486er von Vobis, vermtl. Cirrus Logic oder so).
1. Nvidia Riva 128 onboard (ich glaube mit 8 MB)
2. Voodoo 3 3000 16 MB (meine erste selbst gekaufte, habe Quake 2 damit gezockt)
3. Geforce 4 MX 420 64 MB (war das zu Zeiten von Unreal oder schon Unreal 2..?)
4. Sapphire ATI 9600 Pro mit 128 MB (die sollte Doom 3 packen, was dann um 1 Jahr verschoben wurde, dann war sie zu schwach)
5. Sapphire ATI X800GTO mit 256 MB
6. Sapphire ATI HD3870 mit 512 MB
7. Sapphire AMD HD4870 mit 512 MB
8. XFX HD6950 mit 2 GB
9. Radeon HD7950 von Sapphire mit 3 GB
10. AMD Vega56 ASUS Strixx 8 GB HBM2
11. AMD RX 6700 XT (zur UVP erworben) 12 GB
meist 1 Jahr nach Erscheinen gekauft, weil dann erheblich günstiger.
12. AMD RX 6800 16 GB zur UVP erworben
Zitat:
Zitat von DerKleineCrisu
(Beitrag 13043951)
Naja man wird das auch machen um die preise künstlich oben zu halten.
künstlich? wenn die neuen karten am markt sind, wird man die karten nichtmehr los, warum also jetzt weiterbauen, wenn sie hinterher keiner mehr zum kauft? ich denke man hat genug auf lager damit einem die karte nicht ausgehen.
in asien gabs keinen preisunterschied mehr zwischen 308012g und 3080ti. warum also weiterproduzieren? ga102 wird in den nächsten monaten ersetzt, man wird die wohl einfach nichtmehr los.
Zitat:
Zitat von Dorn
(Beitrag 13027665)
Bin ich gerade dabei :smile: und das ohne externe Software :biggrin:.
Wow also der Adrenalin Driver ist wirklich mächtig, ich wiederhole mich...^^
Na dann viel Spaß dabei. :)
Deine PowerColor RX 6700 XT Fighter müsste sich eigentlich an das Referenzdesign halten, ergo 186W ASIC. Ich denke du müsstest locker 160W ASIC erreichen können, vielleicht sogar 150W oder noch weniger je nach Chipgüte. Dann landest du bei ca. 170-180W für die gesamte Karte. Mit 140W ASIC sind es dann nur noch ~160W für die ganze Karte.
Ich bleibe bei meiner Methode. Könnte mir seit der 10er Gen jedesmal ein GPU Upgrade so leisten. Mir doch wumpe was andere machen. Du sitzt doch auf deiner 2080 fest. Fantasiert zwar von einer 3080 für 999€ hast aber nicht die Eier dazu deine 2080 jetzt noch für 350-450€ zu verticken und dann "nur" 550€ oben drauf zu zahlen.
Zitat:
Zitat von Rampage 2
(Beitrag 13023292)
(Voraussichtlich) Für die nächsten Jahre nie wieder? Ist das erst seit dem "Ampere-Corona-Mining"-Dreieck der Fall oder begann das schon früher?
R2
Grob schauen die Leute sich die Benchmarks an: 4070 = 3080 und da pendelt sich auf Ebay der Preis ein. Grafikkarten haben immer die höchste Nachfrage.
Warum sollte also ein Händler bei starker Nachfrage und geringem Angebot den Preis senken wollen? Ein echter Abverkauf ist bestimmt 10 Jahre her.
Gute Angebote der letzten Jahre waren immer wieder Preisfehler. Schlechte Angebote waren immer 10-30 Euro Rabatt auf sogenannte Blower, also Karten mit radialem Lüfter. Und Aktionen mit Spielecode sind nahezu eingestellt worden. Rabatte durch Payback oder Cashback gibt es auf Grafikkarten nicht mehr. Rabatte auf B-Ware sind ebenfalls sehr selten geworden.
Wenn die 4080 kommt, dann überlege ich die 3080 zu verkaufen. Durch den Verkaufspreis wird die 4080 dann deutlich günstiger + Garantie. Für die 3080 bekomme ich sicherlich den maximalen Marktpreis bzw. vllt auch den Einkaufspreis heraus. Einen anderen Weg sehe ich gerade nicht.
Zitat:
Zitat von Raff
(Beitrag 13011375)
Mit maximalen Details ist das Ding aber ziemlich gemein. :D Hier ein 30-Minuten-Talk mit vielen Impressionen, was das Spiel so geil macht: https://www.youtube.com/watch?v=YCaXA0nvGZE
MfG
Raff
Ich habe mir gerade das Video und den Artikel dazu reingezogen. Man merkt, dass ihr begeistert seid :D Interessant auch die Performance-Metriken, wo GCN und RDNA basierte Karten sehr gut abschneiden. Das lässt auf performantes und gutaussehendes RT bei Konsolen hoffen, wenn die HW-RT Beschleunigung nicht alles hergeben kann.
Habe mir Teardown jetzt bei Steam gezogen, so Sachen muss man unterstützen.
Wenn ihr ein Interview mit dem Herrn Gustafsson zustande bringt, hätte ich zwei Fragen von meiner Seite:
- Kann man vom Prinzip her das Voxel-RT mit HW-RT kombinieren? Und wenn ja, was wäre eine denkbare Umsetzung? Ich sehe da z.B. Konsolen im Fokus
- Fragt doch bitte auch, ob zukünftig noch FSR 2.0 Support eingebaut wird? ;)
Ich hab seit 10 Jahren einen Suche auf ebay nach S3graphics chrome drin, die spuckte aber noch nie was aus (ausser Tintenpatronen und chromebooks).
Glückwunsch, könnte damit sowie nix anfangen.
Zitat:
Zitat von Linmoum
(Beitrag 13000683)
Ist das genauso sicher wie 2xGCD? Oder 60 WGP? Man sollte nicht jedes einzelne Gerücht für gegeben ansehen.
Erst N33 und dann monatelang nichts ergibt davon ab schlicht keinen Sinn. Dann hat man nur höhere RT-Performance und das war es.
danke für deine klare meinung zu dem was ich sehe und entgegen all der leaks die legid angesehen werden