Grafikchips

Inhalt abgleichen 3DCenter Forum - Grafikchips und Grafikkarten
Aktualisiert: vor 7 Minuten 23 Sekunden

nVidia - GeForce RTX 5070 Review-Thread

vor 21 Minuten 37 Sekunden
Jetzt, wo die Preise recht ordentlich gefallen sind, wird die 5070 tatsächlich interessant (meine Auflösung ist 3440x1440 und da sollten die 12 GB hoffentlich ein paar Jahre reichen).

Da ich einen ultra-silent PC habe, ist mir wichtig, dass die Karte leise läuft.
Leider findet man im Internet kaum Infos darüber, wie laut eine Karte läuft.

Habt ihr vielleicht einen Tipp für eine (so günstig wie mögliche) 5070 Karte?

Aktuell ist die Gainward GeForce RTX 5070 Phoenix für 529€ zu haben (siehe Link). Die Frage wäre, wie leise diese ist.

https://www.alternate.de/Grafikkarte...59&s=price_asc

DANKE!

AMD/ATI - Radeon RX 9060 XT Review-Thread

vor 2 Stunden 41 Minuten
Solch Tests macht man ja um die Limitierung zu zeigen und das wird mit neueren Games nicht besser. Klar, Details und so kann man immer runter schrauben aber will man dann tatsächlich zocken mit einer Bild Qualität die schlechter ist als auf einer Konsole?

AMD/ATI - RDNA 4 Verfügbarkeitsthread

Fr, 18.07.2025 20:00
PowerColor Hellhound RX 9070 XT für 653,77€ mit Shoop.
https://www.galaxus.de/de/s1/product...pplier=2705624

Das Ding hatte eine UVP von 749$. So viel zu... das kann man in Euro nicht unterbieten.

Für alle die mit einem Rückläufer kein Problem haben... ASUS Prime RX 9070 OC non XT für 542,13€ 552,13 mit Shoop.
https://www.galaxus.de/de/s1/product...1?shid=2017271

Powercolor RX 9070 non XT Reaper für 582,68€ 592,68€ mit Shoop.
https://www.galaxus.de/de/s1/product...karte-55665894

Edit:
Sorry, kleiner Fehler eingeschlichen. Den 10€ Shoop-Gutschein gibt es erst ab 599€ Einkaufswert. Ergo +10€ bei Asus Prime und Powercolor Reaper.

nVidia - GeForce RTX 5090 Review-Thread

Fr, 18.07.2025 18:19
Zitat: Zitat von x-force (Beitrag 13786112) wie gesagt nv weiß was jeder einzelne chip kann, weil sie den eh gemessen haben, um die v/f curve festzulegen. Dei Frage ist ob die nur elektrisch messen (high / low asic) oder konkret das Taktverhalten bestimmen. Und wenn letzteres würde ich auch nur auf nen Testpfad im Chip tippen und nicht auf ein Vollast-Testprogramm, bei dem sich der schwächste Gatter entpuppt.

Intel - Arc B580 Review-Thread

Fr, 18.07.2025 10:50
Es sind halt die Typischen Karten für Media Markt und Co.
Da lässt sich gut werben damit und ahnungslose Kunden werden halt abgezogen, gerade wenn da 8GB Versionen drin sitzen.

nVidia - GeForce RTX 4090 Review-Thread

Mi, 16.07.2025 22:12
Ersteindruck zu Smooth Motion auf Ada – erstaunlich gut:



MfG
Raff

AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread

Mi, 16.07.2025 21:27
mit I2C Script ist only the Sky das Limit

btw.
man kann das Script aber auch zum UVen benutzen, ... müsste mal reloadll im pcgh-thread fragen, wie weit runter
SOC+VDDCI+Vram stabil läuft, ... wäre dann ähnlich nice wie bei RDNA2@MPT
https://extreme.pcgameshardware.de/t...#post-11898605
2664 MHz -120mV SOC -120mV VDDIO -100mV VDDCI@hynix

Da langsam rantasten!
(sonst bleibts evtl. beim Anmeldebildschirm hängen)

nVidia - RTX 5050 Review-Thread

Di, 08.07.2025 12:07
Zitat: Zitat von E39Driver (Beitrag 13781703) Nee da täuscht dich deine Erinnerung. Was du meinst war GP108 in der GTX 1030. Dies war die letzte 30-Watt Grafikkarte gewesen und ist in der Tat durch APUs obsolet geworden. danke, das waren ja nur 30-watt!
nv hat laut wiki übrigens noch eine 1010 nachgelegt ;D

Arroganz oder Berechnung?

Do, 03.07.2025 23:07
Zitat: Zitat von Raff (Beitrag 13776714) Was mich dabei immer etwas aufbaut, ist die Tatsache, dass MFG mehr Speicher braucht als "keine FG". Sprich, die Fälle, wo der VRAM eng wird, werden häufiger – und das kann man mit den richtigen Settings gegen diese "Blendermodelle" verwenden. :naughty: Japp.

Zitat: Zitat von x-force (Beitrag 13776846) nene, du bist da auf einem auge blind.

du hast dich auch in diesem post nicht dazu geäußert unter welchen umständen mfg auf den karten überhaupt sinnvoll ist!

du erwähnst nie, dass flüssige settings nur einen klick(texturen) entfernt sind.
du berücksichtigst nicht, dass für mehr als 1080p eh die rohlleistung fehlt.
du berücksichtigst nicht, dass mit 1080p max texturen eh nicht sinnvoll darstellbar sind.

usw usf ich finde Raff in fast allen Fällen als sehr ausgewogen.

Es stimmt schon, dass man in der Praxis nicht unbedingt auf Ultra zockt, also auch nicht auf Max-Texturen und dass man dann auch nicht so schnell ins VRAM-Limit läuft. 2024 hielt ich Raffs Warnungen vor 12-GiB-Karten für noch leicht übertrieben, aber 2025 halte ich Warnungen vor 8-GB-Karten für Pflicht.

Wobei ich bei meinem Lappi mit mobiler "4070" (also 4060 Ti) mit 8 GB keine Sorgen habe weil ich weiß was man damit machen kann und was nicht. Ganz ehrlich? Gerade für das Powertarget und die schleißigen 8 GB VRAM finde ich die mobile 4070 ziemlich gut, wenn man sich ein wenig Zeit nimmt, verschiedene Setting zu probieren.

Für einen Desktop dürften 8-GB-Karten aber aktuell nicht so viel kosten, weil man absehbar in Probleme läuft. 1440p ist das neue 1080. Rohleistung haben die GPUs der 50-er Serie eigentlich reichlich. Was Nvidia schon immer hinbekommen hat, seit der ersten Geforce, ist Rohleistung.

Wie sieht Eure PC-"Grafikkarten-Laufbahn" aus?

Do, 26.06.2025 09:24
Zitat: Zitat von Shink (Beitrag 13773180) Ja wow, von A770 16GB auf B580 auf A750 8GB... dir ist vermutlich auch langweilig? Hehe, ne, hatte die sehr günstig bekommen und nutze die als Notnagel. Der Sprung von A770 auf B580 macht schon Sinn, da die B580 um einiges besser performt hatte. Jedoch war der Overhead bei den Treiber/der Karte Müll (siehe im B580 thread)

8 GB VRAM – Problem der Hersteller oder der Käufer?

Mi, 25.06.2025 14:43
Zitat: Zitat von PHuV (Beitrag 13773050) Da es doch mittlerweile genug Alternativen auf dem Markt gibt, ist das für mich nur eine Scheindiskussion und Empörung. Einfach nicht kaufen, oder nur ab 12-16 GB kaufen, fertig. Und sorry, wer sich nicht vorher in den entsprechenden zahlreichen PC Technik-Foren informiert und keine entsprechenden Tests liest, selbst schuld. So ist es, neutrale sachliche Tests lesen und dann für sich selbst entscheiden.

Dieses ständige Gejammer der Medien kann man sich mMm. wirklich sparen – das sind am Ende vor allem Infos für Enthusiasten, nicht für Durchschnittskäufer.

Ich meide diese Formate/Publikationen mittlerweile konsequent.

IPC-Vergleich: Blackwell, Lovelace, RDNA4 & RDNA3

Di, 24.06.2025 12:51
Zitat: Zitat von VooDoo7mx (Beitrag 13775756) Und was beim Vergliech zwischen Ada und Blackwell oft nicht beachtet wird, ist dass Blackwell viel emhr Takt je Spannungspunkt schafft.
Das heißt, wenn man die Karten (Ada und Blackwell) manuell einstellt, egal ob man Undervolting oder Overclocking betreibt, wird der Abtsand zu Gunsten Blackwell nochmal deutlich größer. Ist solange man nicht der Verbrauch vergleicht oder Power limitiert ist, ist das völlig Wurst. Ob die Karte für z.b. 2.5 GHz nun 900mV oder 1000mV braucht macht für die Performance keinen Unterschied.

nVidia - GeForce RTX 5070 Ti Review-Thread

Mo, 23.06.2025 17:31
Hat hier eigentlich jemand schonmal (gilt im Endeffekt für alle Blackwell-GPUs) eines der 80Gbps-Kabel ausprobiert? Scheint wahrscheinlich kein funktionierendes mit >2m zu geben? Hatte jetzt probehalber das 3m von Silkland hier, was auch bei der Länge mit 80Gbps beworben wird (zertifiziert sind deren Kabel aber offiziell nur bis 2m), aber das funktioniert leider überhaupt nicht. Dachte erst, liegt am UV/OC, dass es permanent Freezes gab, bis ich dann mal auf die Idee kam, es könnte ja das Kabel sein. Und zack, Monitor von DP2.1 zurück auf 1.4 gestellt und alles an Problemen verschwunden.

Ansonsten warte ich halt, bis es vielleicht irgendwann mal auch offiziell funktionierende Kabel mit 3m Länge gibt. Wenigstens funktioniert DLDSR bei Blackwell ja jetzt auch mit DSC.

Native Auflösung, DLSS oder DLAA: Wenn die FPS gleich bleiben, was bevorzugt Ihr?

Mo, 23.06.2025 12:04
Bei der Frage kommt es beim PC Monitor immer auf die Zielauflösung. Hier gibt es eben Leute, die die noch mit 2560x1440 oder 3440x1400 auf 45" (würg) rumkrebsen.

Ich nutze ein 27" UHD Monitor (163ppi) und den 16" 2560x1600 Laptop Screen. (189 ppi)
Bei beiden Bilschirmen kann ich bei DLSS Q kaum oder eigentlich keinen Unterschied zu nativer Auflösung feststellen.
Wenn man dann noch das neu Transformermodell nutzen kann, ist es sogar möglich niedrigere DLSS Stufen zu nutzen.

Am 55" UHD OLED TV bei einen Sitzabstand von 3-4m kann ich auch keinen Unterschied feststellen.

Also nutzte ich eigentlich immer DLSS wenn möglich.

Da ich mittlerweile komplett auf Laptop umgestiegen bin, ist es gerade auch beim Laptop wichtig so wenig W wie möglich durch die GPU zu jagen damit das Gerät immer noch leise bleibt. Also ist auch da DLSS sehr wichtig. Bei 240Hz nimmt man natürlich auch gerne die zusätzlichen fps mit.
Aber selbst auf meinen 4090 Desktop habe ich immer DLSS genutzt auch wenn mehr als genug Leistung übrig war.
Die Stromrechung dankt und gerade auch zur warmen Jahreszeit sind mal 150W weniger Wärme die im Raum verteilt werden auch sehr entspannend.

nVidia - GeForce RTX 5080 Review-Thread

Mi, 18.06.2025 13:46
Zitat: Zitat von Mayk-Freak (Beitrag 13772971) Danke für den Bios Link, hab das Bios gerade auf meine 5080 Zotac Solid OC geflasht und es funktioniert einwandfrei endlich hat Zotac auch ein ordentliches Power Bios und man muss nicht das Asus Astral Bios nehmen. Ich konnte es auch erfolgreich Flashen - hab mein Silent Bios überschrieben. Nur leider erreiche ich keine Mehrperformance und die ganze Sache wird instabil. Es schaut so aus als würde durch die Mehrabwärme das mehr an Taktfrequenz aufgefressen. Bin erst mal wieder aufs 'amplify' Bios zurück - cool das die Karte dual bios hat.

Zum rumspielen machts schon Spass, werde sicher noch einige Stunden versuchen das maximum raus zu holen mit dem Bios - für den Alltagsbetrieb scheint es mir aber nicht tauglich.

Komischer Nebeneffekt - 3DMark findet kein Display - im Benchmark run seh ich nichts, er läuft aber durch und gibt mir offizielle Punkte.

Danke für die Hilfestellung auf jeden Fall.

Board wechseln für XFX Radeon RX 6750 XT oder nicht, oder überhaupt diese Karte?

Sa, 14.06.2025 18:39
Zitat: Zitat von GrimReaper85 (Beitrag 13730206) I was looking for a backup card, but I wouldn't be buying a 3070 even for a backup. I already bought Gigabyte Gaming OC 6700 XT with bad paste (2200 rpm at 180W) and bad fan bearings, one ASUS Strix 2080 with VRAM artifacts, one ASUS Strix 2080 Ti with VRAM artifacts and flickering black screen (all three certainly mined) and one EVGA 2080 Ti with bad paste (80°C+ and 2500 rpm+ at 260W and 73°C and 2000 rpm at 180W) and bad fan bearings, sold each one.
I will simply not ever sell 5070 Ti and it will be a backup card sometime.
You simply cannot get a very good card under €800 anymore. Maybe 7800 XT, but above €500 it is also too much. The risks of buying a used card - Das Risiko beim Kauf einer Gebrauchtkarte.
Ich denke ich würde Kühler und Paste erneuern (und natürlich auch die Pads auf den Speichermodulen) wenn möglich. Ansonsten hoffe ich, Du hast den Käufer nach Dir über die Probleme informiert.
Als Neuware würde ich wohl eher die 9070 oder 9070 XT nehmen, weil preiswerter. Aber wenn ich die 5070 Ti schon gekauft hätte, würde ich sie auch behalten. Technisch ist die gut.
Zitat: Zitat von GrimReaper85 (Beitrag 13730206) 9060 XT 128-bit 16GB as fast as 7700 XT seems OK at your expected €350-400.
But price just can't and won't be this low. MLID says $399, maybe $349. That is in Euro €450-500 which is yet again terrible value, you can already get a 20% faster 7800 XT for €500. And I agree with MLID even if I compare to what 9070 costs - $550 or €700. There just can't be such a huge gap between €400 and €700. Look at Geizhals, several offers for the 9060XT 16 GB below €400. That is with German VAT. - Unter €400 mit deutscher Mehrwertsteuer.

Edit: Oops, accidential necromancy

nVidia - Wer hat 'ne Titan RTX?

So, 01.06.2025 20:25
War das Ding eigentlich so eine Seltenheit, oder wieso gab es hier nie eine Antwort? ;D

War gerade auf der Suche nach dem Review-Thread zur Titan RTX im 3DC =)

nVidia - GeForce RTX 2080/Ti Review-Thread

Do, 29.05.2025 19:37
Wenn man heute die ersten Posts hier liest muss man wohl das ein oder andere Mal schmunzeln. Raster wenig Performance gain, keiner wusste mit RT und AI was anzufangen.
Erinnert schon ein wenig an Blackwell und neural Rendering, naja Mal sehen in 7 Jahren :D