Grafikchips

Inhalt abgleichen 3DCenter Forum - Grafikchips und Grafikkarten
Aktualisiert: vor 7 Stunden 41 Minuten

AMD/ATI - Radeon RX 7900 GRE 16 GB (N31XL 80CU) Review-Thread

Mo, 18.03.2024 21:16
@Blacki Mit deinen UHD ist aber auch etwas faul.
Wieso habe ich höhere Min-FPS als du?

Intel - Sammelthread: ARC Alchemist Infos , Reviews etc.

So, 17.03.2024 17:10
Bezüglich DX11: https://youtu.be/Qp3BGu3vixk?t=1205


Hört sich das nach DXVK an? Für mich nicht. Intel verwendet derzeit zwei UMD DX11 Treiber Architekturen. Bei einer DXVK Lösung würde sich der Layer zwischen UMD und D3D Runtime platzieren.

AMD/ATI - Radeon RX 7000 Serie: Verfügbarkeit und Preise

So, 17.03.2024 11:18
Auch wenn's wahrscheinlich niemanden mehr interessiert, wenn man so die letzten Posts hier liest, im Mindstar gibt's die PowerColor XTX derzeit für schlappe 899,--€ versandkostenfrei. https://www.mindfactory.de/Highlights/MindStar

nVidia - GeForce RTX 40 Serie: Verfügbarkeit und Preise

Sa, 16.03.2024 18:53
12GB Palit GeForce RTX 4070 SUPER Dual Aktiv PCIe 4.0 x16 1xHDMI 2.1a / 3xDisplayPort 1.4a (Retail)

MindStar Preis: € 589,-*

Wie sieht Eure PC-"Grafikkarten-Laufbahn" aus?

Sa, 16.03.2024 13:58
S3 Trio 64V+ (2MB)
Matrox Mystic 220 (4 MB)
ATi Rage II (8 MB)
Riva TNT (16 MB)
Voodoo 3 3000 (16 MB)
Elsa GeForce 1 (32 MB)
Radeon 7500 (64 MB)
GeForce 3 Ti-500 (64 MB)
GeForce 4 MX 440 (Übergang für totgetaktete GF3)
GeForce 4 Ti 4400 (128 MB)
GeForce FX 5800 Ultra (128 MB)
GeForce FX 5900 XT (128 MB)
GeForce FX 5900 Ultra (128 MB)
GeForce 6800 (128 MB)
2x GeForce 6800 GT @ SLI (2x 256 MB)
2x GeForce 7800 GTX @ SLI (2x 256 MB)
2x GeForce 8800 GTX @ SLI (2x 768 MB)
--- über 15 Jahre Laptop :ugly: ---
GeForce RTX 4060 Ti (8 GB)
Radeon RX 7800 XT (16 GB)

AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread

Sa, 16.03.2024 06:40
Zitat: Zitat von DrFreaK666 (Beitrag 13509064) Laut CB schon Och bitte... nicht du auch noch. Avatar ist nichts weiter als ein hybrider Ansatz.

nVidia - GeForce RTX 4090 Review-Thread

Fr, 15.03.2024 14:07
Zitat: Zitat von DrFreaK666 (Beitrag 13508791) Wieso wird eigentlich immer bemerkt, dass RDNA3 mit RT im Vergleich langsamer ist? Wissen wir das nicht schon seit Release? Wenn man viel Geld für etwas ausgegeben hat dann muss dieses Produkt auch gut sein. Ansonsten müsste man sich eingestehen eine Fehlinvestition getätigt zu haben.

AMD/ATI - Radeon RX 6700 XT: (P)Review-Thread

Di, 12.03.2024 17:06
Zitat: Zitat von Exxtreme (Beitrag 13506949) Das Starfield beschissen läuft, das wundert hoffentlich niemanden. Das läuft nämlich überall schlecht.

Und die Optimierungen für RDNA2 dürften sich kaum von denen für RDNA3 unterscheiden. Ist viel wahrscheinlicher, dass die 12 GB die Bremse sind. Ich hatte in Erinnerung das AMD sehr gut läuft und NV Probleme hatte, was Sinn macht da Microsoft will das die Xbox Version was taugt.

7600 sticht schon heraus für den Preis.



https://www.computerbase.de/2024-01/...nitt_starfield

AMD/ATI - Radeon RX 6800/6900(XT) OC/UV

So, 10.03.2024 17:11
Hehe... nee, alles im normalen Bereich. Für 2380Mhz max. Boost brauche ich das hier.



Man braucht schon recht viel Zeit in Banishers Ghosts of New Eden damit sich ein Fehler zeigt und ich dann sanft auf dem Desktop mit einer Fehlermeldung vom Game lande. Teilweise kam da mit weniger als 1000mV selbst nach 2 Spielstunden nichts. Dagegen ist Timespy völlig harmlos. Dort reichen 981mV bereits aus. Bisher sind hier bei RDNA2 wirklich die UE5 Games am anspruchsvollsten was Voltage angeht.

nVidia - GeForce RTX 3050 Review-Thread

So, 10.03.2024 09:12
Wie gesagt die 50 Serie war immer deutlich schlechter als 60 das war nie eine Kaufempfehlung.

3050 6GB ist deutlich dichter an dem 8GB Modell als 1650 vs 1660 z.b.

VRAM-Auslastung aktueller Spieletitel

Fr, 08.03.2024 15:30
Zitat: Zitat von Lurtz (Beitrag 13504816) Wenn Texturen = Ultra aber Konsolenqualität bedeutet und sich beim Runterskalieren überhaupt keine Arbeit gemacht wird, wie bei TLOU Part I, ist alles unter Ultra eben schon ein schlechter Kompromiss. Ja, deshalb empfehlen ja auch viele mittlerweile bisschen VRAM Puffer.
Nvidia macht es einem da allerdings nicht so einfach.
Aufpreis 4070(S) auf 4070 TI Super ist jetzt für die Kernzielgruppe solcher GPU's nicht so ohne.
Würde bei über WQHD Auflösung bei Neuanschaffung nicht mehr 12GB kaufen.
Aus 10% grenzwertigen großen Games wird dann schnell 1/3 und mehr nach 12 Monaten.
Aber es wird auch mit 12GB Dank Upscaling und Einstellungen wohl gutgehen.
TLoU war bisschen schlechter Release Zustand.
Hatte da mit 3080TI Ende letzten Jahres allerdings bislang auch keine Probleme.
Steel Rising ist auch mit 1,2 Reglern nicht auf Maximum weit über PS5 Niveau.
Das frisst nur einfach mörderisch Hardware in manchen Gebieten.
4080S in 4K mit DLSS schon voll empfehlenswert.

nVidia - GeForce RTX 4080 Super Review-Thread

Fr, 08.03.2024 14:05
Also DLSS3 ist echt nen killerfeature. Muss ich schon so sagen, weil es perfekt funktioniert und kein Gefrickel ist wie bei AMD. Leider.

Von der Raytracing Performance mal ganz zu schweigen. Cyberpunk mit Pathtracing war halt schon ein Erlebnis.

Und selbst mit Avatar was ich gestern mal mit DLSS3 Mod probiert hab, kannste noch gut spielen in 4K.

Insgesamt schon beeindruckendes Biest und sogar kürzer und kühler als meine alte 6900XT.

AMD/ATI - Radeon RX Vega 56/64: Review-Thread

Fr, 01.03.2024 08:03
Da gehts um die Radeon VII. John hatte nur in einem Video Vega 7 mit Radeon 7 verwechselt und meinte die würde heute ja unverhältnismäßig stark abfallen. Deshalb hat Richard sie jetzt nochmal mit aktuellen Spielen getestet.

AMD/ATI - Radeon RX 7700 XT & 7800 XT Review-Thread

Mo, 26.02.2024 16:03
Danke, wusste ich nicht, aber funzt^^
Wobei Vram auch da nicht dabei ist. Das ist doch ne Standard Info :confused:

Zitat: Zitat von Dino-Fossil (Beitrag 13498676) Kann man doch im Adrenalin Treibermenü alles aktivieren, oder? Gerade gefunden, danke. War wohl blind...

AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread

Do, 22.02.2024 16:11
Na, das kann ich ja schon mal ziehen (y).

Verspreche mir davon jetzt nicht sooo viel, einfach so 'ne Art Überbrückung bis Tag x. RT hat mir nie so richtig was gegeben, habe mich nur über den Einbruch der Bildraten gewundert bis geärgert und nun soll es einfach eine Vernunftlösung werden. 2026 schauen wir dann mal weiter.

nVidia - Geforce GTX Titan: (P)Review-Thread

Sa, 17.02.2024 17:04
Zitat: Zitat von Raff (Beitrag 13489771) Geforce GTX Titan elf Jahre später: Alte Enthusiast-GPU vs. neue Einsteiger-Grafikkarte

-> Nur in Teilbereichen "zukunftssicher". ;)

MfG
Raff Es gab doch auch noch die Titan Z als Flagship, die müsste doch auch Kelper GK110 sein analog zur GTX690 mit 2xGK104. Ein Vergleich (heute) mit einer HD7990 oder FirePro S10000 12GB wäre dann auch interessant. Edit: Aber man müsste sicherlich ein wenig mit dem nVidia Profile Inspector herumprobieren bis alles läuft. :redface:

Gruß
BUG

Intel - ARC Battlemage reviews, Infos etc.

Sa, 17.02.2024 16:42
https://youtu.be/66uLzezVP2Q?t=188

"Final BMG validation is targeting Q4 2024 at the earliest"


Also kann man nicht vor mitte 2025 damit rechnen. Das könnte sich auf das 64 Xe Modell beziehen muss man dazusagen. Aus anderen Quellen ist zu hören, dass G10 mit 56 Xe Kernen gestrichen wurde, weswegen es hier zu einer deutlichen Verzögerung kommt. Angeblich wurde vor 3 Monaten begonnen am 64 Xe Design zu arbeiten. Dann wäre die späte Validierung kein Wunder.


Das kleinste Modell mit 20 Xe Kernen soll wie ursprünglich aber noch auf der Roadmap stehen. Falls etwas kommt Ende 2024 oder Anfang 2025, dann wohl nur die kleinere 20 Xe Version. Ein deutliches Upgrade als A380 Nachfolger wäre es allemal.

AMD/ATI - Radeon RX 7600 XT Review-Thread

Do, 01.02.2024 19:00
Zitat: Zitat von raffa (Beitrag 13482258) Danke für die Auskunft.

Heisst das Clock/Boost festklopfen ist ineffizienter als per Powertarget regeln oder warum ist es ein Problem den Boost zu senken? (hab ich in dem Beispiel ja auch so gemacht) Verstehe die Frage nicht. Und wer sagt es wäre ein Problem den Boost zu senken?

nVidia - GeForce RTX 3070 Review-Thread

Mi, 31.01.2024 12:27
Noch ein Nachtest 3070 vs 6750XT.
Ich verstehe sein Kommentar nicht warum sollte die 6750XT schwach sein war die nicht extrem teuer?