Grafikchips

Inhalt abgleichen 3DCenter Forum - Grafikchips und Grafikkarten
Aktualisiert: vor 29 Minuten 20 Sekunden

nVidia - GeForce RTX 4090 Review-Thread

vor 4 Stunden 42 Minuten
Mir wurde abgeraten das BeQuiet Winkelkabel bei meiner 4090 zu verwenden wegen bla und stattdessen das Kabel vorsichtig zu biegen. Natürlich im ausgesteckten Zustand. Habe aber bedenken das die Spannung sich negativ auf die Steckverbindung auswirkt. Werde es wohl soweit biegen das es keine Spannung mehr verursacht. Oder darf man plötzlich kabel auch nicht mehr biegen? Was fürn Scheiss das Ganze.

So hohl kann man (Graka Hersteller) echt nicht sein. Und nein es gibt sehr wohl Möglichkeiten sowas gescheit anzubringen, siehe Serverkram. Der im Shop meinte das es Gründe gibt das es so ist wie es ist. The stupid, it burns;D

AMD/ATI - Radeon RX 7000 Serie: Verfügbarkeit und Preise

Fr, 26.04.2024 21:26
Ja, vom Verbrauch sollte sie ähnlich zu meiner 6800XT sein, da ich vor vor vier Jahren "nur" ein 650w Be Quiet Straight Power E11 gekauft habe.
Hat mich im Nachhinein bissl geärgert aber es reicht zum Glück für die 6800XT und ich denke, das sollte auch mit einer 7900XT noch klappen, sieht ja vom Verbrauch nicht großartig anders wie die 6800XT aus.
Bei der XTX denke ich, könnte es dann vielleicht zu knapp sein.
Aber der Leistungssprung hört sich gut an. Mal gucken, was im Sommer so noch passiert.

Intel - Sammelthread: ARC Alchemist Infos , Reviews etc.

Mi, 24.04.2024 00:49
Zitat: Zitat von Fusion_Power (Beitrag 13528615) Gibts Fortschritte was den Idle Verbrauch der ARC Grafikkarten angeht? Für mich neben den Performance Problemen aktuell noch das größte No-Go. Da muss sich einfach was verbessern denn die Konkurrenz kanns ja auch. Rein treibertechnisch scheint sich da aber nichts zu tun. Geht das wirklich nur mit einer neuen Hardware-Generation? Mein Senf:
Der hohe idle-Verbrauch ist leider Fakt, aber in gewissen Grenzen einzudämmen. Ich habe bei CB mal ein paar Screenshots eingestellt vor geraumer Zeit.

https://www.computerbase.de/forum/th.../post-28327788

Wenn du also hohe Hz benötigst, dann ist der Verbrauch hoch. Welcher Teufel intel da geritten hat, ist wohl keinem verständlich - gerade wo doch deren CPUs durch extrem niedrige Verbräuche in idle bzw. Teillast glänzen.
Und der Workaround ist auch auf intel-Karten und ich glaube auf einige Asrock beschränkt - bei den anderen (Acer z.B.) tut sich wohl gar nichts.

Da ja die neuen Intel-CPUs integrierte ARC haben und dennoch sparsam sind, wurde wohl bei den diskreten Karten einfach etwas grundlegend verbockt. Das läßt aber hoffen, dass Battlemage dann auch vernünftig idlen kann - vermutlich würde ja schon genügen, den Graka-Speicher runtertakten zu können - das tun die ARCs nämlich niemals. Und 8 oder sogar 16GB @ über 2000MHz ist maximal unklug.

Chat with RTX - RAG für zu Hause

Mo, 22.04.2024 15:04
Einfach ein ganz normales LLM lokal laufen zu lassen ist nicht schwierig.
Spannender wird es, wenn man dem LLM noch etwas spezialwissen einimpfen kann.

RAG -- Retrieval-Augmented Generation

Mit RAG kann ich ein LLM nehmen und dem nochmal etwas rantrainieren.
Das wird besonders spannend, sobald die kommerziell frei verwendbaren guten LLama 3 Modell endlich alle released werden.

Chat with RTX kann RAG und ich finde es sauspannend, weil es von der Schachtel raus schon einiges mitbringt.

https://www.nvidia.com/en-us/ai-on-rtx/chatrtx/

Ich habe den Installationspfad nicht in Program Files reingelegt.
Bei mir liegt es dort:
C:/chat_with/RAG/trt-llm-rag-windows-main/dataset

Ich habe Source-Code-Dateien in .txt umbenannt und in diesen Ordner reingelegt und lernen lassen.

Ich hoffe hier kommt bald eine Version mit LLama 3 70B raus, dann könnte die Qualität der Ausgabe noch besser werden.

Und es wird auch interessant, wieviel Speicher man benötigt für das LLama 3 400B Modell.

AMD/ATI - Radeon RX 6XXX Verfügbarkeitsthread

Fr, 19.04.2024 20:19
Im Mindstar gibt es gerade noch eine kleine Menge an Powercolor Fighter 6700 XT für 309,-€.

Performance & Enthusiast: Aktuelle Grafikkartenpreise #2

Di, 16.04.2024 15:55
Etwas OT, aber wenn man sich mal die Gehälter in den USA ansieht und die Lebensmittelpreise und Mieten... normalerweise müsste der Kurs so bei 1 Euro = 3 USD sein und nicht 1,06 USD... dann würden wir den echten Preis einer 4090 Zahlen, nämlich 600~750 Euro oder so. :D ;) So viel haben mal die Gaming Topmodelle 980TI und 1080TI gekostet...

nVidia - GeForce RTX 3050 Review-Thread

Fr, 12.04.2024 15:41
Zitat: Zitat von DrFreaK666 (Beitrag 13523632) Ich glaub NV hat ein Problem damit wenn es eine RTX 7500 von AMD gibt :D

Wie hat sich denn die 6400 verkauft? Aber nicht im OEM Markt.
PC mit Nvidia Karte verkaufen sich einfach, da kann die verbaute Karte noch so schlecht sein.

AMD/ATI - Radeon RX 7900 GRE 16 GB (N31XL 80CU) Review-Thread

Do, 11.04.2024 16:28
Wenns nicht auf den Preis ankommt, ist natürlich die 7900XT ne gute Wahl, lässt sich auch optimieren:
Miniaturansicht angehängter Grafiken    

nVidia - GeForce RTX 4070 Super Review-Thread

Mi, 10.04.2024 11:51
Also ich hab die 4070 wieder zurückgeschickt. Wobei das nicht direkt an der Karte lag. Die war eigentlich "Super" und kann ich jedem empfehlen. Aber vielleicht sind mehr FPS dann am Ende doch besser. ;) Eine 4080 Super reizt vielleicht doch... schau mer mal. Oder ich warte bis die 5080 da ist. :)

Ich hab zwar jetzt statt 4K einen WQHD Monitor - aber der hat statt 60 Hz jetzt 165 Hz oder so (mit Übertakten geht noch mehr) und das ist dann doch ein Unterschied wenn man mehr FPS in Games hat. ;)

nVidia - GeForce RTX 4080 Review-Thread

Mo, 08.04.2024 20:15
Asus ist doch schon lange nur noch ein überteuerter Name.
Speziell die AMD Karten von Asus sind durch und durch Müll, bei den Nvidia Karten versagt die Endkontrolle, die Notebooks fiepen vorsich hin, Mainboards mit schlechten Biosen und die Software ist der reinste Müll.

AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread

So, 07.04.2024 20:44
Zitat: Zitat von Exxtreme (Beitrag 13509069) Ähhhm, es ist so: jedes Spiel mit Raytracing benutzt zwangsläufig auch Rastersizing. Das muss so sein. Ohne Rastersizing könnte der Monitior gar nichts darstellen. Exakt! Wichtig nur wie der Effekt (mehr ist es für den Moment nicht) eingesetzt wird. Ich habe eine 4090 verbaut und ohne Upscaling geht RT max nicht. Für manch Titel geht es gar ohne FG nicht.

Aber: Der optische Vorteil bewegt sich oft nahe 0. Ist für derzeit eine Momentaufnahme, aber für mich stellt RT für den Moment keinen Mehrwert dar.

Intel - ARC Battlemage reviews, Infos etc.

Sa, 23.03.2024 17:47
Im SiSoftware Ranker gibt es ein paar Desktop dGPU Einträge, die keinem Alchemist Modell zuzuordnen sind. Möglicherweise erste Battlemage Einträge einer kleineren Variante?

Mir sind keine Desktop Modelle mit 160 oder 192 EUs bekannt. 160EUs passen zur Variante mit 20 Xe Kernen. Mobile kann man ausschließen, weil die auf einem ASUS PRIME Z790-P System laufen. Der Bandbreitenbenchmark liest 11904 MB aus.



Intel(R) Graphics d gfx-driver-ci-master-16050 DCH-D (1440S 160C SM3.0 1.8GHz, 8MB L2, 11.6GB) (OpenCL)
https://ranker.sisoftware.co.uk/show...9bfccf1c9&l=en


Intel(R) Graphics d gfx-driver-ci-master-16050 DCH-D (1728S 192C SM3.0 1.8GHz, 8MB L2, 11.6GB) (OpenCL)
https://ranker.sisoftware.co.uk/show...cbac9f4cc&l=en



Auch das poweron deutet auf etwas Neues hin:

Intel(R) Graphics d gfx-driver-ci-poweron_e2-229 DCH RI (1728S 192C SM3.0 1.8GHz, 8MB L2, 11.6GB) (OpenCL)
https://ranker.sisoftware.co.uk/show...cbac9f4cc&l=en



Zum Vergleich Arc A770:

Intel(R) Arc(TM) A770 Graphics (4608S 512C SM3.0 2.4GHz, 16MB L2, 12.8GB) (OpenCL)
https://ranker.sisoftware.co.uk/show...2b4c7faca&l=en

Single Float GPU liegt A770 14% drüber (2.4 Ghz 512VE 8 wide vs 1.8? Ghz 192VE 16 wide)

edit: Kann auch sein, dass Sisoft die 32VE der ADL-S iGPU mitzählt, dann wären es 160VE und 128VE. Kommt wohl drauf an, ob die im Bios deaktiviert gewesen ist. Glaube ich aber nicht, weil nur 1 Device/Thread ausgelesen wird.

Wie sieht Eure PC-"Grafikkarten-Laufbahn" aus?

Sa, 16.03.2024 14:58
S3 Trio 64V+ (2MB)
Matrox Mystic 220 (4 MB)
ATi Rage II (8 MB)
Riva TNT (16 MB)
Voodoo 3 3000 (16 MB)
Elsa GeForce 1 (32 MB)
Radeon 7500 (64 MB)
GeForce 3 Ti-500 (64 MB)
GeForce 4 MX 440 (Übergang für totgetaktete GF3)
GeForce 4 Ti 4400 (128 MB)
GeForce FX 5800 Ultra (128 MB)
GeForce FX 5900 XT (128 MB)
GeForce FX 5900 Ultra (128 MB)
GeForce 6800 (128 MB)
2x GeForce 6800 GT @ SLI (2x 256 MB)
2x GeForce 7800 GTX @ SLI (2x 256 MB)
2x GeForce 8800 GTX @ SLI (2x 768 MB)
--- über 15 Jahre Laptop :ugly: ---
GeForce RTX 4060 Ti (8 GB)
Radeon RX 7800 XT (16 GB)

AMD/ATI - Radeon RX 6700 XT: (P)Review-Thread

Di, 12.03.2024 18:06
Zitat: Zitat von Exxtreme (Beitrag 13506949) Das Starfield beschissen läuft, das wundert hoffentlich niemanden. Das läuft nämlich überall schlecht.

Und die Optimierungen für RDNA2 dürften sich kaum von denen für RDNA3 unterscheiden. Ist viel wahrscheinlicher, dass die 12 GB die Bremse sind. Ich hatte in Erinnerung das AMD sehr gut läuft und NV Probleme hatte, was Sinn macht da Microsoft will das die Xbox Version was taugt.

7600 sticht schon heraus für den Preis.



https://www.computerbase.de/2024-01/...nitt_starfield

AMD/ATI - Radeon RX 6800/6900(XT) OC/UV

So, 10.03.2024 18:11
Hehe... nee, alles im normalen Bereich. Für 2380Mhz max. Boost brauche ich das hier.



Man braucht schon recht viel Zeit in Banishers Ghosts of New Eden damit sich ein Fehler zeigt und ich dann sanft auf dem Desktop mit einer Fehlermeldung vom Game lande. Teilweise kam da mit weniger als 1000mV selbst nach 2 Spielstunden nichts. Dagegen ist Timespy völlig harmlos. Dort reichen 981mV bereits aus. Bisher sind hier bei RDNA2 wirklich die UE5 Games am anspruchsvollsten was Voltage angeht.

VRAM-Auslastung aktueller Spieletitel

Fr, 08.03.2024 16:30
Zitat: Zitat von Lurtz (Beitrag 13504816) Wenn Texturen = Ultra aber Konsolenqualität bedeutet und sich beim Runterskalieren überhaupt keine Arbeit gemacht wird, wie bei TLOU Part I, ist alles unter Ultra eben schon ein schlechter Kompromiss. Ja, deshalb empfehlen ja auch viele mittlerweile bisschen VRAM Puffer.
Nvidia macht es einem da allerdings nicht so einfach.
Aufpreis 4070(S) auf 4070 TI Super ist jetzt für die Kernzielgruppe solcher GPU's nicht so ohne.
Würde bei über WQHD Auflösung bei Neuanschaffung nicht mehr 12GB kaufen.
Aus 10% grenzwertigen großen Games wird dann schnell 1/3 und mehr nach 12 Monaten.
Aber es wird auch mit 12GB Dank Upscaling und Einstellungen wohl gutgehen.
TLoU war bisschen schlechter Release Zustand.
Hatte da mit 3080TI Ende letzten Jahres allerdings bislang auch keine Probleme.
Steel Rising ist auch mit 1,2 Reglern nicht auf Maximum weit über PS5 Niveau.
Das frisst nur einfach mörderisch Hardware in manchen Gebieten.
4080S in 4K mit DLSS schon voll empfehlenswert.

nVidia - GeForce RTX 4080 Super Review-Thread

Fr, 08.03.2024 15:05
Also DLSS3 ist echt nen killerfeature. Muss ich schon so sagen, weil es perfekt funktioniert und kein Gefrickel ist wie bei AMD. Leider.

Von der Raytracing Performance mal ganz zu schweigen. Cyberpunk mit Pathtracing war halt schon ein Erlebnis.

Und selbst mit Avatar was ich gestern mal mit DLSS3 Mod probiert hab, kannste noch gut spielen in 4K.

Insgesamt schon beeindruckendes Biest und sogar kürzer und kühler als meine alte 6900XT.

AMD/ATI - Radeon RX Vega 56/64: Review-Thread

Fr, 01.03.2024 09:03
Da gehts um die Radeon VII. John hatte nur in einem Video Vega 7 mit Radeon 7 verwechselt und meinte die würde heute ja unverhältnismäßig stark abfallen. Deshalb hat Richard sie jetzt nochmal mit aktuellen Spielen getestet.

AMD/ATI - Radeon RX 7700 XT & 7800 XT Review-Thread

Mo, 26.02.2024 17:03
Danke, wusste ich nicht, aber funzt^^
Wobei Vram auch da nicht dabei ist. Das ist doch ne Standard Info :confused:

Zitat: Zitat von Dino-Fossil (Beitrag 13498676) Kann man doch im Adrenalin Treibermenü alles aktivieren, oder? Gerade gefunden, danke. War wohl blind...