3DCenter Diskussionsforen

Wie sieht Eure PC-"Grafikkarten-Laufbahn" aus?

Grafikchips - Sa, 16.03.2024 14:58
S3 Trio 64V+ (2MB)
Matrox Mystic 220 (4 MB)
ATi Rage II (8 MB)
Riva TNT (16 MB)
Voodoo 3 3000 (16 MB)
Elsa GeForce 1 (32 MB)
Radeon 7500 (64 MB)
GeForce 3 Ti-500 (64 MB)
GeForce 4 MX 440 (Übergang für totgetaktete GF3)
GeForce 4 Ti 4400 (128 MB)
GeForce FX 5800 Ultra (128 MB)
GeForce FX 5900 XT (128 MB)
GeForce FX 5900 Ultra (128 MB)
GeForce 6800 (128 MB)
2x GeForce 6800 GT @ SLI (2x 256 MB)
2x GeForce 7800 GTX @ SLI (2x 256 MB)
2x GeForce 8800 GTX @ SLI (2x 768 MB)
--- über 15 Jahre Laptop :ugly: ---
GeForce RTX 4060 Ti (8 GB)
Radeon RX 7800 XT (16 GB)

Unreal Engine 4

Zitat: Zitat von The_Invisible (Beitrag 13508251) Hört sich mal wieder nach Problemen mit den zwei CCDs an... Weil AMD ein Nischenspiel nicht im Profil hat um es auf den richtigen Kernen laufen zu lassen.

AMD - Ryzen 7 5800X3D Review-Thread

Prozessoren und Chipsätze - Mi, 13.03.2024 20:21
Zitat: Zitat von robbitop (Beitrag 13506894) Thema IMO verfehlt. Ein 5950X3D ist ja für AMD absolut machbar für AM4 ohne auch nur ein Fitzelchen R&D zu investieren. Den gab es sogar im Labor. Das packaging und die Chiplets existieren ja und würden auch laufen wenn man das Package so bestückt.
Ein hypotetischer nativer 16C auf AM4 hingegen wäre was völlig Neues und entsprechend für AMD nicht sinnvoll. Sowas wird dann mal mit Zen6 (oder so) für AM5 kommen. Meinte eh AM5 :D

So eine CPU auf AM4 würde aber keinen Sinn machen da man ja die Kunden auf AM5 bringen will, so ein 16C 3dcachler wäre da schon ein wenig Anreiz

AMD/ATI - Radeon RX 6700 XT: (P)Review-Thread

Grafikchips - Di, 12.03.2024 18:06
Zitat: Zitat von Exxtreme (Beitrag 13506949) Das Starfield beschissen läuft, das wundert hoffentlich niemanden. Das läuft nämlich überall schlecht.

Und die Optimierungen für RDNA2 dürften sich kaum von denen für RDNA3 unterscheiden. Ist viel wahrscheinlicher, dass die 12 GB die Bremse sind. Ich hatte in Erinnerung das AMD sehr gut läuft und NV Probleme hatte, was Sinn macht da Microsoft will das die Xbox Version was taugt.

7600 sticht schon heraus für den Preis.



https://www.computerbase.de/2024-01/...nitt_starfield

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

Work Graphs API: First Look At Performance Of DirectX 12's Latest Feature

Ab 1:20 wirds interessant was den möglichen Performanceunterschied angeht.


Portal mit RTX IO off und on:

AMD/ATI - Radeon RX 6800/6900(XT) OC/UV

Grafikchips - So, 10.03.2024 18:11
Hehe... nee, alles im normalen Bereich. Für 2380Mhz max. Boost brauche ich das hier.



Man braucht schon recht viel Zeit in Banishers Ghosts of New Eden damit sich ein Fehler zeigt und ich dann sanft auf dem Desktop mit einer Fehlermeldung vom Game lande. Teilweise kam da mit weniger als 1000mV selbst nach 2 Spielstunden nichts. Dagegen ist Timespy völlig harmlos. Dort reichen 981mV bereits aus. Bisher sind hier bei RDNA2 wirklich die UE5 Games am anspruchsvollsten was Voltage angeht.

VRAM-Auslastung aktueller Spieletitel

Grafikchips - Fr, 08.03.2024 16:30
Zitat: Zitat von Lurtz (Beitrag 13504816) Wenn Texturen = Ultra aber Konsolenqualität bedeutet und sich beim Runterskalieren überhaupt keine Arbeit gemacht wird, wie bei TLOU Part I, ist alles unter Ultra eben schon ein schlechter Kompromiss. Ja, deshalb empfehlen ja auch viele mittlerweile bisschen VRAM Puffer.
Nvidia macht es einem da allerdings nicht so einfach.
Aufpreis 4070(S) auf 4070 TI Super ist jetzt für die Kernzielgruppe solcher GPU's nicht so ohne.
Würde bei über WQHD Auflösung bei Neuanschaffung nicht mehr 12GB kaufen.
Aus 10% grenzwertigen großen Games wird dann schnell 1/3 und mehr nach 12 Monaten.
Aber es wird auch mit 12GB Dank Upscaling und Einstellungen wohl gutgehen.
TLoU war bisschen schlechter Release Zustand.
Hatte da mit 3080TI Ende letzten Jahres allerdings bislang auch keine Probleme.
Steel Rising ist auch mit 1,2 Reglern nicht auf Maximum weit über PS5 Niveau.
Das frisst nur einfach mörderisch Hardware in manchen Gebieten.
4080S in 4K mit DLSS schon voll empfehlenswert.

nVidia - GeForce RTX 4080 Super Review-Thread

Grafikchips - Fr, 08.03.2024 15:05
Also DLSS3 ist echt nen killerfeature. Muss ich schon so sagen, weil es perfekt funktioniert und kein Gefrickel ist wie bei AMD. Leider.

Von der Raytracing Performance mal ganz zu schweigen. Cyberpunk mit Pathtracing war halt schon ein Erlebnis.

Und selbst mit Avatar was ich gestern mal mit DLSS3 Mod probiert hab, kannste noch gut spielen in 4K.

Insgesamt schon beeindruckendes Biest und sogar kürzer und kühler als meine alte 6900XT.

AMD - Frage zum B550-Chipsatz

Prozessoren und Chipsätze - So, 03.03.2024 18:10
Zitat: Zitat von T86 (Beitrag 13501813) Der untere x16 Slot ist ein Pcie 3.0 x4 slot vom Chipsatz
Bei fast allen b550 boards kann man den zeitgleich mit den unteren m2 Slot nutzen
Da b550 genug lanes hat kann man mit Adapter eine dritte m2 ssd verbauen wenn ;)
Falls das mal Interessant sein sollte… Das kann man fast beim Gigabyte B550 GAMING X V2 vergessen.

1 x PCI Express x16 slot (PCIEX2), integrated in the Chipset:- Supporting PCIe 3.0 x2 mode

3 x PCI Express x1 slots (PCIEX1_1, PCIEX1_2, PCIEX1_3), integrated in the Chipset:
- Supporting PCIe 3.0 x1 mode

Was man sich dabei gedacht hat würde ich auch gerne wissen. Selbst "mein altes b450 MB " hatte wenigstens einen x4 Steckplatz zusätzlich.

AMD/ATI - Radeon RX Vega 56/64: Review-Thread

Grafikchips - Fr, 01.03.2024 09:03
Da gehts um die Radeon VII. John hatte nur in einem Video Vega 7 mit Radeon 7 verwechselt und meinte die würde heute ja unverhältnismäßig stark abfallen. Deshalb hat Richard sie jetzt nochmal mit aktuellen Spielen getestet.

Intel/Micron 3D XPoint

"ERWACHE!" :whistle:

Zum Ende der Woche bringt mir jemand bei dieser Gelegneheit einfach mal so eine P1600X :| Wurde auf dem Job im Schrank noch verpackt gefunden und zum Entsorgen freigegeben.

Was kann ich damit anfangen? Kann ich damit was anfangen? :rolleyes:

Der zweite M.2 auf dem X99 - auf welchem ein Xenon steckt, ergo volle Lines - ist grad frei. Gebootet wird von 970EvoPlus. Dahinter ist ein 2x860Pro RAID0.

Geforce Now: Nvidia holt auf

Finde ich legitim im Free Tier.
ich habe jetzt schon einige Monate das Ultimate-Abo und habe nicht vor es zu kündigen. Ich merke nicht, ob es lokal oder bei GFN läuft. Bin sehr happy mit dem Dienst! Selbst bei kompetitiven Shootern ist es kaum noch bemerkbar, gute Anbindung vorausgesetzt.

AMD/ATI - Radeon RX 7700 XT & 7800 XT Review-Thread

Grafikchips - Mo, 26.02.2024 17:03
Danke, wusste ich nicht, aber funzt^^
Wobei Vram auch da nicht dabei ist. Das ist doch ne Standard Info :confused:

Zitat: Zitat von Dino-Fossil (Beitrag 13498676) Kann man doch im Adrenalin Treibermenü alles aktivieren, oder? Gerade gefunden, danke. War wohl blind...

AMD - Zen 3/Ryzen 5000 Review-Thread

Prozessoren und Chipsätze - Sa, 24.02.2024 17:00
Zitat: Zitat von HOT (Beitrag 13497513) 6400 wäre doof, da das IOD dann mit 2:1 läuft. 6200 wäre das Maximum. HUB nutzt 6000er für AMD und 7200 für Intel standardmäßig. Wenn HWUB schon RAM-OC fährt, werden sie klug genug sein, ein sinnvolles Setting zu wählen, welches auch gut performed. Wenn 6400 plötzlich langsamer als 6000 laufen, weil das SoC intern den IF-Multi hochschraubt, dürften sie das mitbekommen und gefixt (oder auf 6000 gelassen) haben.

rabbit r1 - your pocket companion - AI Device

das ging schnell
Zitat: „Buche mir einen Flug zum Viertelfinale“. Einfach per Sprachbefehl gehorcht der intelligente Assistent aufs Wort. Der Showcase zeigt anhand von konkreten Beispielen wie ein KI-Smartphone bei Reiseplanung, Einkauf, Videoerstellung oder Fotobearbeitung das Leben erleichtert. Möglich macht das ein digitaler Assistent der Telekom. Mittels KI übernimmt er die Funktionen unterschiedlichster Apps und kann alle täglichen Aufgaben erledigen, für die normalerweise mehrere Anwendungen auf dem Gerät benötigt würden. Ganz mühelos und intuitiv lässt sich der Concierge über Sprache und Text steuern. https://www.telekom.com/de/medien/me...n-apps-1060268

AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread

Grafikchips - Do, 22.02.2024 17:11
Na, das kann ich ja schon mal ziehen (y).

Verspreche mir davon jetzt nicht sooo viel, einfach so 'ne Art Überbrückung bis Tag x. RT hat mir nie so richtig was gegeben, habe mich nur über den Einbruch der Bildraten gewundert bis geärgert und nun soll es einfach eine Vernunftlösung werden. 2026 schauen wir dann mal weiter.

nVidia - Geforce GTX Titan: (P)Review-Thread

Grafikchips - Sa, 17.02.2024 18:04
Zitat: Zitat von Raff (Beitrag 13489771) Geforce GTX Titan elf Jahre später: Alte Enthusiast-GPU vs. neue Einsteiger-Grafikkarte

-> Nur in Teilbereichen "zukunftssicher". ;)

MfG
Raff Es gab doch auch noch die Titan Z als Flagship, die müsste doch auch Kelper GK110 sein analog zur GTX690 mit 2xGK104. Ein Vergleich (heute) mit einer HD7990 oder FirePro S10000 12GB wäre dann auch interessant. Edit: Aber man müsste sicherlich ein wenig mit dem nVidia Profile Inspector herumprobieren bis alles läuft. :redface:

Gruß
BUG

ChatGPT (KI-Chat, "HTML/Javascript"-Code erzeugen lassen)

Zitat: Zitat von Troyan (Beitrag 13491317) Benutzen Mistral mit 7B sowie Llama mit 13B Parametern. Der Vorteil hier ist, dass das ganze auf die TensorCores umgesetzt ist und nicht per CPU/Cuda läuft.

/edit: Paar Infos von nVidia: https://blogs.nvidia.com/blog/chat-w...available-now/ Was kein CUDA? TensorRT-LLM setzt auf CUDA auf, alles andere wäre dämlich... CUDA kann sehr gut mit den Tensor Kernen umgehen, oder was macht denn eine H100 damit? ;)
Kannst selbst nachschauen: https://github.com/NVIDIA/TensorRT-LLM

Offiziell aus der TensorRT Homepage:
Zitat: TensorRT, built on the NVIDIA CUDA® parallel programming model,[...]

Zitat: Zitat von Trap (Beitrag 13491360) Wenn Lllama13B geht, dann sollte technisch auch Llama70B gehen. Braucht halt in FP16 140 GB VRAM oder quantisiert so um die 45 GB. Also geht es technisch doch nicht. Wenn man nicht gerade eine dicke Quadro hat ;)

Gaming auf 8k

Nach einigen Monaten 8k muss ich heute mal ein leicht erschreckendes und überraschendes Feedback dazu geben.

Ich bin schockiert, wie gut ich 8K-Content mittlerweile erkenne und es zu schätzen weiß, wenn jemand auf Youtube mal in 8k gefilmt hat. Sobald ich dann wieder 4K sehe denke ich sowas wie:,,Uh, das ist jetzt doch ein bisschen soft". (Natürlich nur, wenn ich sehr nah vor meinem 65 Zoller sitze, aus 2m Entfernung keine Chance mehr.)

Doch ich hätte nicht erwartet, dass ich mich an 8K gewöhne wie an 120Hz und es so sehr vermisse wenn ich es mal nicht habe. Besonders, da ich es zu Beginn kaum bis gar nicht gesehen habe. Und es schockiert mich, weil 8K Geräte und Inhalte eher die Seltenheit und ziemlich teuer sind. Ich will nicht mehr zurück. Ganz ehrlich, auf einem Smartphone würden mir sogar 1080p genügen aber auf einem sehr großen TV... da will ich mittlerweile eigentlich schon 8k, auch, wenn ich es mir selbst ungern eingestehe, weil ich weiß, dass ich mir gerade keinen zweiten, ordentlichen 8K TV leisten kann. :freak:

Fu**, ich will nicht, dass mir 8K so gut gefällt, es ist noch mit so vielen Problemen verbunden, aber es ist geil. Besonders als riesen PC-Monitor ist es das Ultimum, ein wahr gewordener Pipe-Dream.

"Raytracing in Spielen" von Daniel Pohl

Zitat: Zitat von betasilie (Beitrag 6350270)
...IBM/Sony/Toshiba und MS) RT positiv gegenüber, mit Ausnahme von nVidia, die das ganze zumindest hinauszögern werden wollen. Wie AMD/ATi dazu stehen mögen, würde mich allerdings mal interessieren.
Stellt sich raus es ist genau andersrum. ;D
Inhalt abgleichen