3DCenter Diskussionsforen

Sind Quantencomputer in 3 Jahren das Maß aller Dinge?

Zitat: es gibt so viele Ansätze und niemand weiß genau wo das hinführen kann/wird Wie auch? Hat bereits Schrödinger nicht gewusst. :redface:

Arroganz oder Berechnung?

Grafikchips - Sa, 09.08.2025 01:49
Zitat: Zitat von Disconnected (Beitrag 13790725) https://youtu.be/yq1MaRWmqhc es ist lustig ... weil es wahr ist :D

Frame Generation für jede GPU (Lossless Scaling)

Zitat: Zitat von robbitop (Beitrag 13794457) Also was ich mir vorstellen könnte, ist dass AMD/Nvidia/Intel den compute Teil von Frame Generation (aber ggf auch von Super Resolution oder Ray Reconstruction) auslagerbar machen können. Zumindest bei Frame Generation hat man eigentlich genug Zeit den Frame auf die zweite GPU zu schieben und ein (oder mehrere) weitere generieren zu lassen. Das demonstrieren ja bereits AFMF2.x und LSFG 3.x. Warum soll das nicht auch mit DLSS FG/FSR FG/XeSS FG gehen?
Bei den super resolution Teilen bin ich mir nicht sicher. Ggf. nur in Verbindung mit FG (da ja ohnehin um 1 Frame verzögert wird). Aber an sich ist das Upsampling in der Frametime ja wunderbar abgetrennt vom eigentlichen Rendering und vom PostFX und HUD. Die 2. GPU könnte auch potenziell PostFX und HUD übernehmen (wobei das dann explizit auch vom Spiel zB mittels entsprechend erneuertem SDK von AMD/NV/Intel unterstützt werden müsste).

Was problematisch daran ist: Ausgabemonitor müsste auf die 2. GPU (Bandbreite und Latenz), man muss sicherstellen, dass genug PCIe Bandbreite auch für die 2. GPU vorhanden ist usw. Eine Menge potenzieller Fallstricke für den User, da könnte die User Experience schlecht werden.
Ggf. könnte man das durch eine erneute Einführung eines separaten Interfaces (wie NVLink oder Äquivaltente) auch umschiffen. Da gibt es ja heutzutage sehr potente Interfaces, die das leisten könnten.

Ich bin mir aber nicht sicher ob das nicht zu nieschig wäre. Aber vorstellbar wäre es IMO. Und man könnte dadurch ggf. GPU Verkäufe (bei den Enthusiasten) ankurbeln und wieder mehr Buzz/Hype verbreiten.

Aber verwetten würde ich darauf nichts ^^ Mir geht schon seit Jahren nicht in den Kopf, warum man die in praktisch jeder CPU vorhandene iGPU nicht gezielt für Post-Processing nutzt – sprich fürs „Bild-Aufhübschen“ nach dem Rendering.
Gerade für Dinge wie Upscaling, PostFX oder HUD-Rendering müsste das theoretisch perfekt passen.

Die Lage bei GPUs erinnert mich stark an die CPU-Situation vor 10–15 Jahren: ein dominanter Hersteller, kleine Generationensprünge, und am Ende setzen Konsolen-SoCs die Leistungsgrenze. Der PC bekommt vor allem visuelle Extras.

Genau hier könnte ein echtes Halo-Produkt ansetzen:
Ein Board mit mehreren Chips – z. B. ein Top-Chip aus der aktuellen Generation plus ein Mittelklasse-Chip der letzten Gen – auf einer Platine.
So umgeht man viele der Bandbreiten-/Latenzprobleme von Multi-GPU-Setups und hätte genug Rechenleistung für Frame Generation, Super Resolution und PostFX aus einer Hand.

Ja, das wäre in der ersten Generation teuer. Aber es würde frischen Wettbewerb anstoßen – und ich bin sicher, dass sich AMD, Nvidia und Intel in so einem Prestigeprojekt gegenseitig hochschaukeln würden.
Das Ergebnis: mehr Innovation, mehr Buzz, und für die Enthusiasten endlich wieder ein echtes Kaufargument.

Gaming auf 8k

Die 5090 ist für 8K eine Offenbarung. Alle Games noch vor "DLSS" laufen nativ mit 60+ FPS. VRAM und Leistung geben meist noch 11k@30FPS her - vorausgesetzt spielinternes Rendertarget. Alle Games ab DLSS laufen per se auch 8K60, wo man sich einfach nur entscheiden muss ob DLAA, Quality, Balanced mit oder ohne RT. 8K60 läuft immer. Ich komme gar nicht mehr auf die Idee 4K in irgendeinerweise zu aktivieren. Von der Bildqualität und durchgehenden Nutzung kann man sowas historisch vielleicht mit dem sofortigen Übergang von PS1 zu Xbox360 vegleichen. Wer in einer 5090 noch keinen großen Wert bis jetzt gesehen hat, der muss ein 8K TV dran anschließen = Fotorealismus.

Eure CPU-Historie

Prozessoren und Chipsätze - Fr, 01.08.2025 19:55
Zitat: Zitat von tEd (Beitrag 5714141) Intel 486 dx2 66MHZ
Intel Pentium 90MHZ
Intel Pentium 133MHZ
Intel Pentium 200MHZ
Intel Pentium II 233MHZ
Intel Pentium II 266MHZ
Intel Celeron 300@450MHZ
Intel Pentium III 450MHZ
Intel Pentium III 550MHZ
AMD Athlon Slot A 750MHZ
AMD Athlon Sockel A 1GHZ
AMD Athlon Sockel A 1.2GHZ
AMD AthlonXP 1900+
AMD Athlon 64 3000+
AMD Athlon 64 3800+
AMD Athlon 64 X2 4400+ DualCore
Intel Core2Quad 6600 QuadCore

ohne Gewähr vorallem die älteren Modelle Intel I7 2600K
Intel I7 3770K
Intel I7 6600K
Intel I7 8700K
Intel I9 9900K
AMD Ryzen 79503D
AMD Ryzen 98003D

Leute, wie könnt Ihr so zocken?

RIDE 4 kann man 16K@20FPS fahren. Mit BFI verlagert sich die Bildqualität ganz wo anders hin. Ohne BFI ist 8K@16K Downsampling halt bisschen schärfere Kanten, mehr auch nicht. Mit BFI man fühlt sich wie auf einer echten Straße, sprich die Augen können sich komplett auf die Landschaft 400 Meter weiter und an der Seite entlang konzentrieren, während man mit peripheral vision sein Bike lenkt. Alles was entlang der Strecke steht, Bäume, Häuser... sind plötzlich interessante Objekte wie wenn man an der Autobahn fährt und sich nicht wirklich auf Fahren konzentriert. So fotorealistisch sieht das ganze aus.

Intel Xe Super Sampling (XeSS)

Das FG scheint ziemlich gut auszusehen und skaliert auf der 5070 in 4k mit 55% bei 55fps Basis.
Leider inkompatibel mit dem Treiber-Vsync von Nvidia, macht Frame Times kaputt. Könnte als Backend in OptiScaler aber sehr spannend sein, womit denn Vsync und Reflex wieder gehen sollten. Es scheint viel weniger zum Garbling zu neigen als DLSS FG, aber dafür wohl zu etwas mehr Unschärfe. Wesentlich überzeugender als das XeSS-Upsampling.

VIA - Zhaoxin x86-Prozessoren

Prozessoren und Chipsätze - Mo, 28.07.2025 17:18
Zhaoxin, the leader in building AI computing power, presents its latest processors and solutions at the World Artificial Intelligence Conference

New generation Kaisheng KH-50000 server processor



source: https://www.zhaoxin.com/news_view.as...id=283&id=1844

Intel - Stabilitätsprobleme bei Raptor Lake

Prozessoren und Chipsätze - So, 27.07.2025 16:43
Zitat: Zitat von Exxtreme (Beitrag 13789746) Lad dir mal eine Demo eines UE5-Spiels herunter und lass die mal Shader kompilieren. Wenn es hier eine Fehlermeldung gibt dann bereite dich schonmal drauf vor die CPU zurückzuschicken. :D ja hab schon danach Tests gemacht, läuft wie bisher, da hatte mal echt Mobo seinen Tag. Nächstes Mobo wird auch wieder was anderes denke ich, nach jetzt MSI, Asrock und Gigabyte ist jetzt wieder Asus an der Reihe.

OLED macht Fortschritte

Zitat: Zitat von Gast (Beitrag 13788010) Genau das würde ich jetzt nicht als Nachteil sehen, alleine wegen der Reparaturmöglichkeiten, bzw. potentiell sogar als Aufrüstpfad.



Würde das einfach und nahtlos funktionieren, wäre das sicher eine interessante Option. Ist aber momentan (noch?) sau-kompliziert und man sieht es deutlich.

12VHPWR-Stecker: Das Problem und mögliche Lösungen

Grafikchips - Do, 24.07.2025 18:06
Zitat: Zitat von Exxtreme (Beitrag 13788588) Durchgeschmorrt trotz Wireview: Ja und? Das war das alte Wireview.

Das Pro 2 macht pro Pin Messungen + Logging + Warnton wenn spezifizierte Werte überschritten werden. Dazu Spannung/Temperaturmessung + Möglichkeit zum automatischen Herunterfahren. Besser wird es nicht als Nachrüstung.

x86 Advisory Group

"Stolz stehen wir an der Seite von AMD" :usweet:
Da Propan das noch nicht gekündigt hat und es sich in so einer Runde/Gesellschaft wohl auch nicht trauen wird:

Ist AMD bei APX mit dabei? Oder geht das dann wieder los?

Post-K-Prototyp auf der International Supercomputing Conference

Um das Abenteuer hier abzuschließen :freak:

Schlug sich (SPEChpc 21) 3 Jahre nach A100 recht gut muss man auch sagen. Mit 50W weniger. Grad in dem 128x Aufbau
Wobei er da (Link) den SPA-EXA lieber gleich ganz weggelassen hat :tongue:

Hier auf Seite 4 die Auflistung was der jeweilige Test zu adressieren versucht
https://par.nsf.gov/servlets/purl/10366117

Hier die Benches und Vergleiche auf Seite 25
https://nug-society.com/wp-8ca96-con...g-Takizawa.pdf

Auch A64FX gegen IceLake-SP :rolleyes:

nVidia - RTX 5050 Review-Thread

Grafikchips - Di, 08.07.2025 12:07
Zitat: Zitat von E39Driver (Beitrag 13781703) Nee da täuscht dich deine Erinnerung. Was du meinst war GP108 in der GTX 1030. Dies war die letzte 30-Watt Grafikkarte gewesen und ist in der Tat durch APUs obsolet geworden. danke, das waren ja nur 30-watt!
nv hat laut wiki übrigens noch eine 1010 nachgelegt ;D

AMD - Ryzen 9000 X3D Verfügbarkeitsthread

Prozessoren und Chipsätze - Mo, 07.07.2025 12:02
Da kommen wir nicht ganz dran, aber fast. 440,47€ mit Shoop.
https://www.galaxus.de/de/s1/product...pplier=2705624

Edit:
Jetzt aber... 432,68€ mit TopCashback. :wink:

8 GB VRAM – Problem der Hersteller oder der Käufer?

Grafikchips - Mi, 25.06.2025 14:43
Zitat: Zitat von PHuV (Beitrag 13773050) Da es doch mittlerweile genug Alternativen auf dem Markt gibt, ist das für mich nur eine Scheindiskussion und Empörung. Einfach nicht kaufen, oder nur ab 12-16 GB kaufen, fertig. Und sorry, wer sich nicht vorher in den entsprechenden zahlreichen PC Technik-Foren informiert und keine entsprechenden Tests liest, selbst schuld. So ist es, neutrale sachliche Tests lesen und dann für sich selbst entscheiden.

Dieses ständige Gejammer der Medien kann man sich mMm. wirklich sparen – das sind am Ende vor allem Infos für Enthusiasten, nicht für Durchschnittskäufer.

Ich meide diese Formate/Publikationen mittlerweile konsequent.

IPC-Vergleich: Blackwell, Lovelace, RDNA4 & RDNA3

Grafikchips - Di, 24.06.2025 12:51
Zitat: Zitat von VooDoo7mx (Beitrag 13775756) Und was beim Vergliech zwischen Ada und Blackwell oft nicht beachtet wird, ist dass Blackwell viel emhr Takt je Spannungspunkt schafft.
Das heißt, wenn man die Karten (Ada und Blackwell) manuell einstellt, egal ob man Undervolting oder Overclocking betreibt, wird der Abtsand zu Gunsten Blackwell nochmal deutlich größer. Ist solange man nicht der Verbrauch vergleicht oder Power limitiert ist, ist das völlig Wurst. Ob die Karte für z.b. 2.5 GHz nun 900mV oder 1000mV braucht macht für die Performance keinen Unterschied.

Native Auflösung, DLSS oder DLAA: Wenn die FPS gleich bleiben, was bevorzugt Ihr?

Grafikchips - Mo, 23.06.2025 12:04
Bei der Frage kommt es beim PC Monitor immer auf die Zielauflösung. Hier gibt es eben Leute, die die noch mit 2560x1440 oder 3440x1400 auf 45" (würg) rumkrebsen.

Ich nutze ein 27" UHD Monitor (163ppi) und den 16" 2560x1600 Laptop Screen. (189 ppi)
Bei beiden Bilschirmen kann ich bei DLSS Q kaum oder eigentlich keinen Unterschied zu nativer Auflösung feststellen.
Wenn man dann noch das neu Transformermodell nutzen kann, ist es sogar möglich niedrigere DLSS Stufen zu nutzen.

Am 55" UHD OLED TV bei einen Sitzabstand von 3-4m kann ich auch keinen Unterschied feststellen.

Also nutzte ich eigentlich immer DLSS wenn möglich.

Da ich mittlerweile komplett auf Laptop umgestiegen bin, ist es gerade auch beim Laptop wichtig so wenig W wie möglich durch die GPU zu jagen damit das Gerät immer noch leise bleibt. Also ist auch da DLSS sehr wichtig. Bei 240Hz nimmt man natürlich auch gerne die zusätzlichen fps mit.
Aber selbst auf meinen 4090 Desktop habe ich immer DLSS genutzt auch wenn mehr als genug Leistung übrig war.
Die Stromrechung dankt und gerade auch zur warmen Jahreszeit sind mal 150W weniger Wärme die im Raum verteilt werden auch sehr entspannend.

Board wechseln für XFX Radeon RX 6750 XT oder nicht, oder überhaupt diese Karte?

Grafikchips - Sa, 14.06.2025 18:39
Zitat: Zitat von GrimReaper85 (Beitrag 13730206) I was looking for a backup card, but I wouldn't be buying a 3070 even for a backup. I already bought Gigabyte Gaming OC 6700 XT with bad paste (2200 rpm at 180W) and bad fan bearings, one ASUS Strix 2080 with VRAM artifacts, one ASUS Strix 2080 Ti with VRAM artifacts and flickering black screen (all three certainly mined) and one EVGA 2080 Ti with bad paste (80°C+ and 2500 rpm+ at 260W and 73°C and 2000 rpm at 180W) and bad fan bearings, sold each one.
I will simply not ever sell 5070 Ti and it will be a backup card sometime.
You simply cannot get a very good card under €800 anymore. Maybe 7800 XT, but above €500 it is also too much. The risks of buying a used card - Das Risiko beim Kauf einer Gebrauchtkarte.
Ich denke ich würde Kühler und Paste erneuern (und natürlich auch die Pads auf den Speichermodulen) wenn möglich. Ansonsten hoffe ich, Du hast den Käufer nach Dir über die Probleme informiert.
Als Neuware würde ich wohl eher die 9070 oder 9070 XT nehmen, weil preiswerter. Aber wenn ich die 5070 Ti schon gekauft hätte, würde ich sie auch behalten. Technisch ist die gut.
Zitat: Zitat von GrimReaper85 (Beitrag 13730206) 9060 XT 128-bit 16GB as fast as 7700 XT seems OK at your expected €350-400.
But price just can't and won't be this low. MLID says $399, maybe $349. That is in Euro €450-500 which is yet again terrible value, you can already get a 20% faster 7800 XT for €500. And I agree with MLID even if I compare to what 9070 costs - $550 or €700. There just can't be such a huge gap between €400 and €700. Look at Geizhals, several offers for the 9060XT 16 GB below €400. That is with German VAT. - Unter €400 mit deutscher Mehrwertsteuer.

Edit: Oops, accidential necromancy
Inhalt abgleichen