Zitat:
Ein internationales Forschungsteam unter Leitung der UCLA Samueli School of Engineering hat ein metallisches Material mit der bislang höchsten gemessenen Wärmeleitfähigkeit unter Metallen entdeckt. Die Ergebnisse wurden in der Fachzeitschrift Science veröffentlicht.
Demnach erreicht metallisches Tantalnitrid in der sogenannten Theta-Phase eine Wärmeleitfähigkeit von rund 1.100 W/mK. Damit leitet das Material Wärme nahezu dreimal effizienter als Kupfer oder Silber die bislang leistungsfähigsten konventionellen Metalle in diesem Bereich. Kupfer, das derzeit etwa 30 % des globalen Kühlkörpermarkts ausmacht, kommt auf rund 400 W/mK.
Preis wahrscheinlich 20 mal so hoch wie bei Kupfer aber es gibt durchaus viele Anwendungsmöglichkeiten.
Die Kühlplatte eines Wasserkühlers oder Heatspreader fallen mir da beispielsweise ein.
Ja, nur das die Karten extrem alt sind, und wenn man pech hat, vlt. für 250€ nächste Woche kaputt gehen. Gerade so ne RTX 3080 lief seit 2020 immer mit über 320W im Gaming.
Ich hatte ne RTX 3080 Ti. Die hat 350W wie nichts zu 99% in Games gefressen. War dadurch mit der Zeit schön laut und auch heiß. War froh, als ich die 2025 abgebebenen habe.
Deutlich besser als mit den 500Hz OLED Monitoren. Sehe kaum bis kein VRR Flickern, selbst in Spielen wie Spider-Man 2, wo das Framepacing absoluter Schrott ist.
Kombiniert nun mit 6x MFG macht das ein top Spieleerlebnis in dem Rahmen, den ein IPS Monitor ermöglicht.
Ich habe heute mal Hogwards Legacy gespielt und nach ca. 3 Stunden ist mir der Rechner abgestürzt. Soweit, so nicht schlimm. Der Rechner ist danach normal gebootet, aber auf einmal muss ich alle Spiele, welche ich über Epic bezogen habe neu installieren. Dies sind in etwa 2TB Die Tricks, welche ich die Spiele wieder herstellen kann, sind mir bekannt. Ist für mich allerdings keine Lösung. Daher meine Frage: Welchen Registry-Wert hat es mir zerschossen? BTW. AI und Suchmaschinen wussten bis dato leider keine Lösung. Bin für jede konstruktive Antwort dankbar!
Das sieht verdammt schlecht aus für die Gaming Division von AMD...könnte auch erklären warum kein FSR4 für ältere GPUs kommt.
Der Autor "Hassan Mujtaba" ist derjenige, der auch den Mist mit "Spiele haben mehr FSR als DLSS integriert und (AMD) FSR blockiert DLSS" verzapft hatte, indem er damals einen sehr spezifischen Zeitausschnitt gewählt hatte. Ich hatte da mit Daten gezeigt, dass dies nicht so ist sondern umgekehrt.
Das gleiche jetzt hier, er schreibt zu dem Thema was ja im Netz immer wieder gepushed wird, INT8 für alle AMD GPUs. Und seine neue These warum dies nicht kommt, ist jetzt weil Angestellte die Firma verlassen haben. Das eine muss mit den anderen gar nichts zu tun haben, noch wird betrachtet (da er eh keine Quellen hat) wie viele von NV oder Intel zu anderen Firmen wechseln.
Aber immerhin schreibt er 'May Be Due' also 'könnte sein durch', dein Post macht daraus dann ein 'verdammt schlecht aus für die Gaming Division'.
ich suche einen Mini-Server für einen Bekannten, der möchte darauf sein Buchhaltungsprogramm, seine Milchsteuerung und ein paar Daten für seinen Milchbetrieb laufen lassen. Vorher war alles auf einem alten PC, war aber ultra langsam alles und hängte immer.
Schnelle 8-Kern CPU (BH Software mit SQL Express)
32GB RAM (derzet, evtl Später auf 64GB)
dazu 2x m.2 im Raid 1 (1TB reichen)
1Gbit reichen (Switch und die Anlage kann eh nicht mehr)
Das Teil soll kein Tower sondern eher klein sein und eigenständig im Netzwerk laufen ohne Monitor (RDP)
Habe am anfang an einen HPE ProLiant MicroServer gedacht aber die Teile kosten 2500 und können quasi nichts (kein nvme, nur 4 Kerne)
Dort wird berichtet, dass das Unternehmen Bolt Graphics den Tape-Out eines Testchips (Zeus GPU) erreicht hat.
Das bedeutet nach meinem Verständnis lediglich, dass ein erster Chip produziert wurde und sich die Entwicklung noch in einem frühen Stadium befindet.
Hinweis:
Die folgenden Punkte basieren teilweise auf den verlinkten Berichten und teilweise auf meiner persönlichen Einschätzung. Technische Details und Leistungsangaben sind zum aktuellen Zeitpunkt nicht unabhängig verifiziert.
Kurzfassung (laut Berichten):
Startup mit eigener GPU-Architektur (u. a. RISC-V-basierte Ansätze)
Fokus auf Path Tracing und HPC-Anwendungen
Herstellerangaben zu möglicher Mehrleistung gegenüber aktuellen GPUs (z. B. RTX 5090) bei spezifischen Workloads
Zeitliche Einordnung: möglicher Produktzeitraum ca. 2027 (laut Berichten, unverbindlich)
Was technisch interessant wirkt (Interpretation der Berichte):
abweichender Architekturansatz im Vergleich zu Nvidia/AMD
teilweise Integration zusätzlicher Recheneinheiten (z. B. CPU-nahe Funktionen auf der Karte)
Unterstützung mehrerer Rendering-Ansätze:
Path Tracing
Ray Tracing
Rasterization (laut Berichten vorhanden)
unkonventionelle Speicheransätze (z. B. Kombination verschiedener Speichertechnologien)
-> daraus ergibt sich möglicherweise ein Fokus auf Path Tracing als primäre Renderstrategie
Einordnung / Realitätscheck (meine Einschätzung):
Leistungsangaben stammen aktuell ausschließlich vom Hersteller
keine unabhängigen Benchmarks oder Tests verfügbar
keine belastbaren öffentlich verifizierten Daten zur klassischen FP32-Leistung verfügbar
unklar, wie sich die Architektur in klassischen Gaming-Szenarien verhält
Software-Ökosystem (Treiber, APIs, Toolchains) derzeit nicht etabliert
Gaming-Relevanz:
Theoretisch (laut Berichten):
Unterstützung moderner APIs (z. B. Vulkan / DX12)
Rasterization vorhanden
Praktisch (unsicher / meine Einschätzung):
Performance in klassischen Raster-Games derzeit nicht abschätzbar
mögliche Nachteile gegenüber etablierten GPUs nicht auszuschließen
Abhängigkeit von Software-Optimierung und Treiberqualität
Mein persönlicher Eindruck:
technisch interessanter Ansatz, insbesondere für Rendering/HPC
potenziell relevant für spezialisierte Workloads (z. B. Path Tracing)
aber:
keine belastbaren Aussagen zur realen Performance möglich
hohes Risiko, da frühe Entwicklungsphase
Gaming-Tauglichkeit derzeit offen
typische Einordnung, wie sie bei neuen GPU-Ankündigungen häufig diskutiert wird
Diskussion:
Ist ein Path Tracing first-Ansatz langfristig sinnvoll?
Welche Rolle wird Rasterization künftig noch spielen?
Wie wichtig ist das Software-Ökosystem im Vergleich zur Hardware?
Kann ein neuer Anbieter hier realistisch gegen Nvidia/AMD bestehen?
Fazit (persönlich):
Spannendes Konzept, aber aktuell schwer bewertbar.
Für mich derzeit eher ein experimenteller Ansatz im HPC-/Rendering-Bereich als eine kurzfristige Alternative im Gaming-Segment.
Alles probiert was an Empfehlungen so kommt (TV Einstellungen: PC Modus, HDMI Ultra HD Color, etc.; nvidia: 8 bit farbtiefe, geringe Auflösung, wenig Hz, GSync deaktivieren), TV auf Werkseinstellungen nochmal, Handshake provoziert.
Ergebnis:
Mit altem hdmi 2.0 Kabel gehen nur hdmi 2.0 ports und nicht wie früher 2.1, daher nur noch 60 Hz möglich. Ätzend.
An den 2.1 Eingängen kommt kein Signal an, was ich auch tue.
Neues 2.1 Kabel funktioniert an keinem der Eingänge. Es ist - zugegeben - auch sehr lang :redface:, aber das alte 2.0er ist genauso lang.
Werde noch einen Anlauf mit einem qualitäts 2m-HDMI 2.1 Kabel unternehmen. Dann gibts das letzte Update...
Grüße
Der Fehler saß (und sitzt) vorm Bildschirm.
Fazit:
Mit der neue Graka kam über das alte 2.0 15m Kabel kein Signal mehr an.
Mit nem 2.1 15m Kabel kommt nun ein Signal an, genau wie gewünscht. 4k@120.
Man musste das Kabel nur "richtig herum" anschließen. Verpeilt, dass ein Ende zwingend in die Quelle muss..
Und ich hab wirklich viel Aufwand getrieben und getestet.. ^^
also zuerst bin ich kein fan von gdm, wenn man seine timings tweakt. das versteckt nämlich instabilitäten, die sich dann doch nach ein paar wochen wieder bemerkbar machen und fehlersuche schwierig gestalten. damit wirst du dann wahrscheinlich keine 3600mhz mehr schaffen, aber dafür hast du wenigstens ne klare vorstellung was geht und was nicht.
ansonsten ist ein großer faktor noch das refreshintervall (trefi), kann aber sein dass du das nicht einstellen kannst, bei meinem am4 board gehts auch nicht.
kleinere sachen die ich noch sehe:
rrdl könnte er auch 4 schaffen
die write latencies (rcdwr und cwl) können durchaus deutlich unter ihre lese-counterparts (hatte rcdrd 17 und rcdwr 9 laufen).
habe seit Kurzem eine RTX5070. Monitore (1x per DP und 1x per HDMI) laufen wie gewünscht. Der TV, ein LG 55NANO867NA, hingegen spuckt kein Bild aus. Mit der alten GTX1070ti lief es problemlos.
Der LG 55NANO867NA verfügt über 2 HDMI 2.1 kompatible HDMI Eingänge, die ich bislang auch genutzt habe, um 120 Hz zu ermöglichen. Angeschlossen war er mittels 2.0 HDMI Kabel. Außerdem hat der TV 2 HDMI 2.0 Eingänge.
Nutze ich einen der 2.0 Eingänge, habe ich Signal und Bild, erreiche aber nicht die gewünschten 4k@120.
Habe heute ein "8k HDMI 2.1" Kabel an die HDMI 2.1 Eingänge des TVs angeschlossen. Ergebnis: Kein Signal.
NVCP entfernt den Haken beim TV nach Klick auf "Neue Einstellungen übernehmen" auch direkt wieder.;(
Manno!
Bin beim Recherchieren auf Tipps wie "Bildformat" anpassen etc. gestoßen. Weiß hier einer mehr und kann mich zur Lösung treiben?
Eigentlich sollte es umgekehrt sein. Das BIOS gibt mehr Spannung damit wegen der Resistenz der Platine am Ende grob das ankommt was du angibst. Bei RAMs kann es deutlich ungenauer als bei CPU Spannungen sein.
Zitat:
Zitat von Exxtreme
(Beitrag 13894156)
Du kannst den Schnellstart auch per CMD deaktiveren. CMD mit Administrator-Rechten starten und dann "powercfg /h off" eingeben und Enter drücken.
Dann ist aber auch der Ruhezustand von Windows weg.
Hmm bei einer Neuauflage des 5800X3D würde ich bis 300€ auch nochmal zuschlagen und meinem altgedienten B450 Board aus 2018 im Zweitrechner eine letzte Aufrüstung auf den Maximalausbau gönnen. Das System hat im Laufe der Jahre schon einen Ryzen 2700X gesehen und zuletzt einen 5700X.