Zitat:
Zitat von Platos
(Beitrag 13839296)
Klar, aber es ist eben Brute-Force. Also weit weg von Effizient. Und schon benötgit man eine Auflösungsklasse höher. Nicht gerade Geil hinsichtlich Perfomance und Energieverbrauch.
Naja... beim Thema Performance gibt es schon gute Upscaler bei allen drei IHVs. Mit 1080p Input wird das Bild immer noch fantastisch @5k Output bei 27" aussehen. Aber stimmt schon... hätte ich die Wahl beim OLED zwischen 27" 4k mit RGB-Subpixellayout und 27" 5k ohne würde ich wahrscheinlich zum ersteren greifen. Nur leider sind die OLEDs noch nicht so weit, dass man diese Wahl hat. Und ich fürchte der 5k non RGB-Subpixellayout QD-OLED kommt zuerst. :tongue: Irgendwie liest man auch wenig über LGs WOLEDs mit RGB-Subpixellayout, hoffentlich haben die da keine Fertigungsschwierigkeiten mit diesem Layout.
Zitat:
Zitat von Platos
(Beitrag 13839296)
Und natürlich schränkt man die Auswahl ein mit (extrem) hoher PPI.
Die Wahl kommt automatisch, einer muss halt mit dem entsprechenden Display erst anfangen. :wink:
Habe das Quite Bios geladen und ist fast der selbe Takt.Das Problem scheint mein Windows zu sein,nach mehreren Freezes hats ne Reparatur gemacht,wurde dann auch ein "neues" Windows installiert und CPU kommt immer noch inGame bei CoD und Ark Raiders meist auf 100% und freezed dann im Menü.Hab dann ein altes UV Bios (CPU Takt 4,5GHz statt 4,9 und Vcore ca 0,2V weniger)genommen,aber freezed immer noch.Nu probiere ich ein neues Windows vom Insider Programm,mal sehen obs damit was wird.Es wundert mich nur das ich so ins CPU Limit komme was vor der 5070 nicht so schlimm war ausser bei CoD .Die Nv App hat da tatsächlich die Einstellungen"übernommen".DDU klang bei meinen Englisch Kenntnissen nicht so doll,wenn ich garnicht weiter komme werd ich es probieren müssen.
Edit:Hab die Nv App deinstalliert und konnte ne Runde CoD ohne freeze zocken.Für heute mach ich erstmal Schluss und schaue morgen mal weiter...
Das ist halt ein generelles Problem wenn man extrem viele Shader im Spiel hat. Aber das haben die Spieleentwickler selbst in der Hand ob sie Shader spammen oder nicht. Und offenbar finden sie das Ruckeln nicht allzu kritisch.
Zitat:
Zitat von Denniss
(Beitrag 13839236)
Kann ja sein das die Pumpe auf OPT angeschlossen ist und nicht auf Pump.
Die Pumpe ist Richtig angeschlossen auf dem Fan4 Pump ganz unten
Temperatur und Drehzahl wird auch angezeigt ist aber eine andere als bei CPU.
So viel will ich im moment nicht rum experimentieren funktioniert ja Alles,
nur wenn ich mal was ändern will, will ich halt wissen wo für das ist ?
Laut dem Video lädt das System immer XMP auch wenn man versucht es abzuschalten Intel gibt dir dafür keine Stabilitäts Garantie.
Laut Intel Webstite endet der Ram Support bei DDR5 5600 nicht 6600 wie im Video.
Zitat:
Zitat von Hochzeit2
(Beitrag 13838790)
Nvidia bietet für den Privatuser keinerlei SLI / Multi- (KI)Möglichkeit an.
Als jemand, der mittlerweile in das Konzernthema IT-Securitiy abgerutscht ist, würde ich folgende generelle Aussage treffen:
JEDE APP die dir das verspricht ist Verarschung.
Und jeder der etwaige Apps nutzt ist selber Schuld. Zu 100%!
Das hat mit Nvidia nichts mehr zu tun. Die genutzte App kann dir einfach die Auswahl anbieten was du auf welcher CUDA GPU ausführen willst. Ich muss gerade wie ein Clown mit den verfügbaren 72Gb Vram jonglieren.
Um z.b. gpt-oss 120b mit TTS gleichzeitig zu nutzen oder SDXL, muss man diese kleinen Modelle zuerst starten. Damit später das große LLM gleichmäßig über alle GPUs verteilt wird. Macht man das nicht, dann bleiben bei jeder GPU vielleicht 2Gb frei insgesamt also 6Gb - aber das nützt einem nichts mehr, weil ein einizes 6Gb Checkpoint als Ganzes rein muss.
Und noch was zum Compute vs VRAM. Meine Tokenrate bricht um die Hälfte ein wenn ich gpt-oss 120b gemeinsam mit TTS nutze. Das ist bei 80t/s -->40t/s noch verkraftbar. Aber so ein APU wäre dann unbenutzbar. Es sei denn man steckt sich noch eine eGPU extra dafür.
Zitat:
Zitat von Eadzon64
(Beitrag 13838388)
@dargo
fünf neue commits, vielleicht ist ja diesmal was dabei...
https://drive.google.com/file/d/18Q0...ew?usp=sharing
Schmiert leider auch. Mit dieser Version habe ich sogar paar Grafikfehler für wenige Sekunden wenn ich das Menü von AC: Shadows aufrufe. Alles neuer 03.11 taugt bisher nix. :)
Zitat:
Zitat von Fusion_Power
(Beitrag 13836821)
Nach dem was ich bisher so gesehen habe, läuft Arc Raiders ja erstaunlich gut, trotz Unreal Engine.
Sieht halt auch ziemlich Last-Gen aus. You get what you pay for.
ist das bei den Karten "normal" das die in 2D nicht mehr komplett runter takten (180MHz) wenn man die übertaktet hat bzw den Curve Editor vom MSI AB benutzt?
Wenn ich AB benutze wird mir 592MHz als Minimum angezeigt.
Zitat:
Zitat von mironicus
(Beitrag 13836817)
Gibt es eigentlich Berichte, wie gut sich die AMD-Karten für KI eignen? Also LLM, generative KI und Videos? Benchmark mit Comfy-UI etc.
Ach, das K hat auch noch genug Macken.
Außerdem soll J eher (minimal) weniger Ghosting haben als K, es hat dafür aber wesentlich schlechtere temporale Stabilität.
K funktioniert ganz toll mit der Fortnite Simpsons-Season. Dafür wirkt es wie gemacht. :ulol:
Ich habe heute ein Szenario erlebt wo die NPU in meinem HX370-Laptop endlich mal stark genutzt wurde in Windows 11. Beim Indizieren von Dateien (40-100% Auslastung, über 60.000 Dateien). Auch Bilder werden gescannt. Gebe ich also z.B. in der Windowsfotoanzeige "Messer" ein als Suchbegriff, listet er mir alle Bildern mit Messern auf ohne größere Wartezeit, oder bei Begriffen wie "Rechnung" entsprechend Scans von Dokumenten. Bei Systemen ohne NPU gibt es diese erweiterten Funktionen nicht, so eine Funktion kenne ich bisher nur bei der Google Fotosuche, doch hier ist es ja offline. Nicht schlecht.
Ja... Das war mir schon beim Schreiben klar :upara: Ich frag mich nur immer wie das passieren kann, daß ich so oft der erste bin der über ähnliches oder auch altes berichtet. Auch wenn es mir persönlich egal ist, daß es eine undankbare lorbeerfreie Aufgabe ist :wink:
Die kommerzielle Umsetzungen kommt jetzt. Mit der Kohle des KI-Booms und der Retimer-Technik. U.a. eben von Astera Labs.