Parhelia war damals mein Traum aber die Kohle dafür saß nicht locker.
Ich hatte seinerzeit ne Matrox m3D mit Power VR Chip. Das Ding konnte nur ne Hand voll Games beschleunigen aber wo es lief war es beeindruckend, wenn man sonst nur Software-Renderer auf P133 kannte :)
Kann aber muss nicht. Aber AMDs Reaktion auf der CES war allerdings sehr vielsagend was bisherigen Tätigkeit (oder das Fehlen dieser) angeht und inspiriert nicht gerade zu Optimismus was die nahe Zukunft angeht.
Meine 9070 Nitro+ ist nach wie vor unauffällig, vor einigen Wochen gab es auf Reddit jedoch eine weitere, ich glaube damit die fünfte Verlustmeldung für eine solche Karte. Bislang habe ich auch nicht vor, mir eine weitere Überwachungslösung zu kaufen.
Wir haben am WE noch eine RTX 5070 für meinen Sohn gekauft, 569€ für die Asus Prime. Klar, wenn wir vor vier Wochen zugeschlagen hätten, wären es noch 40€ günstiger gewesen. Tja, wenn und hätte. Finde es trotzdem gerade noch akzeptabel, und besser wird es nicht und deswegen haben wir uns gestern dazu entschlossen. Er rüstet von einer 2070 Super auf, wird ein schöner Schritt sein.
also ich bin recht froh und glücklich über die schnellere Shader Kompilierung in Games bei AMD.
Auch bin ich froh wenn die Games selber ihre Handbremsen lösen.
Als Dune Awakening Spieler und Hogwarts Legacy Spieler hatte ich da immer richtig Spaß.
Treiberupdate AMD? Dune Awakening ist erstmal 2 Minuten mit Shadern bei Start beschäftigt, anfangs fast 5.
Dune Awakening hat sein wöchentliches Update? Erstmal 2 Minuten Shader rechnen.
Hotfix? Erstmal Shader...
Grafikkartentreiber ist abgestürzt? Erstmal Shader...
Mittlerweile ist das auf 20-30 Sekunden abgefallen. Aber das war furchtbar.
Aus irgendeinem Grund ist Hogarts Legacy bei jedem Spielstart mit Shadern beschäftigt und es frustet meine Kinder total. Bin echt am überlegen es für die Konsole extra zu holen.
Hier als Beispiel Arc Raiders @ 4K, alles auf episch (Texturen auf cineastisch)
mit FSR 4: Balanced und AFMF aktiv (angezeigte fps werden verdoppelt)
Sieht gut aus (trotz "nur" Balanced), aber wenn man gräbt sieht man links vom Rucksack ein sehr schnell fliegendes Projektil (oder Arc) am ghosten. Kann auch wg AFMF sein.
Real fällt das nicht auf, ist auch wirklich worst case (daher der Screen).
ich finde meinen 45" schon grenzwertig zu groß und der hier wäre ~16cm breiter und ~7 höher :D
Aber nettes Gerät auch wenn es IPS Black hätte haben können.
Zitat:
Zitat von GerryB
(Beitrag 13870333)
Ich hab beim rumprobieren mit nem anderen alten Game das selbe Verhalten beobachtet.
Da lag die Ursache am inGame AA - Setting!
inGame AA musste da auf EPIC stehen, ... mit high wars wohl nur smaa und dadurch ging der Lumatweak auf dlss nicht, sprich
=Deine Fehlermeldung zum Hook in Oscaler, ... FSR-hook nicht verfügbar
also, wenn möglich ingame TAA anwählen bzw. EPIC
Hab heute Abend wieder Zugriff auf den Rechner.
Schaue mir dann auch Minecraft Dungeons an, auch wenn der Content kein Upscaling benötigt
Zitat:
Zitat von robbitop
(Beitrag 13869994)
Man darf nicht außer acht lassen, dass die Kosten für DLSS mit der Outputlösung steigen. Bis zu einem Punkt wo das eigentliche Rendering dann relativ zu den Kosten nur noch ein Bruchteil kostet (und eine Verringerung sann asymptotisch wenig bringt). Bspw wurde die 3090 als 8K Karte vermarktet und dafür wurde ursprünglich der UP Mode vorgesehen. Und die Benchmarkwerte in 8K UP waren (damals erstaunlich) wenig beeindruckend trotz eigentlich geringer 1440p Renderauflösung. Einfach weil die computational cost so hoch war. Das wird mit 2nd gen Transformer noch weiter verstärkt.
Da gebe ich dir recht, aber ich denke mit Raytracing/Pathtracing wird in Zukunft die Last auch bei geringen Auflösungen noch hoch genug bleiben.
Zitat:
Zitat von robbitop
(Beitrag 13869994)
Ich bin ehrlich gesagt auch skeptisch ob eine Erhöhung der Auflösung (ggü 4K) bei normalen Monitorgrößen (27 32) in Spielegrafik noch signifikante optische Vorteile bringt. Insbesondere wenn das Spiel DLSS nutzt. Früher ohne gutes temporales Upsampling schon - aber heutzutage? Ich würde vermuten das sind schon deminishing returns.
Ich träume ja auch eher von einem 37"/38" OLED für den Schreibtisch (42 sind mir zu groß), ich denke da wären 5K oder 6K schon angemessen, groß denken! :biggrin:
Zitat:
Zitat von Radeonator
(Beitrag 13869426)
Dann leg dich mal fest, hat nur mit der bisher bekannten Datenlage nichts gemein.
;)
NUn es ändert sich aber nichts daran das offiziell eben keine Stellungsnahme zu einer B770 kommt.
Da können noch so viele "Firmware B770" in einer software auftauchen wenn nix gesagt wird.
So lange sind es einfach nur Gerüche die da ständig aufkommen und auf Gerüche in Heutiger Zeit kann man einfach im moment nichts geben.
Ich für meinen Teil habe es echt aufgegeben auf eine B770 zu hoffen.
Die wird meine Meinung nach nicht mehr veröffentlicht.
Ich denke mal das dieses Secure-Boot-Zertifikate nur Wichtig ist
wenn man oft von verschieden von fremden Datenträgern öfters den PC bootet ,
oder fremde Datenträger am PC anschließt, was hier eh nie der Fall ist ,
Ältere PCs haben ja diese Funktion nicht im Bios und da ist oft Windows 10 installiert .
Ganz Alte PCs hatten ja früher im Bios die Funktion Boot.Sek oder so ,
da wurde der Bootsektor der HDD Schreibgeschützt das ist meiner viel Sinnvolle gewesen da gab es das Problem mit den Zertifikaten nicht,
wenn man dann z.b. von Windows auf Linux wechseln wollte musste man lediglich nur im Bios das nur kurz frei geben das der Bootsekttor Neu erstellt werden konnte .
Ich lasse das hier lieber auf ausgeschaltet weil es ja angeblich möglich ist das Updates dieses Zertifikate installieren können,
wenn da z.b ein Trojaner was installieren danach der PC nicht mehr läuft .
Zitat:
Zitat von Snoopy69
(Beitrag 13868682)
Dann nehme ich die Andere (noch org verpackt)
Und dann hat die nicht alle ROPs und du wirst nie wieder Spaß mit deinem Computer haben, weil du immer wenn du ihn einschaltest, daran denken musst, dass du nicht alle ROPs hast. :)
interessant. Der D3D-AF-Tester von Demirug zeigt das auf einer 4070 Super:
Das heißt, das erste Bild mit 16x, zeigt eine LOD-Berechnung schnell einigermaßen kreisförmig wird. Das zweite Bild, mit 8x, macht deutlicher dass der Kreis relativ genau aber nicht exakt getroffen wird.
Die 16x-Berechnung wird ungenau. Allerdings ist das halbwegs im Rahmen. Die widerlichen Zacken die bis 2x runtergehen trotz 16x sind zum Glück Vergangenheit. Dennoch interessant, woran es genau liegt. Textursamples sparen? Präzision bei der LOD-Formel sparen?
Miniaturansicht angehängter Grafiken
Zitat:
Zitat von ItsMeK
(Beitrag 13868630)
Naja, der Framework stand bei mir auch zu Debatte. Ist schon cool. Aber wäre bei gleicher Ausstattung nochmal 100-200 mehr gewesen gegenüber meinem HP Mini inkl. 3 Jahre Vorort Service.
Gewinnst auch nicht wirklich viel an Modularität. Ich habe ja sowohl den HP auf Arbeit als auch das Framework Board daheim. Beide haben 2x M2 für SSD und 1x für Wireless. Framework hat noch einen PCIe x4 dazu. Für Netzwerk/USB hat der HP auch noch zwei so Erweiterungsslots.
Zudem ist der HP die Pro Version vom SoC der auch Memory Link ECC anbietet.
Zitat:
Wenn es schlechter als Veo3 ist in der Cloud, ist es nicht "sowas wie Veo3", sondern sowas wie Veo3 in schlechter.
Das kann man nicht pauschal sagen. Objektiv technisch gesehen ist LTX2 definiv schlechter, aber künstlerisch hat es sein eigenes Vibe und ist vielleicht dadurch besser als Veo3. Du sagst es ist nicht realistisch genug.Und ich sage, ich habe solche Clips in LTX2 gesehen, die mich buchstäblich in der Seele berühren. Gerade weil es so realistisch-unrealistisch ist. Du erschaffst manchmal so eine Szene, die von ihrer Zusammensetzung eher an ein Traum erinnert. Wenn man mal jemals dran gedacht hat, wie es ist - wenn man in fremde Träume einsehen kann, ist LTX2 genau das. Ich hab ständig das Gefühl die Träume aus einem fremden Kopf auf dem Bildschirm zu haben. Und aus genau diesem Grund, macht es grandios Spaß irgendwelche verrückte Prompts zu erzeugen.