Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 1 Stunde 40 Minuten

Gaming auf 8k

vor 2 Stunden 55 Minuten
Laut einem Blizzard Bug-Forum User haben sie seit der Beta diesen GUI Bug mit 8K in D2:R. Heute habe ich deswegen sogar eine Rückerstattung erhalten! Man kann nur spekulieren wieso sie das aus dem Stand nicht hinkriegen. Ein Programmierer/Tester braucht für sowas ne 8K Glotze und eine 3090. Beides heute zu teuer oder gar nicht erhältlich. Sogar für Blizzard. :ulol:

Real-time Raytracing

vor 3 Stunden 57 Sekunden
Die Rückspiegel in Low Res versauen es, aber am heimischen Monitor ohne YouTube komprierung, sicherlich nicht übel.

Bessere Monitore?

Mo, 27.09.2021 19:35
Zitat: Zitat von Platos (Beitrag 12802485) Also ich nutze auch 125% bei 4k 27" und bei 32" würde ich auf 100% umsteigen. 5k wäre aber für noch mehr Schärfe genau richtig. Vor allem bei 32", da ist dann 4k auch nicht mehr sooo gut. Und für noch mehr Arbeitsfläche bei angenehmem Arbeiten sehe ich 21:9 als noch besser an.

"Perfekt" fände ich 6880x2800 (quasi double ultrawide 1440p) bei 40". 100% bei 32" 4k ist viel zu klein (Quelle ich selbst). Gerade noch annehmbar ist 100% Skalierung wenn die horizontale Auflösung/100 gleich dem Bildschirm in Zoll ist (zumindest bei 16:9). Also WHQD bei 25" und 4k wohl ab so 38".

Man kann auch nicht alles skalieren zb beim arbeiten wenn man viel mit VNC oder anderen Remotegeschichten zu tun hat sitze ich auch bei meinem 32" 10cm vorm Bildschirm um was zu sehen ;)

nVidias Deep Learning Super Sampling - DLSS 2.x und Zukunft

Mo, 27.09.2021 12:49
Zitat: Zitat von aufkrawall (Beitrag 12796825) Dein BQ-Fetisch ist halt völlig weltfremd, wenn die Leistung spätestens mit RT vorne und hinten nicht für solche absurden Auflösungen reicht.
DLSS Q kann schon in 1440p deutlich besser aussehen als wirklich gute TAA-Implementierungen in nativen 1440p. Wer da meint, das "reiche nicht"... Die Sache ist einfach die, dass diverse Titel kein Performance-*, sondern Bildqualitätsprobleme haben. Besonders im Indiebereich, besonders im Falle von Unitytiteln. Wenn die Bildwiederholrate des Monitors erreicht ist, wenn das Powerlimit bereits gesenkt wurde, muss der Rest der Performance halt irgendwo hin... :biggrin:

Des weiteren limitiert Bildqualität die Distanzdarstellung. Irgendwann muss man Bildqualität pushen, damit Details nicht für nichts und wieder nichts berechnet werden.

*damit sind absolute Performanceprobleme gemeint! Relative Performanceprobleme (performed das Spiel für seine Optik und seinen spielelogischen Inhalt gut genug) beziehen ja unter anderem auch bereits die Bildqualität mit ein...

Batterie-Technologien

Do, 23.09.2021 11:15
Zitat: Zitat von Nightspider (Beitrag 12800383) Mein Beitrag oben wird auch bald 10 Jahre alt und in der Zeit hat sich quasi nichts getan bei der Kapazität. :ugly:

Ich möchte das jetzt nicht auf die nächsten 10 Jahre extrapolieren. ;D :usad: sei doch nicht so. Fast jeden Tag verspricht wieder ein anderer Wissenschaftler oder ein Institut, dass die den neuen Wunderakku fast fertig entwickelt haben. :wink:

AMDs FidelityFX Super Resolution (FSR)

Di, 21.09.2021 12:34
Naja, Watch Dogs Legion gibt es auch für die Xbox One

Geforce Now: Nvidia holt auf

So, 19.09.2021 11:37
Hab gestern mal einen PS4-Controller testen können. Damit kann ich dann TW3 auf dem Mac fertig spielen. Habs auf der Switch angefangen…
Auch auf dem iPad läuft es gut. PS4-Controller vorausgesetzt.

Subnautica kann ich leider nicht spielen, dafür ist das Inputlag zu groß oder man muss sich daran gewöhnen. Aber TW3 läuft Bombe und Cyberpunk werd ich dann im Winter mal im Sale kaufen. Kann kit sehr gut vorstellen, dass das super läuft. Muss mit jetzt erstmal einen PS4-Controller kaufen:freak:

OLED macht Fortschritte

Fr, 17.09.2021 23:35
Fehler gefunden, man muss im Spieleoptimierer Freesync Premium am TV einschalten dann erkennt der AMD Treiber erst das der TV VRR kann. :)

Also die Einstellungen vom C9 zu C1 haben sich aber stark verändert, irgendwie ist jetzt alles zerklüftet. Davor hast du alle Einstellungen zu Bild unter "Bild" gehabt. Jetzt hat man eher ein Kontextabhängiges Einstellungssystem.

Da muss ich mich erst noch einfuxen. :)

Technologie bei Bildsensoren in Kameras?

Mo, 13.09.2021 22:56
Jo wobei ich ja das so verstehe das wohl Sony bisher nur DRAM Stacked und Nikon da in dem Protypen mehr Logik auch was Beschaltung der einzelnen Photodioden usw. angeht mit Stacked.

So das Sie wohl 16x16 Pixel einzeln im Bezug auf Belichtungszeit und co. anpassen können. Und somit einen absurd hohe Dynamikumfang ermöglichen. Was ich schon interessant finde.

Luminous Studio Engine von Square Enix - Agni's Philosophy Demo

Mo, 13.09.2021 12:26
Mal abwarten bis jetzt ist alles mit UE noch Cross-Gen, es gibt keine finalen UE 5.0 Games und natürlich hast du 100 mal so viele Leute die im Westen mit Unreal arbeiten können.
Fast alle dicken AAA Games werden nicht mher von einem Studio an einem Standort gebaut.

MicroLED Displays

Di, 31.08.2021 15:15
Das wurde bestimmt schon oft erwähnt: Die Panels die Samsung da anbietet und als MicroLED vermarktet, sind nicht wirklich MicroLEDs sondern MiniLEDs.
https://displaysolutions.samsung.com...gnage/the-wall

Wenn man dies mit den pitch-Größen 0,84 mm - 1,68 mm nachrechnet (Ein Panelstück 806,4 × 453,6 mm), kommt man auf package-Größe von 0,1 - 0,3 mm pro LED-Diode.
MicroLED fängt ab 0,05 mm pro Diode an.

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

So, 29.08.2021 23:55
Zitat: Zitat von BlacKi (Beitrag 12774108) wow, die demo in zahlen ist echt beeindruckend. daran sieht man, das reiner vram ausbau keine zukunft hat. ich glaube, next ampere wird auf das feature bauen und kaum mehr vram bekommen. ich würde auch drauf wetten, das man pcie5.0 supportet. das alles Wissen wir doch schon seit über einem Jahr und ein paar von uns haben es immer wieder erwähnt. Dennoch hat der Vram Ausbau Zukunft, denn es gibt Daten die man nicht immer swapped oder Anwendungsfälle wo man viel im Speicher lassen muss (raytracing reflexionen)
Samper Feedback ist im Prinzip Nanite für Texturen. Aber da die Geo mit Nanite heftig anwachsen wird, könnte sich das am Ende die Waage halten.

Anisotrope Filterung - Anisotropes Filtern erklärt

So, 29.08.2021 22:09
Im Folgenden habe ich den anisotropischen Effekt bei höheren, internen Auflösungen hier mal in GTA V visualisiert :smile:

2K AF Vergleich (1xAF - 256xAF)


Wichtig ist es, das Augenmerk auf die Bodentexturen in der Ferne zu legen, ab 32x nimmt natürlich auch die Qualität der Kanten zu, da ich 32xAF via. 2xOGSSAA + 16xIngame-AF realisiert habe.
Doch ich denke, es ist deutlich zu sehen, dass die Texturen in der Full-HD-Auflösung noch bis hoch zu 256xAF profitieren.

In Full-HD verliere ich mit der RTX 3090 bis 32xAF quasi keinerlei Performance, obwohl ich es teilweise via Supersampling realisiere, komme ich nicht aus dem CPU-Limit heraus.
Ein lohnenswertes Performance-Investment.

Mit 64xAF verliere ich dagegen immerhin 3% Performance, mit 128x 32% Performance und mit 256x 54% Performance.
Aber hey, ich betreibe an dieser Stelle immerhin 16xOGSSAA zu den 16xAF, eine mindblowing Show, welche die RTX 3090 hier abliefert.
Könnte die GPU 256xAF in Hardware, würde ich davon ausgehen, dass es weniger als 15% Performance kostet.

Da gab es doch mal einen tollen Artikel vom Raff dazu.

Eventuell bekommen wir dank mehr Konkurrenz im GPU-Markt in Zukunft ja mehr als 16xAF in Hardware spendiert.
Die Bilder zeigen deutlich, dass es sich lohnen könnte.

Selbst in 4k sind noch leichte Qualitätsverbesserungen bis 64x AF zu sehen.

4K AF Vergleich (1xAF - 64xAF)


Auch in 4K verliert die RTX 3090 nur mickrige 3% Performance für 16xAF, 34% für 32xAF und 55% für 64xAF.
Achtung 32x sowie 64x sind via Supersampling realisiert, die GPU könnte das in Hardware wesentlich schneller.
Das ist die Dampfhammer-Methode. Auch hier würde ich auf unter 15% Performance Verlust tippen, wenn die GPU das in Hardware könnte.

Erst in 8K wirken 8xAF für mich optimal.
Streng genommen, wenn das Bild groß genug ist, profitiert man natürlich in jeder Auflösung von 256xAF, doch bei 8K wird der Gewinn aufgrund der hohen Pixeldichte über 8xAF, selbst auf einem großen TV, praktisch negiert.

Um das zu belegen, im Folgenden ein 8k Screenshot-Vergleich.
Betrachter ohne 8k-TV müssen an dieser Stelle definitiv zoomen.

8K AF Vergleich (1xAF - 16xAF)


Zwischen 8xAF und 16xAF ist in 8k nicht mehr wirklich ein Benefit zu erkennen.
Messbar sind die Verbesserungen definitiv auch in 8K bis 256xAF, was man an den nicht komplettierten Linien auf den Texturen in der Ferne erkennen kann (Wenn man sehr nah ran geht), doch im Gameplay merkt man nichts davon, würde ich behaupten.

Selbst in 8K verliert die RTX 3090 lediglich 4% Performance für 16xAF.

Aufgrund der Performancemetriken bei 16xAF ist es mir schon immer ein Rätsel gewesen, wenn Konsolenspiele an dieser Stelle Performance sparen wollen.
Vor allem da 8xAF+ bei Auflösungen unter 8K auf jeden Fall für schärfere Texturen sorgt.

Unreal Engine 5

So, 29.08.2021 21:02
Das ist doch nur Content. Mit der UE bekommen immerhin auch zig Indies PBS anständig auf die Kette, was von man diversen AAA-Spielen mit in-house Engine nicht gerade behaupten kann...

Gehirn mit 100 Mrd. Neuronen vollständig simulieren?

Fr, 13.08.2021 03:01
Zitat: Zitat von Doomtrain (Beitrag 12746169) Meine Vorstellung vom Gehirn ist etwas anders. Ein Gehirn zu simulieren ist schwierig da es völlig anders funktioniert als ein Computer. Es rechnet nicht und benutzt auch keinen Binärcode. Es ist vielmehr eine Kombination aus Hardware und Software. Es lebt...
Man weiß immer noch nicht wie es genau funktioniert, nur theoretisch und ansatzweise...eine Kopie ist daher auch langfristig nicht zu erwarten... Klar funktionieren Neuronen anders als eine heutige CPU. Aber eine CPU kann das simulieren. Das ist zwar ziemlich ineffizient, aber es geht.

Es gibt auch Forschung um mal ein Gehirn (in dem Fall Maus bzw. Teil davon) so einzuscannen, dass man was simulieren kann:

https://www.heise.de/hintergrund/Kar...n-6158069.html

Es gibt auch ein längerfristig angelegtes Forschungsprojekt, dass ein Mäusegehirn wohl auf ähnliche Art und Weise komplett scannen will. Finde gerade nicht die Referenz dazu.

Windows 10 Scheduler nutzt favorisierten Kern nicht richtig

Fr, 30.07.2021 16:53
... Titel sagt vieles. Ich hab 9x 4.4 Ghz und 1x4.6 Ghz laufen und mein blöderweise nicht auf Multicore optimiertes Game (DCS World 2.7) lastet Core 2 und 9 jeweils zu 60-80% aus und mein 4.6 GHz Core 3 dümpelt mit 20% Auslatung dahin. Andere Spiele ähnlich.

Mache ich den CPU-Z Bench, nimmt sich der Single Core Test zu 100% den schnellen Kern.

Kann man da was machen? Ist der Scheduler echt so primitiv?

Sind Quantencomputer in 3 Jahren das Maß aller Dinge?

Mo, 26.07.2021 18:43
Also ich sehe in Quantencomputern in naher bis mittlerer Zukunft nur eine Lösung für ganz bestimmte mathematische Probleme. Für diverse Verschlüsselungsalgorithmen könnte es problematisch werden aber einen Ersatz für reguläre PC mit großteils dequentieller nicht parallelisierbarer Rechenlogik habe ich meine Zweifel.

Streuung Taktverhalten im Prozess bzw. eines DIE

Fr, 23.07.2021 10:20
Je mehr an die Grenze (TopCPU der Reihe) geht, je grösser wird die streuung aus meiner Erfahrung. Da dort eher Cores dabei sind die qirkloch hohe Takte hinkriegen (nicht allcore). Nur ganz selte Exemplare haben dann dort nicht einige "super" Cores sondern alles supercorea. Dies gilt je länger je mehr. Die Reserven der Chip wird einfach auch immer kleiner im Gegenzug zu früher.

DirectX 12 Grafik-API

Mo, 12.07.2021 21:25
Ich kann nicht aus erster Hand sagen, wie die Situation Vierkernern oder CCX-Krüppeln ist.
Mit dem 11400F sind die fps in SotTR hier jedenfalls vergleichbar zwischen RDNA2 und Ampere. Vulkan unter Linux ist noch eine Spur schneller:


Kurioserweise ist mit Ampere der Linux-Port mit Vulkan mittlerweile auch im GPU-Limit schneller:

Weiterentwicklung eInk-Displays

Mo, 12.07.2021 13:06
Zitat: Zitat von CD-LABS (Beitrag 12732443) Wenn ich das richtig sehe, dann gibt es doch schon ein Review mit echter Hardware davon?
https://www.youtube.com/watch?v=ckFJar6NC0o. Grausam wie das Display immer noch verzögert, definitiv unbrauchbar als das Einzige Display auf einem Gerät.