Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 17 Minuten 41 Sekunden

Gaming auf 8k

vor 35 Minuten 20 Sekunden
Zitat: Zitat von Gouvernator (Beitrag 12821846) Das ist es ja, man braucht kein 4k Handy. Es zählt nur PPI. Jedes Handy ab 250-300 PPI und Wifi5 kann verwendet werden. Einzige Fummelei ist DSR zum laufen zu bekommen. Aber wer schon ein 4K Monitor hat der kann direkt einsteigen. Dann streamt man den 8K DSR Desktop parallel zum Smartphone.
Ein Galaxy S20 mit 2400x1080 wird schon bombastisch genug aussehen. Die passende inf. für HDMI-Dummy hätte dann 3840x1728 Auflösung. Und mit DSR wäre das 7680x3456. Also ich habe jetzt mal Dragons Dogma auf meinem Laptop installiert und da in 4k gespielt. Mehr geht leider nicht von der Rechenleistung (GTX 1660Ti). Aber ich kann dich echt null verstehen. Die Pixeldichte ist ziemlich hoch da mit 2160p auf 15" (3:2). Aber es ist mir einfach zu klein. Ich halte mir das Ding 20cm vor die Augen und es ist einfach zu klein das Display.

Ich habe mir jetzt meinen 27" 4K Monitor vor's Gesicht gehalten (20cm) und das ist schon eher gut. Aber auch das ist nicht gross genug, um mein Sichtfeld abzudecken. Ich bräuchte wahrscheinlich bei 20cm Sichtabstand ca. 30-32".

Aber so oder so: Ist schon etwas anstrengend von so nahem zu schauen. Ich bevorzuge weiterhin ein Fernseher :D Ich kann deine Atmosphäre wirklich nicht nachvollziehen. Liegt vlt. natürlich auch am Spiel, aber du schwörst ja auch auf 8K bei Spielen von 2000 usw.

nVidias Deep Learning Super Sampling - DLSS 2.x und Zukunft

vor 2 Stunden 34 Minuten
In Rise of the Tomb Raider sieht es sehr blurry aus, CAS-Stärke 1.7 empfiehlt sich. Gibt aber zumindest mit der letzten ReShade-Version mit D3D12 heftige Einbrüche, mit D3D11 läuft es normal. Das Spiel ist durch Blur-Effekte und wahnsinniges Aliasing ein Härtefall für DLSS. Dafür schlägt es sich gut, trotz Performance-Steigerung wird das Bild massiv beruhigt (wenn auch nicht so ruhig wie SotTR). Hab mit Schlimmerem gerechnet.

AMDs FidelityFX Super Resolution (FSR)

vor 4 Stunden 35 Minuten
Zitat: Zitat von aufkrawall (Beitrag 12822728) DLSS Balanced ist bei 1440p nur 835p Render-Auflösung. ^^
Nach Deichkind: "Ich glaubs ja nicht, was wird hier aufgetischt". Ist aber so. :eek:
Die Engine fängt zum Glück mit sinkender Auflösung nicht an, alles mögliche auszublenden. Die RT Sonnenschatten dürften wohl auch nicht sonderlich leiden, im Gegensatz häufig zu Cascaded Shadow Maps. In Fortnite sieht Balanced ähnlich bzw. noch klarer ohne zusätzliches Sharpen aus, aber die Shadow Maps werden mitunter pixelig. Achso, ich dachte es wäre Q. Für Balanced ist das Ergebnis ja noch erstaunlicher. ;D

Real-time Raytracing

Do, 14.10.2021 01:11
DXR 1.1 ist schon krass. Man sieht ja an Minecraft RTX, Metro Exodus Enhanced Edition und Far Cry 6 wie effizient RT mittlerweile geworden ist.

Bessere Monitore?

Mi, 13.10.2021 18:34
Zitat: Zitat von schreiber (Beitrag 12815712) https://geizhals.de/samsung-odyssey-...loc=at&hloc=de
Spricht eigentlich was gegen den Samsung G7, wenn man zocken möchte? VA Panel, aber 240 Hz und 1ms gtg. Gibts jetzt auch im Angebot für 479 €. Gerade zugeschlagen. =)

Vulkan Grafik-API

Mo, 11.10.2021 10:03

OLED macht Fortschritte

Fr, 08.10.2021 23:30
Ist bekannt ob die neueren LG Evo Panels bei niedrigere Helligkeit vielleicht eine längere Lebensdauer und geringeres BurnIn aufweisen?

Anisotrope Filterung - Anisotropes Filtern erklärt

Mo, 04.10.2021 11:18
Also zwischen 128x und 256x sehe ich ehrlich gesagt nur schwer einen Unterschied bzw. muss ich die schon wirklich suchen gehen. Zwischen 64x und 128x ist es dann aber wirklich ein sehr grosser Unterschied.

Bei 4k sehe ich zwischen 32x und 64x dann aber lustigerweise wieder einen (kleineren) Unterschied (vlt. weil das FHD Bild kleiner ist). Zwischen 16x und 64x ist es aber wie Tag und Nacht. Da sieht 16x echt schlimm aus.

Und bei 8k sehe ich dann (mit meinem 4K Display) keinerlei Unterschiede zwischen 8x und 16x. Sieht tatsächlich in der weiten Ferne noch besser aus (selbst auf meinem nur 4k Display). Aber ich glaube, ich würde es in diesem Spiel mittem im Spielgeschehen trotzdem nicht lohnenswert finden.

Aber das viel wichtigere als die Optik sind hier die FPS. Unter 8K kriegst du selbst mit 16x noch 43FPS, während dem du bei 4k und 64x auch nur 43FPS hast. 8k ist natürlich dann vorzuziehen. Und selbst 32x unter 4K hat "nur" 50% mehr FPS, wie unter 8k. Bei FHD das selbe Spiel. Da setzt es einfach etwas später ein (Evtl weil CPU Limit?).

Mein Fazit wäre dann: Ja, es sieht in manchen Fällen deutlich besser aus, aber mehr wie 32x lohnt sich in 4k kein bisschen (und selbst das ist fragwürdig) und in FHD lohnt sich mehr wie 64x kein bisschen. 32x kostet unter 4k "nur" 50% mehr Leistung, da würde ich vlt. schon auf 8K mit dafür niedrigeren Details schielen. Unter FHD ist es schwierig zu beurteilen, da du dort vermutlich schon im CPU Limit steckst.

Also ich würde sagen, mehr wie 16x brauchts nicht, lieber auf 8k "hinarbeiten" ^^ Notfalls dann eben mittels DLSS. 8k DLSS mit 16x sieht bestimmt besser aus wie 4k 32x nativ und der FPS Unterschied wird dann vermutlich nicht gross sein (8kDLSS x16 vs 4k Nativ x32).

Edit: Aber interessant wäre natürlich ein Spiel das etwas neuer als 2013 ist :D

Unreal Engine 5

Do, 30.09.2021 17:52
Zitat: Zitat von ChaosTM (Beitrag 12807014) Eines ist jetzt schon klar. UE5 Spiel werden nicht klein.
Wieder 24GB für einen kleine "Level". Naja, die Assets sind schon ziemlich riesig. Die Handvoll Felsen in der Valley of the Ancients Demo sind allein ~15 GiByte für die Modelle und nochmal ~40 GiByte für die Megatextures.

Die Spiele werden zumindest beim Einsatz von hochqualitativen Nanite-Meshes und dem Virtual Texturing schon ordentlich groß werden, das denke ich auch. Damit dürfte auch die Bandbereite weiter in den Vordergrund rutschen, wenn das alles passend gestreamt werden soll.

Den Marketplace muss ich mir mal in Echtzeit ansehen. Von den Shots hatte ich den Eindruck, dass das ein bisschen abstrahiert, stilisiert aussieht (ein leichter Comic-Touch), aber Beleuchtung, Modelle und Materialien machen definitiv was her.

Unreal Engine 4

Do, 30.09.2021 05:22
Eher von was man seit A New Dawn geträumt hat, wobei Kena da noch etwas hinterherhinkt von dem was machbar wäre mit genug und vor allem der richtigen Manpower ;)



Da werden andere Studios ganz andere Interne Branches Kaliber auffahren demnächst, als was diese neuen meist Indies in der Main Branch von Epic selber präsentieren ;)
Oder sich aus dem Marketplace zusammenbasteln

Batterie-Technologien

Do, 23.09.2021 11:15
Zitat: Zitat von Nightspider (Beitrag 12800383) Mein Beitrag oben wird auch bald 10 Jahre alt und in der Zeit hat sich quasi nichts getan bei der Kapazität. :ugly:

Ich möchte das jetzt nicht auf die nächsten 10 Jahre extrapolieren. ;D :usad: sei doch nicht so. Fast jeden Tag verspricht wieder ein anderer Wissenschaftler oder ein Institut, dass die den neuen Wunderakku fast fertig entwickelt haben. :wink:

Geforce Now: Nvidia holt auf

So, 19.09.2021 11:37
Hab gestern mal einen PS4-Controller testen können. Damit kann ich dann TW3 auf dem Mac fertig spielen. Habs auf der Switch angefangen…
Auch auf dem iPad läuft es gut. PS4-Controller vorausgesetzt.

Subnautica kann ich leider nicht spielen, dafür ist das Inputlag zu groß oder man muss sich daran gewöhnen. Aber TW3 läuft Bombe und Cyberpunk werd ich dann im Winter mal im Sale kaufen. Kann kit sehr gut vorstellen, dass das super läuft. Muss mit jetzt erstmal einen PS4-Controller kaufen:freak:

Technologie bei Bildsensoren in Kameras?

Mo, 13.09.2021 22:56
Jo wobei ich ja das so verstehe das wohl Sony bisher nur DRAM Stacked und Nikon da in dem Protypen mehr Logik auch was Beschaltung der einzelnen Photodioden usw. angeht mit Stacked.

So das Sie wohl 16x16 Pixel einzeln im Bezug auf Belichtungszeit und co. anpassen können. Und somit einen absurd hohe Dynamikumfang ermöglichen. Was ich schon interessant finde.

Luminous Studio Engine von Square Enix - Agni's Philosophy Demo

Mo, 13.09.2021 12:26
Mal abwarten bis jetzt ist alles mit UE noch Cross-Gen, es gibt keine finalen UE 5.0 Games und natürlich hast du 100 mal so viele Leute die im Westen mit Unreal arbeiten können.
Fast alle dicken AAA Games werden nicht mher von einem Studio an einem Standort gebaut.

MicroLED Displays

Di, 31.08.2021 15:15
Das wurde bestimmt schon oft erwähnt: Die Panels die Samsung da anbietet und als MicroLED vermarktet, sind nicht wirklich MicroLEDs sondern MiniLEDs.
https://displaysolutions.samsung.com...gnage/the-wall

Wenn man dies mit den pitch-Größen 0,84 mm - 1,68 mm nachrechnet (Ein Panelstück 806,4 × 453,6 mm), kommt man auf package-Größe von 0,1 - 0,3 mm pro LED-Diode.
MicroLED fängt ab 0,05 mm pro Diode an.

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

So, 29.08.2021 23:55
Zitat: Zitat von BlacKi (Beitrag 12774108) wow, die demo in zahlen ist echt beeindruckend. daran sieht man, das reiner vram ausbau keine zukunft hat. ich glaube, next ampere wird auf das feature bauen und kaum mehr vram bekommen. ich würde auch drauf wetten, das man pcie5.0 supportet. das alles Wissen wir doch schon seit über einem Jahr und ein paar von uns haben es immer wieder erwähnt. Dennoch hat der Vram Ausbau Zukunft, denn es gibt Daten die man nicht immer swapped oder Anwendungsfälle wo man viel im Speicher lassen muss (raytracing reflexionen)
Samper Feedback ist im Prinzip Nanite für Texturen. Aber da die Geo mit Nanite heftig anwachsen wird, könnte sich das am Ende die Waage halten.

Gehirn mit 100 Mrd. Neuronen vollständig simulieren?

Fr, 13.08.2021 03:01
Zitat: Zitat von Doomtrain (Beitrag 12746169) Meine Vorstellung vom Gehirn ist etwas anders. Ein Gehirn zu simulieren ist schwierig da es völlig anders funktioniert als ein Computer. Es rechnet nicht und benutzt auch keinen Binärcode. Es ist vielmehr eine Kombination aus Hardware und Software. Es lebt...
Man weiß immer noch nicht wie es genau funktioniert, nur theoretisch und ansatzweise...eine Kopie ist daher auch langfristig nicht zu erwarten... Klar funktionieren Neuronen anders als eine heutige CPU. Aber eine CPU kann das simulieren. Das ist zwar ziemlich ineffizient, aber es geht.

Es gibt auch Forschung um mal ein Gehirn (in dem Fall Maus bzw. Teil davon) so einzuscannen, dass man was simulieren kann:

https://www.heise.de/hintergrund/Kar...n-6158069.html

Es gibt auch ein längerfristig angelegtes Forschungsprojekt, dass ein Mäusegehirn wohl auf ähnliche Art und Weise komplett scannen will. Finde gerade nicht die Referenz dazu.

Windows 10 Scheduler nutzt favorisierten Kern nicht richtig

Fr, 30.07.2021 16:53
... Titel sagt vieles. Ich hab 9x 4.4 Ghz und 1x4.6 Ghz laufen und mein blöderweise nicht auf Multicore optimiertes Game (DCS World 2.7) lastet Core 2 und 9 jeweils zu 60-80% aus und mein 4.6 GHz Core 3 dümpelt mit 20% Auslatung dahin. Andere Spiele ähnlich.

Mache ich den CPU-Z Bench, nimmt sich der Single Core Test zu 100% den schnellen Kern.

Kann man da was machen? Ist der Scheduler echt so primitiv?

Sind Quantencomputer in 3 Jahren das Maß aller Dinge?

Mo, 26.07.2021 18:43
Also ich sehe in Quantencomputern in naher bis mittlerer Zukunft nur eine Lösung für ganz bestimmte mathematische Probleme. Für diverse Verschlüsselungsalgorithmen könnte es problematisch werden aber einen Ersatz für reguläre PC mit großteils dequentieller nicht parallelisierbarer Rechenlogik habe ich meine Zweifel.

Streuung Taktverhalten im Prozess bzw. eines DIE

Fr, 23.07.2021 10:20
Je mehr an die Grenze (TopCPU der Reihe) geht, je grösser wird die streuung aus meiner Erfahrung. Da dort eher Cores dabei sind die qirkloch hohe Takte hinkriegen (nicht allcore). Nur ganz selte Exemplare haben dann dort nicht einige "super" Cores sondern alles supercorea. Dies gilt je länger je mehr. Die Reserven der Chip wird einfach auch immer kleiner im Gegenzug zu früher.