Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 42 Minuten 59 Sekunden

TressFX - Haar-Technologie von AMD

vor 7 Stunden 32 Minuten
Jepp. Und hoffentlich skaliert die UE bei NextGen auch besser mit CPU-Cores.

Bessere Monitore?

Mo, 27.01.2020 18:53
Zitat: Zitat von robbitop (Beitrag 12201045) Gibt es Messwerte, die die Bildqualität des XDR Displays als schlecht einschätzen lassen? Was ich bisher gesehen habe sind als Nachteil die Helligkeitsgradienten, die nunmal von Local Dimming kommen. Farbraum, Auflösung etc sollte doch ziemlich gut sein, oder? Durch Local Dimming werden wie durch ABL die Farben und Grauwerte verfälscht. Wenn man äußerst genaue Farben haben will, muss das aus. Kein professioneller Referenz LCD hat m. E. Dimming.

OLED macht Fortschritte

Mo, 27.01.2020 11:11
mein C9 ist Freitag gekommen... und... well... alles prima mit dem TV aber...
VRR geht offenkundig nicht mit Pascal (1060 & 1080 im Haus). Dieser Aspekt ist mir dann wohl durch die Lappen gegangen. :redface:

Dann eben mit der nächsten Graka :hammer:

Real-time RayTracing

So, 26.01.2020 15:36
Zitat: Zitat von Raff (Beitrag 12200342) Übrigens nochmal zu Wolfenstein: Man kann da einiges tweaken: https://extreme.pcgameshardware.de/n...l#post10166898 (Posting #142)

Die AtlasSize hat nichts mit dem Raytracing zu tun und kann zu Flackern führen, der Rest hilft aber den Spiegelungen auf die Sprünge.
Hm, überzeugt mich jetzt nicht so.

Schatten sind da eben schärfer, aber immer noch überall gleich blurry, und so lange man nicht den Übergang von hart auf weich hat, sehen Schatten halt eher nicht so toll aus.

Das 2. Beispiel bei den Spiegelungen ist mir auch ingame negativ aufgefallen, ich hoffe die fixen das nochmal per Patch.

Und bei den diffusen Spiegelungen, nun ja die Oberfläche schaut mit den Tweaks eben mehr glossy aus, aber ich finde das Original sieht eher wie vom Leveldesigner gedacht aus.

Was mir auch an einer Stelle aufgefallen ist, ist dass die Engine offenbar Räume die man noch nicht sieht nicht rendert, was ja Sinn macht. Allerdings hätte man an einer Stelle schon vorher den Raum in einer Spiegelung gesehen, bevor er tatsächlich eingeblendet wird.

ACO - Das neue Compiler-Backend für RADV

Sa, 25.01.2020 01:20
Zitat: Zitat von aufkrawall (Beitrag 12199545) Und merged (Geometry Shader btw. auch).
Fehlt noch Tess, aber hier funktioniert LLVM offenbar eh gut (ist z.B. in WT3 oder SotTR quasi gratis, wie halt mit nativem D3D). Weitere Navi-Optimierungen wären imho wesentlich wichtiger. NGG steht noch auf der Liste, aber mal sehen, was wir jetzt noch in 20.0 reinbekommen. Weitere Optimierungen eher erst wieder nach dem Branchpoint.

Zitat: Zitat von aufkrawall (Beitrag 12199545) Wenn Valve jetzt noch jemanden für AMD Kernel-Feinschliff einsetzen könnte, fällt von der Qualität vs. Mesa doch teilweise recht arg ab... Das würde ich eher ausschließen. Glaube auch nicht, dass man da als außenstehender so produktiv sein kann, vor allem was zukünftige HW angeht.

Unreal Engine 4

So, 19.01.2020 16:02
Zitat: Zitat von gnomi (Beitrag 12195185) Aber okay. In der Regel passiert das ja und verglichen mit der letzten Generation mit den vielen lieblosen Ports ist das alles ja schon wieder viel besser geworden. Du beschwerst dich selbst über miese Frametimes, inwiefern soll das besser sein als die UE3-Ports der letzten Gen?

Vulkan Grafik-API

Do, 16.01.2020 17:28
Zitat: Zitat von aufkrawall (Beitrag 12169643) https://www.gamingonlinux.com/articl...ment_id=171047
Expl. API scheint einfach inkompatibel zu deren Firmen-DNA zu sein. :freak: eigentlich sollte es heissen "no matter how hard you optimize, you won't optimize as hard as nvidia is able to"

weil Nvidia optimiert ja auch nur per software...

MicroLED Displays

Mo, 02.12.2019 22:43
https://www.anandtech.com/show/15174...-ppi-3000-nits


JDI's Micro LED Display Module Prototype
Feature Characteristic
Screen size 1.6 inches
Resolution 300×300×RGB
Pixel density 265 PPI
Luminance 3,000 cd/m²
Viewing angle >178°


Hnnngggh

Neue Rechnerkonzepte und Grafik - kein nennenswerter Fortschritt?

Mi, 27.11.2019 15:48
Zitat: Zitat von Rabiata (Beitrag 12153998) Ein Mikrokernel könnte da vielleicht helfen, aber der Ansatz kommt nicht so recht in die Gänge. Vielleicht auch weil kein finanzkräftiger Hersteller das Konzept ernsthaft pushen will. Och, es sind vermutlich mehr Mikrokernel-Systeme im Einsatz als Systeme mit normalem Kernel. In jeder Intel ME, AMD PSP / ARM TrustZone, Telefon-Modems usw. usw. laufen Microkernel-Betriebssysteme.

Das Problem für die Nutzung als normales Computer-Betriebssystem ist schlicht die Performance und der Programmieraufwand. Denn ohne entsprechend angepasste Software bringt dir der Microkernel nicht viel. In der Theorie hat natürlich ein Microkernel verdammt viele Vorteile, in der Praxis stürzt aber auch nicht alle Nase lang das halbe OS ab.

Einzig die (Android-)Smartphones sehe ich als Kandidaten für so einen Umstieg, wegen der ganzen Update-Problematik. Je nachdem was Google so mit Fuchsia vor hat.

DirectX 12 Grafik-API

So, 10.11.2019 12:55
Zitat: Zitat von Morgenlicht (Beitrag 12139700) Mit der Anwenung von Mesh-Shader ist also anzunehmen, daß damit der limitierende Faktor die Game-Geometrie ausgemerzt wurde? Zitat: Zitat von gravitationsfeld (Beitrag 12140219) Kann man so nicht sagen. Eigentlich ist es auch mit der klassischen Pipeline relativ schwer Geometrie limitiert zu sein. Im Allgemeinen sind die Art & Render-pipelines schon optimiert, so dass LOD etc. handling vorliegt. Über den gesamten Frame eines Games dominieren wegen des Shadings in der Tat andere workloads. Echte Geometrie-Limitierung ist eher bei ProViz (CAD, Film etc.).

Dennoch kann man aber in Teilbereichen limitiert sein. Ein AAA Game-Entwickler der das Vegetationssystem auf mesh-shader experimentell umstellte, berichtete von fast Faktor 2 Verbesserung. Ich selbst hab bissl weniger bei diverse Szenen für sowas wie shadow oder pre-pass messen können.
Aber es kommt eben stark darauf an was man schon selbst an Geometrie processing/lod/culling betreibt. Prinzipiell sind execute-indirect (GPU schreibt drawcalls selbst) und culling per compute shader immer noch sehr flott, verbrauchen aber mehr Bandbreite, und etwas mehr temporären Speicher. Instancing von sehr einfacher Geometrie ist auch nicht so wirklich performant, und man muss da bissl workarounds betreiben, das geht nun auch deutlich einfacher.

Mesh shader eher interessant je mehr man prozedural on-the-fly generieren kann (die Fließbänder aus satisfactory ;) ), das würde dann noch mehr Speicherverbrauch drücken. Es geht hier eher um Trends die Programmierbarkeit und Skalierbarkeit zu verbessern.
Turing bekam z.b. nochmal Verbesserungen in der klassischen Primitive Pipeline, so dass der Vorteil von mesh shadern nicht ganz so stark sichtbar ist, wie wenn man das nicht gemacht hätte. Langfristig ist das mesh-shader modell aber das Skalierbare und deutet die Vermischung von Compute- und Grafik-Shadern an.

Ein Problem im Moment ist dass das mesh shading (generieren von geometrie) nicht so ganz zum raytracing modell (geometrie muss vorher vorliegen) passt. Aber imo ist das okay, fortschritte beim rasterisieren sollen ja nicht durch raytracing eingebremst werden ;)
Andererseits kann man mit DXR1.1 das ganze ja auch kombinieren: so könnte man Partikelgeometrie in mesh shadern dynamisch erzeugen wenn man per Raytracing auf etwas trifft.

TV Kabellos betreiben @ mind. 60 Hz, 4k

So, 03.11.2019 07:57
also wenn es dann doch so Geringe Ansprüche sind... zum Filme schauen ist das bestimmt OK.
Das dann aber so Sachen wie Geringe Latenz, >60Hz und VRR aus dem Fenster fliegen sollte klar sein.

ist das echt oder bin ich zu alt

Sa, 12.10.2019 19:22
Ja eine techdemo. Sehr beeindruckend. Sind halt Mini Level mehr nicht, aber trotzdem beeindruckend

Sind Quantencomputer in 3 Jahren das Maß aller Dinge?

Mi, 09.10.2019 15:03
Zitat: Zitat von BTB (Beitrag 12113253) 53 (eigentlich 54) Qbits

https://www.spiegel.de/wissenschaft/...a-1290065.html

Quantencomputer die Fusionsreaktoren der IT? "Drei Minuten statt 10.000 Jahre"
Ja das hat was ^^

Und Supraleiter-Akkus die Batterie der Zukunft :)
https://www.forschung-und-wissen.de/...itern-13372774 (Hochtemperatur-Supraleiter)
https://www.scinexx.de/news/technik/...r-supraleiter/ (Raumtemperatur-Supraleiter rücken näher)
https://deacademic.com/dic.nsf/dewiki/1348420 (Supraleitender Magnetischer Energiespeicher)

Mir kann das gar nicht schnell genug gehen :biggrin:
(2025 soll ITER den Testbetrieb aufnehmen und 2030 soll er ans Netzt gehen
https://www.iter.org/ "is nearly completed and machine assembly is scheduled to start in 2020")

M.f.G. JVC