Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 38 Minuten 18 Sekunden

Real-time RayTracing

vor 2 Stunden 9 Minuten
Man hätte sich ein geeigneteres Projekt als Showcase raussuchen können.

DirectX 12 Grafik-API

vor 2 Stunden 26 Minuten
Die Performance auf einer 1060GTX mit einem i5 4460 @ 3,2 Ghz scheint im wesentlichen identisch zu sein, andere Berichten die Performance ist ein wenig besser unter einem Ryzen und einer 1070 oder Threadripper mit einer Vega64:
http://forums.codemasters.com/discus...sion-thread/p2

Bessere Monitore?

vor 11 Stunden 1 Minute
Zitat: Zitat von Nightspider (Beitrag 11856830) Genau, ich kaufe mir einen 2500€ Monitor und nutze das teuerste Feature gar nicht. :rolleyes:

Habt wohl beide einen Troll gefrühstückt. Von welchem 2500€ Monitor sprichst du bitte?! :freak:

Wenn du die G-Sync Dinger mit LD meinst...die sind neben dem Modul auch wegen dem LD so absurd teuer...was ein zusätzliches Alleinstellungsmerkmal ist, dass sie sich natürlich vergolden lassen.
Bei 144Hz mit quasi 0 Inputlag ist das mit dem LD offensichtlich eh nicht trivial zu lösen ohne das da nur noch Grütze bei rauskommt...gibt ja schon genug Fernseher die komplett daran scheitern bei exorbitanten 100ms Lag, mit weniger LD Zonen und lediglich ner Quelle die mit 25-30fps zuspielt... :rolleyes:

Vorher hast du BTW noch die ganze zeit von "Pseudo-HDR" gesprochen...das ist bei LCDs für mich klar ne Lösung ohne LD...und das ist dort auch weitaus einfacher umzusetzen aber auch viel mehr einfach nur ein profanes Checklistenfeature, dass man idR ignorieren kann oder sollte.

Wie baut man multi chip module?

Mi, 14.11.2018 22:10
Hi
wie baut man MCM, dass auch noch 9 chips so plan sind, dass sie zu kühlen sind?
werden diese chips seitenverkehrt gelötet und der layer von oben draufgelegt?
Habe mich das schon bei vega gefragt. Dort gibt es ja beim dram einen kleinen spalt.



Gleich noch eine zusatzfrage. warum kann AMD die cpus besser verlöten? ist deren verfahren schlicht teurer?

Unity 5

Mo, 12.11.2018 23:53
Jep, ich habe es falsch verstanden und auch allgemein auf CPU-PhysX übertragen:
Zitat: Zitat von Pierre Terdiman GPU PhysX is less popular than CPU PhysX indeed. Still there though: PhysX 3.4 has a brand new GPU codepath, used here and there. But the focus moved to raytracing, the physics stuff is in "maintenance mode". We don't keep track of who's using it. The website is not up to date. https://twitter.com/PierreTerdiman/s...36783534391298

Zitat: Zitat von Pierre Terdiman Yeah that's "maintenance mode" for you. We have far less PhysX people than before and the guy who usually dealt with that moved to other projects. I'll ask the guys tomorrow. https://twitter.com/PierreTerdiman/s...68432466616320

Zitat: Zitat von Pierre Terdiman PhysX 2.0 is old. We are at PhysX 3.4 now :) .....(3.5 soon hopefully) https://twitter.com/PierreTerdiman/s...51669666426881

Der Fokus für die nahe Zukunft scheint bei der Simulation zu liegen, mit der Performance ist man aktuell zufrieden:
http://physxinfo.com/news/12876/gdc-...tion-accuracy/

OLED macht Fortschritte

Mi, 07.11.2018 20:00
Zitat: Zitat von Kartenlehrling (Beitrag 11843914)

http://youtu.be/ygIQall8P1M
OLED Shootout 2018: LG vs. Sony vs. Philips vs. Panasonic - Wer hat das beste Bild? Nachdem die beteiligten Personen offenbar größtenteils den Vivid-Modus bevorzugen muss man ihnen leider jegliche Kompetenz absprechen die Bildqualität beurteilen zu können.

API Wrapper (WINE, DXVK, vkd3d, MoltenVK, dgVoodoo, ...)

Mi, 07.11.2018 18:02
Aus den Patches:

Zitat: This came to the top of my list recently due to a difference between
OpenGL and Vulkan discard operations and D3D's discard operation. The
OpenGL and Vulkan discard is defined to be control flow and derivatives
are undefined after discard. With D3D, derivatives are considered
well-defined after discard.

In order to work around this, DXVK (and I would assume VKD3D though I'm
not sure), simply sets a global boolean instead of doing the discard and
then emits `if (do_discard) discard;` at the end of the shader. For
complex shadaers, this leads to the shader doing way more work than
needed and poor performance. If, on the other hand, they knew that
derivative groups are just subgroup quads, they could do something
better:

bool want_discard;

void d3d_discard()
{
want_discard = true;
if (subgroupClusteredAnd(want_discard, 4))
discard;
}

void main()
{
want_discard = false;

// stuff

if (some_condition)
d3d_discard();

// Exepensive stuff

if (want_discard)
discard;
}

Methoden zur Verbesserung der Videospielgrafik

Mo, 22.10.2018 18:02
Weg mit Realismus und mehr Puppeteer, Cuphead bzw. Teraway. Mehr Daytona, Ridge Racer, Burnout ... weniger Need for Speed for dumb millennials with the shittiest stories...

Alle nehmen sich viel zu ernst. Wir haben fish a.i, wir haben physkalisch korrekte darstellung der Flora und andere haben raytracing. Mehr Games, weniger Simulatoren.

Wichtige PDFs/Dokumente

Sa, 20.10.2018 13:00
Your information surprises me. How did you get this information?

Geforce Now: Nvidia holt auf

Fr, 12.10.2018 17:16
Zitat: Zitat von Platos (Beitrag 11823922) Eig. sauteuer und ich würde nie im Leben auf die Idee kommen, so einen Service zu nutzen (wenn die Preise in etwa so sein werden, wie erwähnt bei CB).

Eine PS4 Pro oder gar One X liefert (anscheinend?) ein ähnliches Bild (ohne dass man eine 100MBit/s Leitung braucht, damit es nicht zum Pixelbrei wird). Und bei NVidia darf man für 250 Euro im Jahr gerade mal ca. 15 Minuten (!) pro Tag spielen (100h im Jahr).

Nach 3 Jahren hätte man sich schon locker ne GTX 1080Ti gegönnt. Man kann dann aber so oft spielen, wie man will. Also bei solchen preisen, wäre das wirklich lächerlich. Gerade weil ein grosser Teil der Zockerbasis aus jugendlichen Schülern besteht, die eher 1-2h pro Tag spielen, ist der Preis ein Witz. Selbst wenn sie "nur" 30min pro tag spielen würden, müsste man trotzdem 500 Euro pro Jahr zahlen. Das käme ja schon einem jährlichem Grafikkartenupgrade gleich.

Wenn man Geld machen will, muss man damit die Massen erreichen und die bestehen zu einem Grossteil aus Jugendlichen, die bestimmt mehr als 15min pro Tag zocken. Die Preise wären lächerlich.
Und bei einer Stunde pro Tag wäre das dann 1000Euro pro Jahr :D dafür kann man sich jedes Jahr ne neue Titan kaufen :D Und 1h pro Tag zocken ist jetzt wirklich nicht viel fur einen Schüler. Nach der Logik gäbe es auch keine Handyabos. Und in deinem Szenario hast Du schon einen Desktop PC. Eine Vollkostenrechnung funktioniert anders. Bei mir ist es zB gar keine Geldfrage. Ich habe keine Lust mehr mir einen Desktop zu kaufen. Schwer, laut und in 2 Jahren wieder zu alt. Dafür habe ich keine Zeit. Richtige Spieler wird man natürlich niemals mit einem Modell wie GNow überzeugen können, aber ich glaube es gibt einen Markt.

CryEngine 5

So, 23.09.2018 19:31
Was du alles weißt.

Zitat: Zitat von Rampage 2 (Beitrag 11807050) Von Crytek hört man in letzter Zeit überhaupt nichts mehr:| Ganz ehrlich, als ich die Meldung gelesen habe dachte ich "Was die gibts auch noch?":freak:

Wenn ich namhafte Spielefirmen aufzählen müsste, wären die in der Liste gar nicht mehr vorhanden.

60Hz zu langsam für egoshooter?

Do, 20.09.2018 18:55
Danke für die Bestätigung...

Noch warten oder lohnt sich Neuanschaffung? Würde mein Vorhaben funktionieren?

Do, 20.09.2018 15:00
Hört sich an, als ob deine Kiste sowieso kein allzu langes Leben mehr vor sich hat. Dein Vorhaben klingt soweit machbar. Schau dir vorher vielleicht mal ein paar Guides zu GPU Passthorugh an, wie z.B. http://mathiashueber.com/amd-ryzen-b...nd-windows-10/

Post-K Prototype auf der ISC

So, 16.09.2018 09:17
https://www.nextplatform.com/2018/09...-interconnect/

Geht es nur mir so,oder findet sonst noch jemand die Argumentation des Redakteurs ziemlich verrückt mit der Bisectionsbandbreite?

Ich will doch eine Bisectionsbandbreite die Unterlagen Bereich der injection bandwidth ist da das Mapping der Prozesse auf die nodes kacke egal ist...

Das macht den Job für die Entwickler und auch für den Job sheduler einfacher.

Also Tofu D überzeugt mich jetzt wieder nicht im Vergleich zu Aries.

Interessant wird halt das weitere Material und echte Benchmarks.

Und ja viele Probleme lassen sich auf nearest neighbour Mappen. Aber es gibt auch viele Probleme bei denen man allreduce mit scatter braucht oder halt auch entfernte Knoten braucht zur Kommunikation.

Zudem empfand ich das Job placement auf der fx100 mit tofu2 echt ziemlich sperrig. Da muss man echt aufpassen was man macht.

Und am Ende findet dann drr sheduler schwieriger entsprechende Knoten was den Durchsatz bzw die Auslastung der Maschine reduziert.

Unlimited Detail: Vaporware oder die Zukunft der Grafik?

Mo, 03.09.2018 12:08
So, habe mal etwas recherchiert... google benutzt.

Was Technologisch aktuell wohl am weitesten an Hologramme dran kommt ist Kio-Mo https://kino-mo.com/
Natürlich ist es kein Hologramm welches im Raum steht, sondern eher ein rotierendes Display.
Aber wenigstens wird hier nichts verschwiegen und die Technologie dahinter erklärt.

https://www.youtube.com/user/OldBondLondonLtd/videos

Aufs echte Holodeck müssen wir wohl noch warten.

MicroLED Displays

So, 02.09.2018 13:18
Wenn man bedenkt, wie lange Apple für OLED gebraucht hat, gibt es die MicroLEDs vermutlich erst im iPhone 20...

Mfg
Rooter

Unreal Engine 4

Fr, 24.08.2018 23:21
Zitat: Zitat von Raff (Beitrag 11779717) Das Studio hat bereits Gravel mit der Engine umgesetzt. Das sah dufte aus, wobei man da etwas langsamer fährt. Kann man da nicht einfach die Pool Sizes erhöhen, damit möglichst viel im (V)RAM vorgehalten wird?

MfG,
Raff Kannst du, ist halt echt viel Aufwand das zu balancieren.
Ich würd sogar soweit gehen zu behaupte , dass das Streaming einfach kaputt ist bzw. glaube ich sogar noch aus UDK Zeiten.

Evtl. hat das Studio die Engine an der Stelle verändert.

Eigentlich wollte Epic das Texturestreaming schon längst neu bauen...