Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 9 Stunden 25 Minuten

Bessere Monitore?

Mi, 26.06.2019 22:13
gibt es monitore die das nutzen ?

OLED macht Fortschritte

Mi, 26.06.2019 13:53
Samsungs OLEDs waren schon immer besser, schade dass sie es nicht geschafft haben diese zu vernünftigen Preisen zu produzieren.

MicroLED Displays

Mi, 26.06.2019 10:29
https://www.reddit.com/r/hardware/co...dpi_5000x4000/

Was mit monochromen Displays schon geht ist echt krass.

Real-time RayTracing

Fr, 21.06.2019 20:14

Unity 5

Sa, 15.06.2019 11:02
Zitat: Zitat von Kartenlehrling (Beitrag 12022740) Contrast Adaptive Sharpening in Unity
https://clips.twitch.tv/PleasantSecr...?sf214339703=1
Überzeugt mich nicht. Ich hab mindestens 3x hin- und herschalten müssen um überhaupt den punkt zu finden wo zwischen "normalem" upscaling und CAS gesprungen wird.

DLSS kann hier auf jeden Fall bedeutend bessere Ergebnisse erzielen

Vulkan Grafik-API

Mi, 12.06.2019 16:39
Es ist ihnen einfach den Aufwand nicht wert. Mesa und Gallium sind nunmal fuer Linux/DRI gebaut. Dazu hat man sich in Mesa lange compatibility profiles verweigert, die legacy "Profi"-Software oft braucht. Deshalb zieht man ja im "pro" Stack auch bis heute noch den schrottigen closed OGL Treiber auf Linux mit.

Ausserdem hat AMD eine Plattformuebergreifende Abstraktionsschicht. Wenn ein einzelner Treiber die ausnahmsweise nicht benutzt, ist es wieder mehr Aufwand.

Mobiler Enthusiasten ITX PC unter 5kg, vergesst Laptops & externe Grafik!

Mi, 05.06.2019 07:04
Zitat: Zitat von Ultron (Beitrag 12013212) Welche Tastatur hat er da in dem Video? Das müsste eine Rii Mini K12 sein:
https://www.amazon.de/Rii-Bluetooth-.../dp/B01BKUX8KM

Sind Quantencomputer in 3 Jahren das Maß aller Dinge?

Di, 04.06.2019 11:38
Wie weit sind wir da eigentlich HEUTE? Mir ist das gestern überm Bildschrim geflattert
https://www.zdnet.de/88351283/ces-ib...ielle-nutzung/

20 Qubits. Nicht so die Welt oder? :tongue: Das Design der Kiste ist wirklich Wow :smile: Haut um :)

Ok. Technik. Wie sieht das mittlerweile mit der Fehler-korrektur/-toleranz aus?
Ich hab schon was ab 5 reale Qubits nötig gehört, um sicher einen "logischen" Qubit zu betreiben bis zu "topologische Quantencodes" die dafür nur einen Verschnitt von ~3% der Qubits postulieren (??)
Weiß wer wie das beim SystemOne realisiert ist? Stabilität ist natürlich das A&O. Fehlerkorrektur ist aber grad beim Quantenrechner garnicht so ohne. Und, ohne, kommt er anscheinend auf keinen Fall aus.

API Wrapper (WINE, DXVK, vkd3d, MoltenVK, dgVoodoo, ...)

So, 26.05.2019 13:13

Eigene Mesa- und DXVK Pipeline-Caches gelöscht, gestartet und es läuft absolut sauber. :eek:
Da auch Caches für Mesa ausgerollt werden, dürften Spiele mit verkacktem Shader Precompile sogar sauberer als unter Windows nach dem ersten Start laufen. ;D

Btw:
Mit proton-tkg kann man sich ganz einfach eigene Proton-Versionen kompilieren, die sich sauber in Steam Play integrieren:
https://github.com/Tk-Glitch/PKGBUIL...ter/proton-tkg

Basis Texture Codec wird Open-Source

Do, 23.05.2019 17:51
Binomial (vor allem bekannt durch Rich Geldreich, Ex-Valve-Entwickler) und Google haben gerade den Basis Texture Codec als Open-Source released.

Da geht es im Prinzip um effiziente und hochqualitative Texturkomprimierung.

Ich bin natürlich nicht ganz im Thema drin, aber für mich sieht das schon wie ein beeindruckender Schritt aus, gerade in Verbindung mit den Möglichkeiten durch WebGL.

Was sagt ihr dazu?

https://opensource.googleblog.com/20...r-to-open.html
Zitat: The Basis Universal texture format is 6-8 times smaller than JPEG on the GPU, yet is a similar storage size as JPEG – making it a great alternative to current GPU compression methods that are inefficient and don’t operate cross platform – and provides a more performant alternative to JPEG/PNG. It creates compressed textures that work well in a variety of use cases - games, virtual & augmented reality, maps, photos, small-videos, and more! https://github.com/BinomialLLC/basis_universal

Gibt es die Möglichkeit einer echten HDR Fotografie?

Do, 23.05.2019 08:24
If you have been photographing for more than a year or two, you will have heard about HDR (which stands for High Dynamic Range). We have probably seen them, the “overcooked”, over processed HDR images that float around the photo websites.

DirectX 12 Grafik-API

Di, 21.05.2019 01:00
Variable Rate Shading is a new DirectX 12 API that lets developers increase image quality and improve framerates.
VRS gives developers fine-grained control of a game’s shading rate, making it simple to selectively reduce unnecessary detail with minimal code changes.
It’s a powerful, versatile tool that we believe is the next step to unlocking performance for amazing visuals on modern GPUs with native VRS support.
Come see a deep dive on how the API works and hear from our partners who’ve already had success using it.

Boost rendering performance with Variable Rate Shading | Game Developers Conference 2019

HDR ab 2016/17 auch bei Spielen dank Unterstützung bei neuen Grafikkarten & Monitoren

Mi, 15.05.2019 14:16
Zitat: Zitat von deekey777 (Beitrag 11769690) Was genau soll dieses Video bringen? Nicht nur, dass es am Threadthema mit Lichtgeschwindigkeit vorbeirauscht:

Es ist keine Falle, sondern Amazon wirbt mit falschen Daten. Das könnte man als Betrug verstehen. Ein Highspeedkabel wird mit Daten eines Premium Highspeedkabels beworben*.

Ich bin mir auch nicht sicher, dass Highspeed bei HDR überhaupt RGB bzw. 4:4:4 bei 4K@60 Hz technisch möglich ist, sondern maximal Unterabtastung mit 4:2:2 (oder gleich 4:2:0). https://en.wikipedia.org/wiki/HDMI#R...or_HDR10_video


*Das hatte ich übrigens auch vor paar Monaten. Im Onlineshop von Saturn wurde ein Hama-HDMI-Kabel explizit mit 18 GBit/s beworben, tatsächlich war es jedoch ein Highspeedkabel. Und der funktioniert genauso gut oder schlecht wie das HDMI-Kbel, das meiner Xbox One (nicht S oder X) beilag. Bei 4:2:2 und HDR (4K und schon bei 24 Hz) tauchten aufeinmal Bandingartefakte (Apple TV4K -> Fernseher), die aber nicht durch Kabelwechsel, sondern durch Aus- und Einschalten des Fernsehers verschwanden. Ja nach der Tabelle im Wiki irgendwie nicht :confused:
Da müsste tatsächlich bei 4:2:2 Schluss sein.

Ich frage mich ob das wie bei eARC über HDMI 2.0b ist. Laut der Tabelle werden ca. 15 Gbit pro Sekunde gebraucht. Jetzt hat man aber ein Kabel was 18 Gbit pro Sekunde schafft, eventuell geht dann da 4:4:4 durch und die Datenmenge reicht.

Meiner Xbox One X lag ein HDMI Kabel von MS bei, sieht jetzt nicht besonders spektakulär aus, schafft aber 4k, HDR, Farbtiefe 36 bit, Dolby Atmos / DTS ohne Probleme. Damit hatte ich bisher überhaupt keine Schwierigkeiten.

Mein Apple TV 4k habe ich mit einem HDMI 2.0 Premium Kabel angeschlossen. Laut Menü gibt das Apple TV 4k, Dolby Vision, 4:4:4 aus, TV erkennt das auch, Dolby Vision wird aktiviert, etc. . Allerdings kommt es ab und an vor, dass NACH! einem Film oder Serie, wenn ich ins Hauptmenü zurück gehe, das Apple TV sagt es könne die HDMI Verbindung nicht aufrecht erhalten. Dann klicke ich das weg und alles funktioniert weiterhin. Keine Ahnung ob das ein Kabel oder ein Handshake Problem ist. Es ist aber noch nie während der Wiedergabe aufgetreten.

Trotzdem gestaltet sich der Kauf eines HDMi Premium Kabels ein bisschen wie ein Lotteriespiel :freak:

CryEngine 5

Sa, 11.05.2019 08:10
Zitat: Zitat von aufkrawall (Beitrag 11991094) Wieder CB-typisches Müll-Geschreibsel:
https://www.computerbase.de/forum/th...#post-22627606 Wayne Papier ist geduldig ist genau das selbe wie bei Epic nicht mal ihr eigenes Aktuelles Games nutzt es,der weite Einsatz wird 2020 sein.

Künstliche Intelligenz in Games?

So, 21.04.2019 18:07
dagegen ist total war warhammer ii ja ein richtiger Genuss!

Apple Card - Die Kreditkarte ohne Nummer

Do, 28.03.2019 15:51
Zitat: Zitat von Daredevil (Beitrag 11959445) Die Apple Card ist in Partnerschaft mit Goldman Sachs entstanden und soll beim Online und Offline bezahlen ein neues Level an Privatsphäre und Sicherheit schaffen, da niemand deine Nummer erfahren kann und Goldman Sachs als auch Apple nicht wissen, was, wo und wie viel du gekauft hast. das geht doch rechtlich gar nicht.
Wäre ja der traum für jedes illegale geschäft und geldwäsche. :rolleyes:

[H]ardOCP schließt die Pforten

Mi, 20.03.2019 18:20
Zitat: Zitat von kruemelmonster (Beitrag 11953649) Kondolenz, er war doch noch so jung, etc pp.

Ja die Seite hatte früher guten und stellenweise auch einzigartigen Content....aber sie war auch augenkrebserzeugend hoch 10. Weiße Schrift auf schwarzem Untergrund, und dann nichtmal strukturiert sondern als Wall-of-Text einfach hingerotzt. Es war grauenhaft zu lesen.

Nein, meine Trauer hält sich in Grenzen, da hat mich der jeweilige Abgang von Scott Wasson sowie Ryan Shrout und Allyn Malventano mehr bewegt. da stimm ich dir zu. ich fand schon anfang der 2000er jahre https://techreport.com/ besser.

RTX=off: Crytek stellt neue RayTraycing-Demo für Vega-Hardware vor

Mo, 18.03.2019 19:18
Zitat: Zitat von Daredevil (Beitrag 11952101) Das alles ändert aber trotzdem nichts daran, dass RT Einheiten anscheinend aktuell deutlich effizienter sind.
In BF5 @ WQHD @ RT High verbraucht meine 2080ti "nur" ~180w. Das war mit dem ersten RTX-Patch. Mit dem nachfolgenden RTX-Patch, der massig Performance mit Raytracing brachte ist der Verbrauch auch wieder in üblichen Gefilden angelangt.

Zitat: Die RT Einheiten sind hier also ( vermutlich ? ) der Flaschenhals, so das der Rest der Karte relativ unbelastet bleibt. Soweit ich mich erinnern kann war in der ersten RTX-Umsetzung von Battlefield ein Problem, was verhindert hat, dass Dinge die eigentlich parallel laufen können seriell abgearbeitet wurden, was auch zu wesentlich schlechterer Performance, aber auch geringerem Verbrauch führt.

Da gab es sowohl einen neuen Treiber, als auch einen neuen Spielepatch der das behoben hat.

Generell sind die RT-Einheiten zumindest im Moment, nicht der Flaschenhals, wie die komplette RT-Umsetzung von Quake 2 zeigt.

Was oft Vergessen wird, und dann zu der Behauptung führt, wie schrecklich ineffizient Raytracing in Turing doch ist, ist dass die RT-Kerne einzig die Suche nach dem getroffenen Polygon beschleunigen. Wenn das gefunden wird braucht es immer noch eine Farbe, und die wird ganz gewöhnlich durch einen Pixelshader ermittelt. Raytracing braucht auch entsprechend viel Leistung im Shader, und da man in den aktuellen Hybrid-Renderern auf der Rasterizing-Seite mit Raytracing nicht wirklich viel einsparen kann, braucht das eben auch entsprechend Leistung.