Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 45 Minuten 31 Sekunden

OLED macht Fortschritte

vor 7 Stunden 32 Minuten
Ja der Grund nennt sich Kosten....

Ich sags jetzt zum letzten mal. Du bist da im Bereich von µs und das weiß ich, weil ich in der Entwicklung von so Interfaces beteiligt war. Wenn du Leuten mit 1. Hand Erfahrung nicht glaubst, dann kann ich dir auch nicht helfen.

Dein Problem gerade ist auch, dass du mehrere Dinge vermischst. Du vermischst die reine Datenübertragung mit pre und postprocessing.

Die Wandlung Analog->Digital sollte in der Regel auch für keinerlei Latenzen sorgen. Du samplesed ja das Signal mit einigen kHz. Wenn ich mich nicht täusche dann so 200kHz rum. Das Signal kommt vorne rein und hinten digitalisiert wieder raus. Das geht ziemlich schnell. Was natürlich sein kann ist, das wieder mal irgendein bescheidenes Postprocessing gemacht wird, was rotze langsam implementiert ist, bzw. eben über zu große Zeiträume, damit man alle möglichen Störungen rausfiltern kann, die man nicht haben will. Und auch da läuft es auch oft wieder auf eine Kostenfrage hinaus. Es ist halt gut genug, warum da also riesige Kosten verursachen die sich nicht amortisieren?

Daher nochmals meine Bitte, sei da nicht so Pauschal sondern zeige mit dem Finger auf die Punkte, wo wirklich die Latenz herkommt (Pre-/Postprocessing) und nicht auf die Datenübertragung.

Unreal Engine 4

So, 26.02.2017 21:45
https://software.intel.com/en-us/art...utorial-part-1
Unreal Engine 4 Optimization Tutorial, Part 1 to Part 3

HDR ab 2016/17 auch bei Spielen dank Unterstützung bei neuen Grafikkarten & Monitoren

Sa, 25.02.2017 20:59
Damit hat man dem "ordinären" Volke ,aber gleich den Beweis mit geliefert ,das HDR/Dolby Vision,nicht gekoppelt ist an 4k Scheiben

Das konnte man ja bisher sehr gut unter HDMI 2.0 verstecken, und nur die Nerds wussten das da mehr geht bis runter zur BluRay

Mal sehen wann Hollywood sich erbarmt und die ersten BluRays mit den Standards released

Amazon Lumberyard auf Basis der Cryengine

Sa, 25.02.2017 11:19
Er hat aber recht. Man muss sich schon auf gewisse Standards einigen, wenn man miteinander kommunizieren will. Ich rede auch nicht von einem Stuhl, wenn ich ein Auto meine, nur weil mir das gerade passt.

Steam Audio: Next-Gen Spatial Audio Tech

Fr, 24.02.2017 21:49
Zitat: Zitat von Loeschzwerg (Beitrag 11300945) Marktmacht ist da ziemlich egal wenn die Implementierung Zeit/Geld in Anspruch nimmt und sich das Feature nur "schlecht" verkaufen lässt. Audio hat leider einen viel zu geringen Stellenwert und daran ist auch der AMD Entwurf gescheitert.

Edit: Ich habe Hoffnung dass die Sache im Zuge von VR an Fahrt aufnimmt, für normale Games aber eher nicht. Ich glaube es kommt auf die Games an, Spiele wie Alien Isolation oder RE7 leben von Sound. Wenn man "es" sieht, dann ist es meist zu später ... ;)

Beim potenzial kommt es auf den Spieltyp an und wahrscheinlich auch wie gut das SDK integrierbar ist und/ob Lizenzkosten anfallen.

Mit Steam, Unity und der Unreal Engine klingt es aber so als ob schon ein paar entschiedene Schritte genommen wurden.

DirectX 12 Grafik-API

Do, 23.02.2017 18:07
Sniper Elite 4 DX12 1080 SLI.

https://youtu.be/4qMl9RX5r5w


Das Scaling ist wirklich der Hammer 100fps@4k Ultra.

Vulkan Grafik-API

Mi, 22.02.2017 00:34
SteamVR for Linux (Beta)
GitHub (Release Notes)

SteamVR/Linux ist soeben als Beta gelaunched. Es wird (vorerst?) keinen OpenGL-Support geben, sondern man setzt voll auf Vulkan. Aus diesem Grund stellt Valve gerade auch mehr und mehr Treiberentwickler für den freien AMD-Treiberstack ein.

Einer der drei kommenden VR-Titel von Valve setzt auf die Unity-Engine, aus diesem Grund hat Valve derzeit auch ein starkes Interesse daran, den Vulkan-Support in Unity voranzutreiben.

#edit:

Von Valve gibt es jetzt über GitHub einen speziellen radv-Treiberbuild mit Vulkan VR-Extensions für AMD, die noch nicht offiziell veröffentlicht wurden/Teil von Vulkan 1.0 sind. Valves Destinations und Dota2 VR für SteamVR/Linux sind inzwischen ebenfalls veröffentlicht und laufen ebenfalls erstmals auf Vulkan (nutzen unter Windows nutzt derzeit DX11).

Aber die GDC ist ja auch vor der Tür...

Bessere Monitore?

Di, 21.02.2017 08:01
Zitat: Zitat von Ex3cut3r (Beitrag 11292611) OLED vlt. In 2-4 Jahren, auf dem PCGH YouTube Channel gibt es ein kleines Interview mit dem LG Deutschland Boss, auf die Frage wann man denn mit OLED Monitoren rechnen konnte? Antwortete er, Sry aber die OLEDS kranken noch am Einbrennen, wenn man seinen Desktop ein paar Minuten anzeigt, also z.B kurz mal AFK ist. :freak:

Also sry, aber deine feuchten Träume musst du erstmal wieder einpacken.

Deswegen wurde auch dieser 30" 4K Dell OLED eingestellt.
So wild ist das nicht. Es ist kein einziger Fall bekannt wo beim Alienware 13 OLED was eingebrannt ist.

Ich nutze im Wohnzimmer den ganzen Tag mein LG 930 V OLED mit angeschlossenen HTPC für Spotify und andere statische Programme seit 2 Jahren und es ist noch nix eingebrannt.

Habe damals extra eine 5 Jahres Garantie abgeschlossen, aber ich denke kaum dass ich die brauchen werde auch bei weiteren 3 Jahren statischer Nutzung.

Intel/Micron 3D XPoint

Mo, 20.02.2017 14:17
Ihr dürft auch nicht übersehen, daß die aktuelle dargestellte Performance ebenso weit von den Presseerklärungen liegt.

Neue Technologien

Mo, 20.02.2017 08:55
Zitat: Zitat von Ximitan (Beitrag 11296298) Hallo Leute,

bin noch ziemlich neu und freu mich ein Teil der Community sein zu können.
Leider hat mir die Suchfunktion nicht das gewünschte Ergebnis gebracht.

Vielleicht könnt ihr mir ja auf die Frage ein paar Ratschläge geben.
Könnt ihr mir ein paar Seiten im Netz empfehlen über zukunftsträchtige Technologien, Trends aus der IT? Freue mich über gute Quellen.

Bin für jede Antwort dankbar.


LG

Xt das ist leider etwas zu weit gesteckt - darauf kann dir niemand eine Antwort geben.. meinst du generelle Makrotrends? Forschung? bald ernscheinende Consumer Produkte? Testberichte? Technologieerklärer? Programmierung? Hardware? Netzwerk? "Social"?

wenn du deine Frage etwas mehr konkretisierst werden wir sicher was für dich finden.

Mobiler Enthusiasten ITX PC unter 5kg, vergesst Laptops & externe Grafik!

Mi, 15.02.2017 17:46
Ich möchte euch mal ein paar Bilder von meinem bisheriger mobiler ITX-Rechner zeigen, aufgebaut in einem Node 202 Gehäuse, auch weil immer wieder Kommentare kommen dass man mit normaler Desktophardware nicht in die Größen und Gewichtsregionen von Notebooks kommen kann.


Hier sieht man auch deutlich wieso das Node 202 in jeden ordentlichen Laptop-Rucksack passt: Das Grundmaß ist ähnlich dem eines 15" Gaming-Notebook (im Bild mein Alienware 15 R3)



Nun zur Hardware:
Als Display fungiert ein 21,5" TFT: ein LG E2290V mit entferntem Fuß, die Elektronik im Fuß ist auf die Rückseite umgezogen. Das Netzteil (19V) wurde im ITX-Gehäuse untergebracht. Der reine TFT wiegt 2091g, wobei hier vermutlich noch ein Großteil auf das Konto des Metallgehäuse geht. Leider passte der nicht in den Rucksack, er wurde immer im Trolli zwischen meinen Klamotten transportiert. Ich habe das Display an einer Halterung am Gehäuse eingehängt und per kurzes DVI-Kabel mit der Grafikkarte verbunden. Siehe Fotos. Das ganze Setup überlebte weit mehr als 10 Langstreckenflüge ohne Probleme.








Das Bild zeigt mein kompletter Rechner, inkl 3 Festplatten, 2x 120mm Zusatzlüftern, einem 19V LCD-Netzteil und viel zu viel Kabel. ;)
Nur die nötigste Hardware zum Gamen und ne moderne M.2 SSD und man ist wesentlich leichter!




Hier ein paar Einzelgewichte:









Node 202 Gehäuse ohne Plastikschale: 873g
Silverstone 600W ITX-Netzteil: 930g
ITX-Mainboard inkl CPU, Kühler und 2x RAM: 842g
Asus GeForce GTX 780 Ti DC-II Grafikkarte: 1131g

Macht ein Gesamtgewicht von 3,8kg. Fehlen noch ein paar Gramm für Kleinkram wie Kabel, Gehäuselüfter und ne M.2 SSD, viel kommt da nicht zusammen.

Mit dem 15" TFT Asus MB169C+ (800g) lägen wir insgesamt bei 4,6 kg.
So ein 15" hätte übrigends ziemlich exakt die Maße wie das Seitenteil des Node 202 Gehäuses, und würde auch in den Rucksack passen.

Optimalerweise könnte man das Gehäuse auch aus Carbon bauen und an den TFT anpassen. :D

Dieses Gewicht ist wohlgemerkt mit einer Custom-Grafikkarte und einem Desktop i7 inkl ordentlichem Kühler. Das Gewicht wird sich bei einer 8-Kern CPU und einer Titan-X nicht weiter erhöhen, wir haben aber im Vergleich zu einem 5kg Notebook ca die doppelte Gaming-Leistung. :cool:

CryEngine 5

Sa, 04.02.2017 19:38
Ghost Warrior 3 läuft relativ gut auf meinem alten FX 8320,hätte mir das schlimmer vorgestellt,da das Game jetzt Open World ist und noch DX11 nutzt.Ist ja auch noch Zeit bis es erscheint,hab aber jetzt kein Plan welche Engine Version das ist.

https://mega.nz/#!JBlXQK6B!poYLrX34T...EJ1JoaxUXyuS5I

Auflösung, AA und AF

Mo, 23.01.2017 21:08
Zitat: Zitat von Foobar2001 (Beitrag 11273341) Er irrt sich da aber, die Rauscheffekte nehmen mit hoeherer Aufloesung natuerlich ab, weil man mehr Samples hat. Danke für die Bestätigung; genau das entspricht auch meinem Verständnis des Problems. :)

Exklusiver Vollbildmodus

Mo, 23.01.2017 15:36
Spannend wird Microsofts Win10-März Update, auch fehlt noch die HDR Unterstützung die bis heute ein abschalten von fullscreen exclusive vorraussieht,
vom wirklichen fehlerfreien Freesync Fenstermode mal ganz zu schweigen.

31.Januar gibts Hitman mit 10bit HDR auf dem PC,
nur an welchen Displayport Monitor werden wir das Testen können mit Freesync?

profitieren auch alte Spiele von HDR?

Sa, 21.01.2017 01:25
Zitat: Zitat von Gast (Beitrag 11269066) Würden auch Spiele aus der Prä-HDR-Ära von HDR-Grafikkarten und -Monitoren profitieren? MMn nein, weil sie erst 'geupscalt' werden müßten. Wahrscheinlich werden die vorliegenden Daten interpoliert, was nicht den gleichen Effekt hat.

Die-Shots selbstgemacht: Ein How-To (OC_Burner)

Di, 17.01.2017 08:55
auch von mir vielen Dank für den Hinweis! :) leider ist das Flickr-Fotoalbum etwas hakelig und unübersichtlich :/

HSA, hUMA, etc. - was tut sich aktuell?

Mo, 16.01.2017 13:08
Zitat: Zitat von Leonidas (Beitrag 11266545) Ich seh auch keinen ganz besonderen Sinn in diesen großen iGPUs. Silizium-Verschwendung - ganz besonders im Fall der bisherigen AMD-APUs, wo man besser mehr CPU-Kerne mitgegeben hätte.

Der interessanteste Punkt an AMD-APUs sind sowieso die IP & Treiber, welche die gleichen wie die für Desktop-Grafikkarten sind - damit ist bestmöglicher Spielesupport garantiert. Da kommt Intel niemals ran. Für ein Allround-System ist diese sichere Spielekompatibilität viel wertvoller als mehr fps. Ich denke AMD plant mit Naples und ROCm einen neuen Anlauf unter Linux, nur sind es diesmal Server APUs.

Beim Desktop hat bisher einfach die Bandbreite gefehlt - mal schauen ob sich das ändert und wenn ja, wie es angenommen wird.

Zitat: Zitat von aufkrawall (Beitrag 11266716) Für APUs bringt AMD oft über viele Monate keine Treiber-Updates. Es gab letztes Jahr eine größere Lücke - "oft" würde bedeuten das es regelmäßig passiert. Die zweite Frage wäre, wie die das Nutzerverhalten bei APU Käufern ist. Evtl. gibt es nur einen sehr kleinen Teil der immer den aktuellen Treiber will? Läuft dann auf Kosten und Nutzen raus ... im v16.12.2 scheinen die APUs dabei zu sein.

Alternativ könnte der HSA-Stack auch manchmal die Verzögerung erzeugen, das muss ja auch getestet werden und ggf. Entwicklungen angepasst werden.

Storj - Die dezentrale Cloud

Sa, 14.01.2017 12:09
So, habe mir jetzt einen angeschafft und stehe vor dem nächsten Problem.

Ich weiß nicht, wie ich die Software ohne PC zum laufen kriege.

Im QNAP App Center gibt es nichts entsprechendes und für eine anderweitige Einrichtung finde ich keine Dokumentation.

Hat es irgendjemand auf einem NAS laufen ? Wenn ja, wie ?