3DCenter Diskussionsforen

AMD - Zen 2/Ryzen 3000 Review-Thread

Prozessoren und Chipsätze - vor 2 Stunden 1 Minute
Biostar: AMD B550 Motherboards Are Ready

https://www.tomshardware.com/news/am...el-400-chipset
------‐--------------
AMD's B550 motherboard will natively support the PCI-E 4.0 channel provided by the Ryzen 3000 series CPU, while the chipset itself only supports PCI-E 3.0, but compared to the AMD 400/300 chipset that only supports PCI-E 2.0. It is a big improvement. The B550 can provide 2 USB 3.2 Gen 2 and 6 USB 2.0 interfaces. The number of PCI-E channels provided is temporarily unknown.

https://translate.googleusercontent....7Bpq5nSmPDzjYw

OLED macht Fortschritte

Neue Beiträge im Forum Technologie - vor 4 Stunden 3 Minuten
Zitat: Zitat von Dorn (Beitrag 12146989) Naja immer schön den Darkmode benutzen xD Das ist auf vielen AMOLED-Panels derzeit kein Genuss, weil das Vertical Banding kickt. Reddit, YouTube, Windows Dark Themes: Mit ungleichmäßig leuchtenden Grautönen ist das alles relativ störend. Nutze derzeit ein 15,6" AMOLED (Dell XPS 15) ausschließlich mit hellem Windows/GUI. Die Akkulaufzeit leidet subjektiv nicht allzu sehr darunter, weil afaik ein 97 Wh-Akku verbaut ist. Der gleicht den hohen Verbrauch ein bisschen aus. Ein "echtes" Dark-Theme (OLEDs sind teils aus) würde jedoch den Kontrast so immens steigern, dass erst recht kein angenehmes Arbeiten mehr möglich wäre. Mir ist das Weiß selbst bei 60% manchmal zu hell, wenngleich der Weißpunkt ab Werk angenehm gesetzt ist.

Samsung sollten für die kommenden Revisionen echt mal schauen, dass sie das Banding wegbekommen oder andersrum der Qualitätskontrolle mal auf die Füße treten.

VIA - VIA/Zhaoxin OctaCore processor + new ZX-100S chipset

Prozessoren und Chipsätze - Mo, 18.11.2019 21:07
Centaur’s new CPU is the first x86 with an AI co-processor
They’re baaaack!

Zitat: The core sports AVX-512 and all the latest goodies fed by four channels of DDR4/3200. source: https://www.semiaccurate.com/2019/11...-co-processor/

AMD/ATI - Radeon RX 5700 & RX 5700 XT Review-Thread

Grafikchips - Mo, 18.11.2019 20:50
Zitat: Zitat von horn 12 (Beitrag 12146982) XFX Aktuellstes Modell, Thicc III für 440 Euro bei Amazon.it

https://www.amazon.it/XFX-2025MHz-Sc...4100989&sr=8-1 Bei Mindfactory 428 €

Meltdown & Spectre: Sicherheitsrisiken durch Spekulation bei aktuellen Prozessoren

Prozessoren und Chipsätze - Mo, 18.11.2019 20:23
@woodsdog & @badesalz: Euch ist schon klar, daß ihr im Grunde dasselbe schreibt :confused: (Stichwort: ALLE)

AMD - Ryzen mobile (Raven Ridge) Review Thread

Prozessoren und Chipsätze - Mo, 18.11.2019 10:12
Zitat: Zitat von MSABK (Beitrag 12145599) Kann man bei den Lenovo Geräten eine andere Wlan-Karte einbauen oder sind diese geblockt? kommt auf das notebook an. bei den consumern ist das häufig möglich. bei meinem 720s-13arr ging es problemlos.

Neue Rechnerkonzepte und Grafik - kein nennenswerter Fortschritt?

Zitat: Zitat von blackbox (Beitrag 12146283) Ich frage mich auch, warum es immer noch diese blöden Pins gibt, um das Gehäuse (bzw. Powerswitch, LEDs etc.) mit dem Mainboard zu verbinden.

Ich meine, nach 20 Jahren sollte man diesen Mist doch mal ersetzt haben?

Und wer braucht heute noch eine serielle oder parallele Schnittstelle auf dem Mainboard?
Das abschreckende Beispiel war ABIT. Niemand kommt auf die Idee auf die Anschlüsse zu verzichten, damit Otto Casual seine 10 Jahre alten Festplatten weiter nutzen kann. Dickere Mainboards haben die Power/HDD LEDs auf dem Mainboard. Und die kannst du nicht komplett abschalten. Neue Gehäuse verzichten auf die LEDs. Wenn der Rechner an ist, dann leuchten die RGB Lüfter.

Von mir aus könnten sie ein Mainboard entwickeln, dass nur noch das hat, was man derzeit beim Neukauf bekommt: kein Sata, keine weiteren PCI-E, kein Thunderbolt, kein HDMI 1.4 bzw. Onboard Grafik, kein Onboardsound. Da reicht schon ITX aus.

Nur hat Asrock seine Highend OC Boardserie trotz guter Presse + Feedback eingestellt und Asus hinkt immer noch beim Support. MSI konzentriert sich mehr auf Qualität. Der Markt spielt sich bei unter 200 Euro ab. Dicke Boards bekommen eben nicht den besseren Support.

Unreal Engine 4

Zitat: Zitat von Karümel (Beitrag 12144340) Möchte dafür kein extra Topic aufmachen, deswegen die Frage hier:

Wie groß ist eigentlich (so ganz grob wenn man das überhaupt angeben kann) eine Engine für mehrere Kerne zu optimieren bzw. skalieren. Und ist der Aufwand groß je mehr Kerne "unterstützt" werden. Also mehr Kerne wesentlich mehr Aufwand oder ist das eher weniger? Das lässt sich so ohne weiteren Kontext nicht sagen. Wenn die Engine (oder jedes Programm eigentlich) nicht auf Multi Threading vorbereitet ist, dann bedeutet das quasi neu schreiben.
Je mehr Kerne unterstützt werden müssen, desto mehr Aufwand ist das in der Regel. Die anstehende Arbeit lässt sich nicht beliebig klein aufteilen beziehungsweise kostet eine fein granulare Aufteilung auch wieder Performance (Memory bandwidth, caches flushes und sizes, ... ).

Auf dem PC ist generell ein grossses Problem, dass die CPUs so unterschiedlich sind: Auf der Konsole hat man genau ein Target zu treffen. Auf dem PC muss ein Octacore nicht schneller als ein Quadcore sein (AMD FX vs aktueller i5). Dazu kommen Mindestanforderungen, die erfüllt werden müssen seitens der Hardware. Und Hardware und Software skaliert nicht linear (auch wenn Cinebench das gerne tut).

Ingesamt ist das ein schwieriges Thema.

Subtiming Tuning

Prozessoren und Chipsätze - So, 17.11.2019 10:22
Ich habe festgestellt dass Spiele, die eine relativ niedrige Hitrate im Cache haben ziemlich stark an die Memorylatenz gekoppelt ist. Also ist es völlig logisch, diesen Wert als Optimierungskriterium zu sehen.
Im GTA5 Benchmark im CPU Limit schlug das nahezu linear durch.

Ich tippe darauf, dass das für Open World Spiele im Besonderen (aber ggf nicht immer) zutrifft. Ich tippe darauf, dass das Instructionset größer ist und somit die Hitrate abnimmt.

Die Kette zur Memorylatenz besteht aus mehreren Gliedern. CPU Takt, Fabric Takt, IMC Takt, RAM Latenz. Wenn man die Gesamtlatenz reduzieren will, muss man alle Glieder der Kette optimieren. :)

Performance & Enthusiast: Aktuelle Grafikkartenpreise #2

Grafikchips - So, 17.11.2019 09:01
Weil du dann bei jedem Treiberwechsel wieder neu rumfummeln darfst. Ich glaube das würde mich nerven. Muss man aber natürlich nicht, da hast du Recht.

Real-time RayTracing

Zitat: Zitat von gnomi (Beitrag 12144357) Turing speziell finde ich hier heftig, weil da ja nicht einmal was zusätzlich hardwarebeschleunigt ist. Ein Problem warum Raytracing auf GPUs nicht so toll läuft obwohl es eigentlich perfekt parallelisierbar ist ist das dadurch verurachte Cache Trashing.

Turing wirkt dem ja beispielsweise durch deutlich vergrößerte Caches entgegen, das könnte also auch hier ohne Hardwarebeschleunigung helfen.

Intel Tremont Microarchitecture

Prozessoren und Chipsätze - Sa, 16.11.2019 21:02
Was kurz aus der Praxis zum Nachdenken... Kein Koder/Dekoder Mist.

Wenn ich eine SSE() Routine habe, die mir 34ms pro durchschnittlich 1s Rechnerei raushaut (Gesamtaufgabe), und ich sehe, wenn ich mich theoretisch gut anstrenge, komme ich mit AVX auf 46ms weniger, dann lass ich es.

Numbercrunching for Tremont... Hölle :freak:

AMD/ATI - Radeon VII: 699$ ab 7. Februar 2019 mit 16GB HBM2

Grafikchips - Fr, 15.11.2019 13:14
Übrigens: falls Interesse besteht:

Mit MorePowerTool und OversriveNTool ist die VII auch bei aktuellen Treibern einfach und stabil zu steuern, ohne den äußerst wackligen Wattman nutzen zu müssen.

Die Schritte dazu könnte ich hier auch posten.

Intel - Gemini Lake - Goldmont Plus

Prozessoren und Chipsätze - Fr, 15.11.2019 02:16
Der Pentium Silver 5005 ist verdamt gut, bietet praktisch Athlon 620 Leistung mit nur 10W TDP inkl. IGP.
Konnte diesen schon austesten dagegen sieht mein E450 gar kein Land mehr.

Nur hat dieser ebenso die Intel ME, also nichts für mich.
Daher wurde es eine GT 1030 für meinen E450 und UHD läuft.

nVidia - GeForce RTX 2080/Ti Review-Thread

Grafikchips - Do, 14.11.2019 13:26
Zitat: Zitat von Raff (Beitrag 12143522) In meinem Fall ist das schon mit UV. Das hilft dir da oben leider nur, die groben Ampere-Spikes und das Taktgezitter etwas einzudämmen. Komplett poweroffen wäre ... nun ja, sprichwörtlich auch Polen offen.

MfG
Raff ;D

Bessere Monitore?

Zitat: Zitat von 24p (Beitrag 12142771) Habt ihr bei euch im Jahr 2009 etwa noch Windows 98 genutzt? WinXP (und wenig Später Win7), aber bei Office geht es im Geschäftsleben erst mal um Funktionalität. Und was z.B. die wichtigen Serienbriefe angeht, waren bei 2010 gegenüber dem alten Office 2000 hier schon ein paar Abstriche zu machen, welche für die Buchhaltung einiges an Bauchweh mit sich brachten und damit Zeit und Geld gekostet haben. Nicht immer ist das neueste das beste und geeignetste. Würden gleich zu Office 2019 gehen, aber zwei wichtige Anwendungen unterstützen aktuell nur Office 2016 (vielleicht kommt die Freigabe für Office 2019 ja mit neueren Updates oder Versionen). Für uns als Benutzer haben die tollen "Ribbons" schlicht mehr Umständlichkeit mit sich gebracht oder andres ausgedrückt: Man muss sich durch mehr Menüs klicken als "früher", was aufwendiger ist und länger dauert. Aber man hat sich damit abgefunden. :(

Aber jetzt wieder zurück zu den Monitoren. 25 Zoll mit höherer Pixeldichte wäre in Ordnung, wenn alle Anwendungen sauber skalieren. Mal schauen, was die Zukunft bringt.;)

P.S.: LibreOffice 6.3 64 (aktuell genug?) und das Emisoft Emergency Kit skalieren genauso "schwammig" wie Office 2010.

ACO - Das neue Compiler-Backend für RADV

Das ist upstream + !1240. Der Benchmark spuckt hier verlässliche avg-fps aus, ist mit der 570 auch komplett im GPU-Limit.

Intel - Coffee Lake - Review-Thread

Prozessoren und Chipsätze - Mo, 11.11.2019 20:20
Zitat: Zitat von Lowkey (Beitrag 12141570) Stromsparmodi wie die C-States machen eigentlich nur die CPU langsam Zeig mal einen Test ab Skylake, der das mit Höchstleistungs-Governor im OS belegen würde.

DirectX 12 Grafik-API

Zitat: Zitat von Morgenlicht (Beitrag 12139700) Mit der Anwenung von Mesh-Shader ist also anzunehmen, daß damit der limitierende Faktor die Game-Geometrie ausgemerzt wurde? Zitat: Zitat von gravitationsfeld (Beitrag 12140219) Kann man so nicht sagen. Eigentlich ist es auch mit der klassischen Pipeline relativ schwer Geometrie limitiert zu sein. Im Allgemeinen sind die Art & Render-pipelines schon optimiert, so dass LOD etc. handling vorliegt. Über den gesamten Frame eines Games dominieren wegen des Shadings in der Tat andere workloads. Echte Geometrie-Limitierung ist eher bei ProViz (CAD, Film etc.).

Dennoch kann man aber in Teilbereichen limitiert sein. Ein AAA Game-Entwickler der das Vegetationssystem auf mesh-shader experimentell umstellte, berichtete von fast Faktor 2 Verbesserung. Ich selbst hab bissl weniger bei diverse Szenen für sowas wie shadow oder pre-pass messen können.
Aber es kommt eben stark darauf an was man schon selbst an Geometrie processing/lod/culling betreibt. Prinzipiell sind execute-indirect (GPU schreibt drawcalls selbst) und culling per compute shader immer noch sehr flott, verbrauchen aber mehr Bandbreite, und etwas mehr temporären Speicher. Instancing von sehr einfacher Geometrie ist auch nicht so wirklich performant, und man muss da bissl workarounds betreiben, das geht nun auch deutlich einfacher.

Mesh shader eher interessant je mehr man prozedural on-the-fly generieren kann (die Fließbänder aus satisfactory ;) ), das würde dann noch mehr Speicherverbrauch drücken. Es geht hier eher um Trends die Programmierbarkeit und Skalierbarkeit zu verbessern.
Turing bekam z.b. nochmal Verbesserungen in der klassischen Primitive Pipeline, so dass der Vorteil von mesh shadern nicht ganz so stark sichtbar ist, wie wenn man das nicht gemacht hätte. Langfristig ist das mesh-shader modell aber das Skalierbare und deutet die Vermischung von Compute- und Grafik-Shadern an.

Ein Problem im Moment ist dass das mesh shading (generieren von geometrie) nicht so ganz zum raytracing modell (geometrie muss vorher vorliegen) passt. Aber imo ist das okay, fortschritte beim rasterisieren sollen ja nicht durch raytracing eingebremst werden ;)
Andererseits kann man mit DXR1.1 das ganze ja auch kombinieren: so könnte man Partikelgeometrie in mesh shadern dynamisch erzeugen wenn man per Raytracing auf etwas trifft.
Inhalt abgleichen