3DCenter Diskussionsforen

nVidia - GeForce RTX 2080/Ti Review-Thread

Grafikchips - Sa, 30.11.2019 18:47
So, hab mir jetzt auch eine gebrauchte Asus Rog Strix 2080 ti O2G für schlappe 960€ auf Ebay gekrallt. Jetzt wo ich meinen FHD 60 Hz Monitor endlich gegen einen QHD 144 Hz upgegradet hatte, lohnt sich das nun auch. :)

nVidia - GeForce RTX 2080 SUPER Review-Thread

Grafikchips - Sa, 30.11.2019 16:04
Seit gestern (oder vorgestern) bei CK:


Gigabyte Aorus GeForce RTX 2080 Super Waterforce WB statt 929€ "nur" 829€ (-100€):

https://www.caseking.de/gigabyte-aor...-gcgb-297.html


Gigabyte Aorus GeForce RTX 2080 Super Waterforce statt 949€ "nur" 869€ (-80€):

https://www.caseking.de/gigabyte-aor...-gcgb-298.html


Noch gestern gab es außerdem die ASUS ROG Strix OC GeForce RTX 2080 Super bei CK (oder war es CU?) für 799€ statt regulär 849€ - jetzt leider wieder beim regulären Preis aber die beiden o.g. Gigabyte-Angebote sind immer noch gültig, also zuschlagen!

Diese 3 Modelle gehören zu den besten Custom-Lösungen der 2080S - leider gab es bisher keinerlei BF-Aktionen zu EVGA-Modellen (XC/Ultra, FTW) der 2080 Super.

Ich frage nochmal: WARUM bieten MM/Saturn keine EVGA-Modelle von Nvidia-GPU's an!? Etwa weil sie zu teuer sind?

R2

AMD - Ryzen Desktop APU (Raven Ridge) - Reviews

Prozessoren und Chipsätze - Mi, 27.11.2019 16:55
Zitat: Zitat von Denniss (Beitrag 12154145) FG sind die embedded Ryzen R, scheinbar irgendwas zwischen Raven Ridge und Picasso. Die Embedded Ryzen V scheinen normale Raven Ridge zu sein (FB) Ryzen R sind Banded Kestrel 2-Kern APUs. Die Ryzen V sind Raven Ridge 4-Kern (und ein salvage 2-Kern)
https://www.computerbase.de/2019-04/...ga3-atari-vcs/

Neue Rechnerkonzepte und Grafik - kein nennenswerter Fortschritt?

Zitat: Zitat von Rabiata (Beitrag 12153998) Ein Mikrokernel könnte da vielleicht helfen, aber der Ansatz kommt nicht so recht in die Gänge. Vielleicht auch weil kein finanzkräftiger Hersteller das Konzept ernsthaft pushen will. Och, es sind vermutlich mehr Mikrokernel-Systeme im Einsatz als Systeme mit normalem Kernel. In jeder Intel ME, AMD PSP / ARM TrustZone, Telefon-Modems usw. usw. laufen Microkernel-Betriebssysteme.

Das Problem für die Nutzung als normales Computer-Betriebssystem ist schlicht die Performance und der Programmieraufwand. Denn ohne entsprechend angepasste Software bringt dir der Microkernel nicht viel. In der Theorie hat natürlich ein Microkernel verdammt viele Vorteile, in der Praxis stürzt aber auch nicht alle Nase lang das halbe OS ab.

Einzig die (Android-)Smartphones sehe ich als Kandidaten für so einen Umstieg, wegen der ganzen Update-Problematik. Je nachdem was Google so mit Fuchsia vor hat.

Intel Ice Lake Gen11 Iris Plus Graphics Benchmarks

Prozessoren und Chipsätze - Mi, 27.11.2019 13:41
Also die Slides mit den alten Chips ist ja mal erschreckend, ohne AMD hätten wir sicherlich immer noch 2 Kerne im 15Watt Bereich.:D

Ein-Wafer-Chips - HPC jenseits aller Vorstellung?

Prozessoren und Chipsätze - Mi, 27.11.2019 08:27
Wenn man mit 512bit breiten Vektoren und sonst nichts rechnen muss, dann sollte man denke ich auch zu entsprechenden Beschleunigern greifen. Bisher nennen sich die GPU.

Meltdown & Spectre: Sicherheitsrisiken durch Spekulation bei aktuellen Prozessoren

Prozessoren und Chipsätze - Mo, 25.11.2019 22:04
Convenient Zeitpunkt von Intel, der Fehler wird 2 Wochen vor Release des 10980 disclosed. Die meisten Mainstream Medien (anandtech etc) testen ausschließlich mit Windows, welches sicherlich noch keinen fix hat

:)

nVidia - GeForce GTX 1080 Ti Review-Thread

Grafikchips - Do, 21.11.2019 21:09
Das habe ich auch gern gesehen, danke :-) War schon dran meine 1080 Ti zu verkaufen und eine gebrauchte 2080 Super zu besorgen, aber die 1080 Ti sind zumindest hier in den USA nichts mehr wert. Gebraucht gehen die um die $420 weg (Shipping und PayPal schon abgezogen). $200 fuer so ein Upgrade sind einfach nicht sinnvoll. Daher ab jetzt durchhalten, bis dann hoffentlich Mitte naechsten Jahres die naechste Generation aufschlaegt.

PS: Die Ueberlegung kam vor allem durch RDR2.

Subtiming Tuning

Prozessoren und Chipsätze - So, 17.11.2019 10:22
Ich habe festgestellt dass Spiele, die eine relativ niedrige Hitrate im Cache haben ziemlich stark an die Memorylatenz gekoppelt ist. Also ist es völlig logisch, diesen Wert als Optimierungskriterium zu sehen.
Im GTA5 Benchmark im CPU Limit schlug das nahezu linear durch.

Ich tippe darauf, dass das für Open World Spiele im Besonderen (aber ggf nicht immer) zutrifft. Ich tippe darauf, dass das Instructionset größer ist und somit die Hitrate abnimmt.

Die Kette zur Memorylatenz besteht aus mehreren Gliedern. CPU Takt, Fabric Takt, IMC Takt, RAM Latenz. Wenn man die Gesamtlatenz reduzieren will, muss man alle Glieder der Kette optimieren. :)

Intel Tremont Microarchitecture

Prozessoren und Chipsätze - Sa, 16.11.2019 21:02
Was kurz aus der Praxis zum Nachdenken... Kein Koder/Dekoder Mist.

Wenn ich eine SSE() Routine habe, die mir 34ms pro durchschnittlich 1s Rechnerei raushaut (Gesamtaufgabe), und ich sehe, wenn ich mich theoretisch gut anstrenge, komme ich mit AVX auf 46ms weniger, dann lass ich es.

Numbercrunching for Tremont... Hölle :freak:

Intel - Gemini Lake - Goldmont Plus

Prozessoren und Chipsätze - Fr, 15.11.2019 02:16
Der Pentium Silver 5005 ist verdamt gut, bietet praktisch Athlon 620 Leistung mit nur 10W TDP inkl. IGP.
Konnte diesen schon austesten dagegen sieht mein E450 gar kein Land mehr.

Nur hat dieser ebenso die Intel ME, also nichts für mich.
Daher wurde es eine GT 1030 für meinen E450 und UHD läuft.

Intel - Coffee Lake - Review-Thread

Prozessoren und Chipsätze - Mo, 11.11.2019 20:20
Zitat: Zitat von Lowkey (Beitrag 12141570) Stromsparmodi wie die C-States machen eigentlich nur die CPU langsam Zeig mal einen Test ab Skylake, der das mit Höchstleistungs-Governor im OS belegen würde.

DirectX 12 Grafik-API

Zitat: Zitat von Morgenlicht (Beitrag 12139700) Mit der Anwenung von Mesh-Shader ist also anzunehmen, daß damit der limitierende Faktor die Game-Geometrie ausgemerzt wurde? Zitat: Zitat von gravitationsfeld (Beitrag 12140219) Kann man so nicht sagen. Eigentlich ist es auch mit der klassischen Pipeline relativ schwer Geometrie limitiert zu sein. Im Allgemeinen sind die Art & Render-pipelines schon optimiert, so dass LOD etc. handling vorliegt. Über den gesamten Frame eines Games dominieren wegen des Shadings in der Tat andere workloads. Echte Geometrie-Limitierung ist eher bei ProViz (CAD, Film etc.).

Dennoch kann man aber in Teilbereichen limitiert sein. Ein AAA Game-Entwickler der das Vegetationssystem auf mesh-shader experimentell umstellte, berichtete von fast Faktor 2 Verbesserung. Ich selbst hab bissl weniger bei diverse Szenen für sowas wie shadow oder pre-pass messen können.
Aber es kommt eben stark darauf an was man schon selbst an Geometrie processing/lod/culling betreibt. Prinzipiell sind execute-indirect (GPU schreibt drawcalls selbst) und culling per compute shader immer noch sehr flott, verbrauchen aber mehr Bandbreite, und etwas mehr temporären Speicher. Instancing von sehr einfacher Geometrie ist auch nicht so wirklich performant, und man muss da bissl workarounds betreiben, das geht nun auch deutlich einfacher.

Mesh shader eher interessant je mehr man prozedural on-the-fly generieren kann (die Fließbänder aus satisfactory ;) ), das würde dann noch mehr Speicherverbrauch drücken. Es geht hier eher um Trends die Programmierbarkeit und Skalierbarkeit zu verbessern.
Turing bekam z.b. nochmal Verbesserungen in der klassischen Primitive Pipeline, so dass der Vorteil von mesh shadern nicht ganz so stark sichtbar ist, wie wenn man das nicht gemacht hätte. Langfristig ist das mesh-shader modell aber das Skalierbare und deutet die Vermischung von Compute- und Grafik-Shadern an.

Ein Problem im Moment ist dass das mesh shading (generieren von geometrie) nicht so ganz zum raytracing modell (geometrie muss vorher vorliegen) passt. Aber imo ist das okay, fortschritte beim rasterisieren sollen ja nicht durch raytracing eingebremst werden ;)
Andererseits kann man mit DXR1.1 das ganze ja auch kombinieren: so könnte man Partikelgeometrie in mesh shadern dynamisch erzeugen wenn man per Raytracing auf etwas trifft.

AMD - X570-Mainboards Sammel-Thread

Prozessoren und Chipsätze - Sa, 09.11.2019 07:34
Brauchst du denn PCI 4.0?
Es macht imo kein Sinn massig Geld in ein X570 Board zu versenken,wenn der Näse Richtige Performance Sprung mit einer DDR5 Plattform kommen wird.
Als Alternative würde ich mir die MSI 450/470 Max Modelle angucken.

Ist das MSI Z77 MPower PCIe 3.0 NVMe-fähig ?

Prozessoren und Chipsätze - Sa, 09.11.2019 00:10
Hallo!

Ich habe mich letztendlich doch für ne Samsung Evo 860 256 GB SATA entschieden.

mfg

Ist euch schonmal eine CPU durch übertakten verreckt?

Prozessoren und Chipsätze - Fr, 08.11.2019 10:59
Zitat: Zitat von gravitationsfeld (Beitrag 12129747) Mir ein Athlon XP 2000+. Das war echt laecherlich, eine Sekunde und die CPU war durch. tjo, mit nem HS drauf geht das nicht so schnell, da können dann die sicherheitsmechanismen greifen bevor das silizium verglüht :freak:

Wie lange wird der Ryzen 5 2600 reichen?

Prozessoren und Chipsätze - Do, 07.11.2019 10:39
Zitat: Zitat von downforze (Beitrag 12137561) Ich hatte mit den 4 Threads in vielen Spielen Probleme mit dem 3570K. Selbst bei 4,5 Ghz brachen die FPS mal auf 30 ein - insbesondere in Spielen mit viel Sichtweite und vielen Objekten. Vermutlich war der Level 3 - Cache auch zu klein. die Antwort kam wohl ein wenig spät ;)


Kann das aber bestätigen. Mein 3570k war zwar nicht wirklich langsam, dem ging aber langsam aber sicher die Puste aus. HT hätte da vielleicht noch was gerettet (also quasi der 3770k), die Investition hätte sich aber nicht gelohnt, weshalb ich vor etwa nem jahr auf den 2600er umgestiegen bin. Hab es nicht bereut. Verbraucht deutlich weniger, ist wesentlich schneller (wohl auch wegen dem DDR4 Speicher) und ist deutlich leiser zu kühlen. Übertaktet man den 3570k schießt ja auch der Verbrauch durch die Decke und wirklich was brachte es mir nie, weshalb ich ihn am eigentlich immer @Stock-Takt laufen ließ. Hat nirgends einen unterschied zwischen nicht-spielbar und spielbar gemacht. Da die CPU aber lange durgehalten hat und ich die noch für gutes Geld abstoßen konnte (die Preise sind vor kurzem absolut eingebrochen) bereue ich den Wechsel keine Minute.

Allerdings wünschte ich doch ich hätte mich für den 3600x entschieden. Der Taktet doch noch mal ein gutes stück höher, aber letztlich wird ich wohl irgendwann mit Zen 3 dann wieder upgraden oder zwischendurch doch noch mal nen günstigen 2700x nehmen, falls sich die Gelegenheit ergibt. Die Preise für die 2700x im Gebrauchtmarkt sind doch deutlich gefallen seit Zen 2. Aber im Grunde dürfte der 2600er noch ne ganze Weile ausreichen. Aber da man ja nun nicht mehr komplett alles tauschen muss (in den letzten Jahren war es ja immer Mainboard + CPU + Ram) sondern nur noch die CPU ist die Upgradehürde doch deutlich geringer.

nVidia - GeForce GTX 1660 Super Review-Thread

Grafikchips - Mo, 04.11.2019 10:38
Zitat: Zitat von y33H@ (Beitrag 12131945) Hier bei Golem hat sich der Test krass gut gelesen, hätte ich nicht erwartet. Ich habe den Thread gerade angeklickt, weil mich die Resonanz in den Foren bei der Kaufberatung überrascht. Viele Leute planen mit der 1660s.

Sporadische Black-Screens mit Navi10

Grafikchips - So, 03.11.2019 21:43
Danke euch. Nachdem die Probleme heute direkt in Windows und zumindest subjektiv häufiger auftraten, geht die Karte als Reklamation zurück und ich werd dann wohl zumindest was die Grafikkarte angeht AMD untreu werden.

Thanks nochmal :)

TV Kabellos betreiben @ mind. 60 Hz, 4k

also wenn es dann doch so Geringe Ansprüche sind... zum Filme schauen ist das bestimmt OK.
Das dann aber so Sachen wie Geringe Latenz, >60Hz und VRR aus dem Fenster fliegen sollte klar sein.
Inhalt abgleichen