mir kam heute so der Gedanke das die grassierende Hardwareverteuerung auch eine Chance für die Spieleindustrie sein könnte
Grundsätzlich haben wir ja eine gewisse Hardwarebasis der Zocker weltweit, klar gibts da die Highendtypen mit ner 5090 und bla bla bla, aber der Ø hat eben doch nur nen Ryzen 5600/i12400 und ne 3060 oder sowas zuhause.
Nun nehmen wir mal an das der Hardwareschnitt wegen der Preistreiberei ein paar Jahre relativ gleich bleibt, das würde doch eine superstabile Basis für die Spielentwicklung bieten, und gleichzeitig dafür sorgen das Spiele auf einem bestimmten technischen Niveau stärker gekauft werden.
Allerdings würde es wohl verhindern das die Triple A Fraktion viel neues bekommt, denn da wäre die Käuferschicht nur dünn für eine lange Zeit....
Für die Gamer wäre es eigentlich auch nicht schlecht, endlich mal paar Jahre kein permanenter Aufrüstzwang mehr, oder nur in geringem Maße...
Vor allem wären die Spieleentwickler wohl gezwungen, ihre Games endlich mal vernünftig zu optimieren, was ja schon lange nicht mehr gemacht wird, weil teuer und einfacher mit hohen Mindestanforderungen zu erschlagen, das Problem wurde einfach an die Hardware outgesourced,,,,
Klar das die Hardware-Industrie alles andere als erfreut wäre....aber nun, selbst schuld.
der PC meines Sohnes wurde kürzlich mit einer Radeon 6750 XT versehen, jetzt hat er das Problem das er einfach mal runterfährt in aufwendigeren Spielen, was es vorher nie gab. Alte Graka war eine Nvidia 2070.
System sieht so aus:
Ryzen 3600 auf einem A520 Board (kein OC)
Radeon 6750 XT (kein OC)
16 GB (2x8) 3600er Ram (Vanilla)
1 x NVME 1 TB
2 x SATA SSds
3 oder 4 Lüfter im gehäuse
Der Netzteilrechner wirft mir da ca. 435 Watt aus, das verwendete Netzteil ist ein schrottiges (aber neues) Thermaltake TR2S 700 Watt
Sollte doch mehr als dicke reichen denke ich, aber warum hat der PC dieses Verhalten?