Grafikchips

Inhalt abgleichen 3DCenter Forum - Grafikchips und Grafikkarten
Aktualisiert: vor 59 Minuten 5 Sekunden

AMD/ATI - Radeon RX 5700 & RX 5700 XT Review-Thread

vor 2 Stunden 1 Minute
Zitat: Zitat von biohaufen (Beitrag 12075579) Hast du eine RX 5700?

Bei exakt den gleichen Settings komme ich auf 215W im Timespy Jupp, bei mir sind es derer nur 190W :D Die VSoC beträgt 1,05V bei 11A

Passende Gaming-GraKa für DELL T3600

vor 7 Stunden 8 Minuten
Zitat: Zitat von DrFreaK666 (Beitrag 12075116) Ich hoffe du empfiehlst die 1050ti nicht wirklich. Die 1650 ist die deutlich bessere Alternative.

OT: wie teuer wäre denn die 1060 6GB? in der Tat, die kleinen Turing hatte ich schlicht nicht auf dem Zettel. Guter Hinweis.

Wie sieht Eure PC-"Grafikkarten-Laufbahn" aus?

Sa, 17.08.2019 14:06
Okay, dann 8nm. :)

Ich finde jedenfalls die Preisentwicklung spätestens seit der 1000er-Serie abartig. Die Preise bleiben stabil - später als zum Release zu kaufen lohnt sich also eigentlich nicht.

Hinzu kommt, dass EVGA-Grafikkarten - die ich wegen guter Erfahrungen eigentlich bevorzuge - ja nochmal ~10% über den Grafikkarten der Konkurrenz liegen. Das war beileibe auch nicht immer so. Bisher habe ich nie wirklich "Aufpreis" für EVGA bezahlen müssen. Die SC-Varianten lagen irgendwo im unteren Mittelfeld der angebotenen Karten, meist nur 20-30€ teurer als die günstigsten Karten.

Dabei war mein einziges Superschnäppchen im Bereich Grafikkarten auch eine EVGA:
Spoiler 2013 ist mir meine GTX 770 verreckt und die Reparatur dauerte ewig. Da kam ich dank eines Kumpels günstig an eine EVGA GTX 670 FTW Signature 2: Das war eine der ersten Grafikkarten mit Doppellüfter und sehr leise. Außerdem verfügte sie quasi über eine GTX 680-Platine und war ab Werk so hoch übertaktet, dass sie bis auf wenige % an die GTX 680 ran kam.
Ein Kumpel von mir hat die damals im Angebot bei einem bekannten deutschen Händler entdeckt und drei Stück für je 260€ gekauft (für sich, seinen Bruder und mich). Die druchschnittliche GTX 670 war damals ein gutes Stück teurer und durch die NVIDIA- und EVGA-Aktionsgutscheine dabei haben wir drei mal ~80€ direkt wieder rausgeholt.
Die Karte hat mir bis zum Release der GTX 970 / GTX 980 gute Dienste geleistet und ich bin sie dann noch mit 3 Jahren Restgarantie für knapp 200€ losgeworden. ;D

nVidia - GeForce RTX 2080/Ti Review-Thread

Do, 15.08.2019 11:05
Zitat: Zitat von robbitop (Beitrag 12073532) Wenn man will, dass sich etwas durchsetzt, dann darf es nicht propertär sein. Das sowieso.
Aber NV sieht so Etwas leider eher als "Kundenbindung"
(als Rechtfertigung mehr zu verlangen) und mehr auch schon nicht.

Gefallen tut uns NV mit dem Proprietären Mist auf jeden fall keinen.

M.f.G. JVC

AMD/ATI - Radeon RX 570/580: (P)Review-Thread

Di, 13.08.2019 17:02
Ich hatte ja weiter vorne im Thread geschildert, dass ich mir eine 570 8GB für den Übergang angeschafft hab. Die geht dann in näherer Zukunft hier in den Marktplatz, falls sich die refurbished MSI als bewährt herausstellen wird (wovon ich erstmal ausgehe).

nVidia - GeForce RTX 2070/2060 SUPER Review-Thread

Di, 13.08.2019 15:11
Ja aber die leistet in ue4 games auch nur 2070 leistung nicht berrauschend für ne 540 Euro karte was ich bezahlt habe. zahle aber auch nur max 500 für ne 2070S alspo wartebich auch mindstar angebot wie immer :D meine vega weill ja eh schon wer

AMD/ATI - Radeon RX Vega 56/64: Review-Thread

Di, 13.08.2019 10:57
Vergleich der Treiber Performance zwischen 19.7.5 und 19.6.3 für Vega, durch Zufall gefunden: https://babeltechreviews.com/adrenal...rx-vega-56-64/

Performance & Enthusiast: Aktuelle Grafikkartenpreise #2

Di, 13.08.2019 06:07
Welche ist die billigste 2070super? und kann die was? :)

AMD/ATI - Radeon VII: 699$ ab 7. Februar 2019 mit 16GB HBM2

So, 11.08.2019 23:37
Custom lohnt imo auch nicht bei der Radeon VII jeseits der 2.0 GHz hab ich mit einem Fullcoverwaterblock eine Junctiontemp >100°C .

Wird PCIe 4.0 bei Release schon Sinn machen?

Sa, 10.08.2019 14:13
Das ist auch keine Kritik an den 5W (bei der Leistung :tongue:), sondern nur ein Vermerk ;)
Ob man 5W gut und weniger gut kühlen kann, hängt erstmal davon ab wie groß das Gehäuse (des ICs) ist :cool: Und dann halt an welcher mehr oder weniger sinnvollen Stelle es im System steckt (bezüglich der Belüftung).

Da sehe ich 5W zwar auch nicht als privat unüberwindbare Wand, aber so trivial wie die 5W klingen wird das nicht sein. Daher schreiben sie auch gleich dabei, das ist für Enterprise.
Womit das aber wohl nicht nur bisschen Aufmerksamkeit beim Aufbau der Systeme verlangen wird, sondern vor allem einen ordentlichen saftigen Preis.

Denke P/L wird selbst fürs Hobby nicht so der Bringer sein. Oder hat hier wer Optane im Rechner?

Taktbarkeit von heutigen GPUs

Fr, 09.08.2019 11:56
Zitat: Zitat von hq-hq (Beitrag 12068941) ...eine 5700XT kann da offenbar ja mithalten, AMD hinkt endlich nicht mehr hinterher, es fehlt grade nur ein großer Chip :freak: Ich freu mich auf "Big-Navi" :biggrin:

KA ob da Heuer noch n Big-Navi und nächstes Jahr n Big-Navi kommt.
(sieht für mich aber so danach aus)

Egal, ich warte auf was mit vollem HDMI 2.1 ...

M.f.G. JVC

Intel - Intel HD Graphics Gen9

Mi, 07.08.2019 17:59
Mal sehen. Ich nutz ja in meinem Gebrauchtlaptop wieder HD4000, schau mer mal, was der jetzt besser kann (beim alten Laptop konnte ich Skyrim und Borderlands in niedriger Auflösung/Bildqualität auf 1366 spielen, jetzt hab ich 1600*900)

Welche Spiele brauchen mindestens oder mehr als 8GB Grafikspeicher in 1440p, 1080p ?

Di, 06.08.2019 23:41
Gerade mal aus eigener Erfahrung, Shadow of the Tomb Raider nutzt bei mir in der vergessenen Stadt gut und gerne mal 9-10GB Speicher in WQHD 2xSSAA Max Details und Raytracing High. ( Kein DLSS )

PS: Das sieht allererste Sahne aus. <3

Die schönste Grafikkarte ...

Fr, 02.08.2019 11:19
Zitat: Zitat von Raff (Beitrag 12064415) Mit Kupfer holt man mich auch fast immer ab (mit Gold seltener). Schickes Gerät. =)

MfG,
Raff Stehe jetzt auch nicht sooo auf Gold, aber so ein PCB Design hatte ich vorher noch nie gesehen und zack... Amors Liebes Pfeil schlug ein ^^

Kupfer tut es dir mehr an? :biggrin: Die LuKü Version hat nen Vollkupfer Kühler

Zitat: Zitat von medi (Beitrag 12064452) Jo sieht schick aus. Auch wenn mich das Design von Grakas null interessiert. Ich kauf auch ne rosane mit roten Herzchen wenn Leistung, Verbrauch und Geräuschlevel stimmen :freak: Mit Kaufgrund war auch das ich die Karte früher oder später unter LN2 mal testen möchte.
Habe ich ja mit dem Vorgänger meine GTX 580 Classified Hydro Copper auch schon gemacht ;-)

Sind ja Karten die speziell fürs benchen mit LN2 entwickelt wurden.

nVidia - GeForce RTX 2080 SUPER Review-Thread

Do, 01.08.2019 01:41
Zitat: Zitat von JVC (Beitrag 12063469) https://www.3dcenter.org/news/hardwa...s-29-juli-2019

Big Navi (12) kommt im Herbst und vielleicht mit 12Gb. Kann auch sein, dass N12 gleich mit 16GB daherkommt (sofern das SI 256/2048/4096 Bit breit ist bei GDDR6 bzw. HBM2).

Egal ob 12 oder 16GB, Nvidia wird dann kontern müssen, denn nach jetziger Hochrechnung wäre eine 2080Ti nur 5-15% schneller als ein N12 mit 64CU - und diese wiederum wäre 15-25% schneller als die jetzige 2080S.

Nvidia hätte dann die Wahl, einen sauteuren TU102-Full-Chip mit 12GB 16Gbps GDDR6-Speicher als "2080 Ti Super" und auch noch zu einem niedrigeren Preis (799$) anbieten zu müssen oder sie könnten die jetzige 2080S im Preis senken (699$ -> 599$) und stattdessen eine 2080S mit 16GB rausbringen und zu ihrem jetzigen Preis (699$) anbieten.

Zitat: Zitat von JVC (Beitrag 12063469) NVs 7nm kommen vielleicht erst 2021, oder sehr spät 2020... Neee, so lange auch nicht - ich schätze mal, der realistischste Termin für den Turing-Nachfolger wäre Frühling 2020 oder Sommer 2020. Selbst bei Ersterem wäre Turing dann schon 18 Monate auf dem Markt; das muss reichen...

Bei Ersterem müsste NV also noch etwa ein Dreivierteljahr mit Turing ausharren - Zeit genug für eine "2080Ti Super" mit vollem TU102, 12GB & 384Bit Speicher + schnellerem GDDR6 (16 Gbps) sowie für eine 2080 Super mit 16GB Grafikspeicher.

NV könnte dann auch eine "Titan RTX Super" mit ebenfalls schnellerem GDDR6 rausbringen - 24GB hat die jetzige Titan schon bereits...

R2

Ein Hauch von Traurigkeit! 3dfx, S3, BitBoys, Matrox, PowerVR, SIS, XGI...

Mi, 17.07.2019 02:15
Zitat: Zitat von konkretor (Beitrag 12049209) Das wird sich wohl auch nicht mehr groß ändern. Ob Intel jemals ein wirklich Konsumer Produkt bringt oder wieder nur nen HPC beule....
Hä? Na klar wird Intel auch Consumer Karten bringen.

nVidia - RTX 2060 (Book) läuft nur bei DY schlecht!?

So, 14.07.2019 13:31
Zitat: Zitat von mugger (Beitrag 12039712) dass die CPU laut Win Taskmanager irgendwie nicht richtig idlen kann, weil der Takt wie wild schwankt.
Das G7 ist Dreck und Dreck muss weg! Schonmal was von SpeedShift gehört :rolleyes:

Also ich habe ein G5 mit 2060RTX/9750H und es performt wunderbar (für ein Notebook). CPU undervolten -150mV mit ThrottleStop und alles läuft wunderbar. Wobei ich halt im Moment nur Anno 1800 zocke.

CPU hält die 4GHz bei ~70-80° und die Graka hält Ihre 1400-1500MHz bei ~65-70°.
Mehr erwarte ich von einem Mittelklasse Gaming Notebook auf nicht.

MSI 1080Ti Armor defekt, was erwartet mich?

Sa, 13.07.2019 22:36
Okay, und danke für die Info`s!

PCI-Express 3.0 - Vorteile?

Do, 11.07.2019 11:17
SotTR scheint mit DX12 mGPU bei 2x8 3.0 übelst an der Bandbreite zu verhungern, auch ohne TAA. Sobald er viel streamen muss, ist Schicht im Schacht.
Strange Brigade hingegen scheint das 8x null zu interessieren, läuft insbsd. mit Vulkan auf 2x RX 580 wie die wilde Wutz in 4k...

Erfahrungen mit AMD- & NV-Karte zusammen im Verbund unter DX12?

Di, 02.07.2019 14:27
Zitat: Zitat von Daredevil (Beitrag 12036883) Wie gesagt, Theorie und Praxis. :D



Wichtig sind hier halt die Min Max FPS, die wirklich massiv deutliche Unterschiede zeigen.
Und selbst da muss man sagen, dass TombRaider@DX12 nur 62,2% Performance+ gegeben hat. Also kastiert man mit lahmer PCIe Anbindung den Vorteil nochmal massiv.
ja, aber deine karten rechnen im CF verbund, nicht durch die DX12 schnittstelle selber, dafür muss das game das unterstützen, und das ist glaube ich mit ashes auch schon das einzige? O_o