Forenneuigkeiten

GeForce RTX 4060 Ti 16 GB Overclocking

Grafikkarten - Mi, 13.03.2024 17:06
Das denke ich auch, das es mit drei Monitoren/zwei High Refresh wohl auch normal ist. GPU Clock geht ja brav runter.
Mit einem Monitor habe ich es nicht mehr getestet, weil meine Entscheidung zugunsten der 6800XT gefallen ist.
Das ist mir am Ende einfach zu viel Leistungsverlust, wobei die 4060Ti 16GB echt eine super solide Karte ist aber die 6800XT ist noch mal ein ganz anderes Kaliber.

Danke euch allen für die Infos! :smile:

In Spielen plötzlich Slowmotion

Grafikkarten - Mi, 13.03.2024 13:14
Ja, habe ich absolut nicht dran gedacht, war für mich schon normal irgendwie.

In Spielen plötzlich Slowmotion

Neue Forenbeiträge - Mi, 13.03.2024 08:07
Ich habe seit geraumer Zeit ein immer wiederkehrendes Problem.

Als dies anfing hatte ich mein aktuelles MB mit einem 5900X drin, und eine 3080Ti.
Dazu muss man sagen, dass ich nach möglichkeit die Spiele soweit es geht immer in Max., in 4k und meist mit DLSS spiele.

Angefangen hat dies mit Marvels Spiderman. Plötzlich mitten im Spiel nur noch 15 FPS. Der PC reagiert nicht mehr richtig und beende ich das Spiel ist der PC genauso langsam bis ich ihn Neustarte. Wobei neustarten stimmt auch nicht ganz, denn ich muss den PC im laufenden Betrieb aus machen. Starte ich ihn über Windows "Neustarten" neu, bleibt das Problem.

Mittlerweile hat sich am PC folgendes geändert:
anderer Speicher
andere Grafikkarte (4090)
andere CPU (5800X3D)
anderes Netzteil (1000W)
mehrere BIOS Updates

Windows neu installiert, im Hintergrund laufende Programme abgeschaltet oder deinstalliert. Mehrere Treiber getestet.

Da ein Sensor Panel mit läuft... Temps, Auslastung u.s.w. alles in Ordnung und im grünen Bereich.

Nun ist es so, dass ich seit einiger Zeit Dying Light 2 spiele und hier das gleiche Problem. Gestern dann auch in Helldivers 2 und davor auch mal immer wieder in anderen Spiele. Aber immer nur Spiele, welche sehr Grafikvordernd sind. Meist RT dann auch aktiv.

Jetzt ist mir eine Sache noch aufgefallen was ich durch den Sensor Panel sehr gut sehen konnte. Tritt das Problem auf, geht die Graka von ca. 350W auf 32W, die Lüfter hören auf zu drehen, was im Idle normal ist, und bei der CPU werden 250W raus gehauen, als wenn plötzlich die ganze Arbeit die CPU machen muss, auch die Grafikberechnungen. Da dass dann auch mal alle 2 Tage passiert oder auch mal jede Stunden, ist das null reproduzierbar und macht mich irre.

Jemand vielleicht ne Idee? :freak:
Kategorien: 3DCenter Forum

Hybride Architektur, wie skaliert Stromaufname? Testergebnisse P-Core, E-Core, Strom

Neue Forenbeiträge - Di, 12.03.2024 21:57
Der 14600 hat an Kernen 6x Performance und 8x Effizienz. Max-Takt sind 5,2 beziehungsweise 3,9 GHz je nach Kerntyp. Mit Cinebench 24 habe ich versucht, die Leistungsunterschiede von P- und E-Cores zu ermitteln. Das ist leider keine exakte Wissenschaft. Wenn alle P-Kerne aktiv sind, takten die nur bis zu 4,8 GHz, bei Single-Thread-Last bis 5,2. Die E-Cores scheinen kein Problem damit zu haben, auch unter Volllast auf ihre maximalen 3,9 GHz zu kommen. Am Ende steuert ein P-Core mit HTT im 24-er Cinebench etwa 120-130 Punkte bei, ein E-Core ungefähr 60-65. Getestet mit DDR5-5600-Speicher CL36. Vom reinen Durchsatz her entspricht 6P+8E etwa einen 9P-Prozessor der auch unter Last alle Kerne maximal takten kann oder ungefähr einem 10P-Prozessor der bei Volllast die Kerntaktung nicht ganz ausfährt.

Insgesamt scheint ein ausgelasteter E-Core bei 3,9 GHz etwa 50-55% der Leistung eines voll getakteten P-Cores zu schaffen. P-Cores sind rund 30% höher getaktet, was taktnormalisiert den E-Core auf etwa 70% eines P-Cores bringt. Den P-Core habe ich mit Hyperthreading getestet um ihn voll auszulasten. E-Cores bieten kein HTT. Der P-Core schafft mit deaktiviertem HTT nur noch rund 95 Punkte im Cinebench. Damit wäre taktnormalisiert ein P-Core ohne HTT etwa gleichauf mit einem E-Core. Das hätte ich nicht gedacht!

E-Cores können den Takt nicht einzeln sondern nur in Vierer-Gruppen ändern und haben den L2-Cache ebenfalls so organisiert: Auch wenn nur ein einzelner E-Core im BIOS aktiviert ist hat dieser die 4 MB L2 seiner Gruppe. Die P-Kerne haben pro einzelnem Core immerhin 2 MB L2. Einige CPU-Modelle der 13/14-er Serie haben nur 1,25 MB L2-Cache pro P-Core und nur 2 MB pro 4xE-Core. Der i5-13600 Nicht-K hatte noch die kleinere Cache-Variante, ein 14600 bietet auch als Nicht-K den vollen Ausbau.

Beim L1 scheinen E-Cores MEHR Cache zu haben als P-Cores: 96 statt 80 KB. Und das wo der E-Core nur einen Thread laufen lässt, nicht zwei wie ein P-Core. Vielleicht kompensiert der große L1 die Nachteile der L2-Cache-Architektur der E-Kerne. Interessant finde ich die Aufteilung: Ein E-Core hat 64K Instruction-L1-Cache, der P-Core nur 32K. Dafür hat der P-Core mehr Daten-Cache, 48K gegenüber 32K beim E-Core.

Wie effizient die CPUs sind, jedenfalls innerhalb der gleichen Architektur, kann ich nur grob abschätzen da ich den Nicht-K habe. Ein K den man genug Strom ziehen lässt, dürfte seine P-Kerne bei ordentlicher Kühlung auch unter Last auf seine dann 5,3 GHz takten. Das sind gegenüber den 4,8 GHz realen P-Taktungen beim Nicht-K rund 10% mehr Leistung. Taktet man den K höher, ließe sich der Vorteil vielleicht auf 15-20% ausbauen, solange man kein Extrem-OC betreibt. Mit moderater Senkung des Powertargets von 154 auf 125 Watt schafft mein nicht-K die P-Cores bei Vollauslastung ihre 4,8 GHz nicht mehr durchweg, es geht manchmal 100 oder sogar 200 MHz darunter. Im Single-Thread sind die vollen Nicht-K-5,2 GHz aber noch drin. Mein Eindruck ist dass die Intel-CPUs für ein paar Prozent im Benchmarks ordentlich Strom schlucken und sich das beim Zocken kaum noch lohnt. Ohne Übertaktung scheint der Vorteil in Spielen des 14600K gegenüber Nicht-K bei etwa 5% zu liegen. Aber es gibt ja die KF-Version welche gegenüber Nicht-K kaum teurer ist – also wenn man zum KF greift, macht man nichts falsch.

Setze ich bei meinem Nicht-K das P2-Powerlimit auf 65 Watt herunter, schafft man die 5,2 GHz Single-Threaded nur noch kurzzeitig. Bei Vollauslastung mit Cinbebench bekome ich um die 3,5 GHz für die Leistungskerne, 2,8 für die Effizienzkerne. Also, grob gerechnet, bei halber Stromaufnahme gibts noch ungefähr 70% der Taktrate. Hierfür setze ich als 100%-Taktrate nur 4,8 GHz an weil die CPU bei voller TDP eben nur die 4,8 in Vollauslastung bringt. Andersrum formuliert wirkt es noch krasser: Ausgehend von 65 Watt gilt dass man für 40% mehr Taktleistung gleich doppelten Strom braucht. Mit den 65 Watt erhalte ich aber fast 80% des Cinebench-CPU-Scores! Das heißt ausgehend von 65 Watt bekommt man mit gut 100% mehr Stromaufnahme nur rund 25% mehr Benchmark-Leistung.

Bei 95 Watt erziele ich im Cinebench-CPU-Test etwa 4,2 GHz für P und 3,3 für E was fast 90% Taktung entspricht (wie gesagt, wenn man 4,8 für P-Cores als 100% Takt nimmt) – und erhalte auch ungefähr 90% der Benchmarkpunkte gegenüber voller TDP.

Wie Intel die 2,7 GHz Basistakt spezifiziert ist mir nicht klar. Vielleicht sieht es bei hohen Umgebungstemperaturen anders aus, meine Messungen ergeben im Cinebench 24 mit CPU-Test im Multithread auf die P-Kerne bezogen bei Vollauslastung 4,8 GHz mit vollen 154 Watt, knapp darunter bei 125 Watt und 3,5 GHz bei 65 Watt. In Spielen schwankt die Auslastung ständig. Die 2,7 GHz Basistakt sind vielleicht für Extremsituationen gedacht, in Prime 95 mit dem Small-FFT-Test komme ich auf etwa 3,0 GHz, bei höheren Temperaturen sinkt das vielleicht auf die 2,7 ab. Meinen PC betreibe ich vorerst mit 95 W TDP für den 14600: Fast 40% Strom gespart ausgehend von 154 Watt maximaler Leistungsaufnahme und damit nur 10% Benchmark-Leistung eingebüßt. Sollten Spiele besser mit der Leistungsaufnahme skalieren und ich bräuchte die Performance, lässt sich noch immer das Target erhöhen.

Oder hätte ich eine stärkere CPU kaufen sollen? Der 14700 würde mit 8P+12E locken. Ein 14900 offeriert sogar 16 E-Cores und vor allem höheren P-Takt, welcher zumindest bei Single-Thread-Last durchschlägt, 5.8 statt 5.2 GHz des 14600. Zum Zocken kann ich aktuell aber selbst den 14600 kaum mal fordern. Mir ist inzwischen schleierhaft ob Intel den richtigen Fokus setzt beim Gaming. Mein Core-i5 kann alles einigermaßen gut, Gaming, Content-Rendering, Single-Thread-Performance ist gut, Multithread-Leistung in dem Preisbereich sogar sehr gut, mit dem K könnte man dann noch übertakten aber hätte höheren Stromverbrauch. Reinrassige Gaming-Hardware würde anders aussehen.

Mein vorläufiges Fazit (Oxymoron) ist, dass Intel-CPUs mit Standard-Specs für ein paar Prozent in Benchmarks richtig viel Strom schlucken. Ich persönlich finde K-CPUs jetzt sogar unattraktiv wenn ich mir die Leistungs-Skalierung ansehe. Das schmerzt einen alten Freak wie mich, der schon einen Pentium MMX übertaktet hat. LGA 1700? Diggi, ich übertakte seit Socket 7. Allerdings, der MMX hatte unter 20 Watt gezogen, jetzt operieren wir mit ganz anderen Skalen.
Kategorien: 3DCenter Forum

Interne HDD nicht hochdrehen lassen nach Energiesparmodus/Ruhemodus

Neue Forenbeiträge - Di, 12.03.2024 20:43
Ich habe eine Interne 3.5" 7200rpm HDD in mein PC eingebaut. Das Problem das ich damit habe ist, dass sie jedes mal, wenn ich aus dem Energiesparmodus bzw. Ruhemodus (nicht das gleiche) komme, sie aufstartet.

Das will ich aber nicht. Kennt jemand eine Möglichkeit, das zu verhindern?

Ich habe die HDD momentan als Ordner (also ohne Laufwerkbuchstaben) zugewiesen. Es funktioniert auch damit nicht.

Übrigens: Die Interne HDD reagiert nicht auf die Energiespareinstellungen, ab wann Festplatten ausschalten sollen. Bei meinen externen 2.5" Dinger per USB funktioniert das. Die Interne dreht aber einfach weiter (das ist aber eig. nicht das Hauptproblem).

Ich kenne RevoSleep, aber das Problem hier ist: Das tool stellt Festplatten nicht aus, es schickt sie nur in ein Low-Spin-Modus und abgesehen davon: Ich bin gezwungen, die Energieeinstellungen so einzustellen, dass die HDDs sich niemals ausschalten, was ich nicht will eigentlich.

Daher meine Frage: Ich suche eine Möglichkeit, dass die interne HDD nicht aufgeweckt wird, wenn ich aus dem Ruhemodus oder aus dem Energiesparmodus komme. Kennt da jemand etwas?

Ich schalte nunmal mein PC täglich immer wieder mal aus, d.h die Festplatte muss dann jedes mal neu aufdrehen und das ist nicht gerade gesund 5x am Tag...

PS: Nein, ich will mein Nutzungsverhalten nicht ändern, falls jemand auf die Idee klommt ^^
Kategorien: 3DCenter Forum

AMD/ATI - Radeon RX 6700 XT: (P)Review-Thread

Grafikchips - Di, 12.03.2024 18:06
Zitat: Zitat von Exxtreme (Beitrag 13506949) Das Starfield beschissen läuft, das wundert hoffentlich niemanden. Das läuft nämlich überall schlecht.

Und die Optimierungen für RDNA2 dürften sich kaum von denen für RDNA3 unterscheiden. Ist viel wahrscheinlicher, dass die 12 GB die Bremse sind. Ich hatte in Erinnerung das AMD sehr gut läuft und NV Probleme hatte, was Sinn macht da Microsoft will das die Xbox Version was taugt.

7600 sticht schon heraus für den Preis.



https://www.computerbase.de/2024-01/...nitt_starfield

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

Work Graphs API: First Look At Performance Of DirectX 12's Latest Feature

Ab 1:20 wirds interessant was den möglichen Performanceunterschied angeht.


Portal mit RTX IO off und on:

Sind Quantencomputer in 3 Jahren das Maß aller Dinge?

Für das "Computing" an sich? Aktuell nicht. Aber nVidia stellt Software bereit, dass in dem Bereich über deren GPUs schneller und besser geforscht werden kann.

Quadro P1000 flashen zwecks OC/UV

Grafikkarten - Di, 12.03.2024 11:36
Zitat: Zitat von Gast (Beitrag 13506268) Nein, da nvidia die Biosse verschlüsselt und bis heute kein externer schlauer Kopf sie cracken konnte.
Dafür sind die aktuellsten Quadro-Nachfolger ab Werk aus unlocked (alles ab RTX A-Series). Danke!

Habe das modulare Netzteil "Corsair CX430M", suche PCIe-6-Pin auf PCIe-8-Pin-Kabel

Neue Forenbeiträge - Mo, 11.03.2024 14:38
Moin,

von einem Freund habe ich ein ausrangiertes Corsair CX430M Netzteil bekommen. Das Netzteil ist modular, doch leider fehlt das PCIe Kabel. Corsair scheint da keiner Norm zu folgen, denn wenn ich den Anschluss vom Netzteil mit diversen Kabeln vergleiche, passen die Stecker scheinbar nicht.

Anbei ein Foto von der Rückseite des Netzteils:
https://www.technic3d.com/article/pi...tzteil_016.jpg

Bei diesem hier (wo anschließend noch ein 6 Pin auf 8 Pin Adapter notwendig wäre) sehen die Anschlüsse ein wenig anders aus:
Amazon Link

Oder wäre ein Adapter von SATA-Stromstecker auf PCIe möglich?
Amazon Link

Das wäre für eine RX6600. Vielen Dank.
Kategorien: 3DCenter Forum

AMD/ATI - Radeon RX 6800/6900(XT) OC/UV

Grafikchips - So, 10.03.2024 18:11
Hehe... nee, alles im normalen Bereich. Für 2380Mhz max. Boost brauche ich das hier.



Man braucht schon recht viel Zeit in Banishers Ghosts of New Eden damit sich ein Fehler zeigt und ich dann sanft auf dem Desktop mit einer Fehlermeldung vom Game lande. Teilweise kam da mit weniger als 1000mV selbst nach 2 Spielstunden nichts. Dagegen ist Timespy völlig harmlos. Dort reichen 981mV bereits aus. Bisher sind hier bei RDNA2 wirklich die UE5 Games am anspruchsvollsten was Voltage angeht.

GeForce RTX 4060 Ti 16GB Overclocking

Neue Forenbeiträge - So, 10.03.2024 15:11
Hiho! :smile:

Habe keinen anderen Bereich gefunden für meine Frage, ich hoffe ich bin hier richtig.
Ansonsten bitte verschieben, danke!

Habe sehr günstig eine MSI Ventus 2x RTX 4060Ti 16GB erworben, die Karte wird nächste Woche hier ankommen.
Würde sie eventl. gegen die Asus 6800XT wechseln und ja es wäre von der Rasterleistung ein spürbares Downgrade, allerdings ist für mein Vorhaben eine nVidia Karte Pflicht und der Rest eh nicht bezahlbar.
Spiele werden natürlich erst mal ausführlich getestet, ob mir das von der Leistung noch ok ist oder wirklich zu langsam.
Wenn sie mir doch zu langsam ist, werde ich sie weiter verkaufen und meine 6800XT behalten.

Hardware übertaktet habe ich seid Ewigkeiten nicht mehr und ich wollte es zumindest versuchen, die kleine MSI Richtung RX 6800 zu bekommen, wo der Abstand dann zu meiner XT mehr zu verschmerzen wäre.
Ist das grundsätzlich ohne großen Aufwand realistisch oder zu optimistisch? Ca. 15%, was ich an Benchmarks in 1440p gesehen habe.

* Vorgehen mit MSI Afterburner: PowerLimit auf max. stellen und in 50MHz Schritten hochsetzen und schauen, ob es stabil ist?
Dasselbe mit dem Speicher, bin ich da auf dem richtigen Weg?

Danke schon mal,

Hatstick
Kategorien: 3DCenter Forum

Bluetooth-In-Ears mit Ladeetui, die sich auch einzeln nutzen lassen

Neue Forenbeiträge - So, 10.03.2024 13:26
Hallo, ich suche möglichst kleine In-Ears, bei denen man jeden der zwei Hörer auch einzeln nutzen kann, während der zweite im Etui liegt.

Bonus ANC, auch wenn nur ein Hörer verwendet wird.

Klangqualität egal, Mikroquali egal, Optik egal, App-Schnickschnack brauche ich nicht
Kategorien: 3DCenter Forum

Wert eines Ryzen R5 5800X3D

Neue Forenbeiträge - So, 10.03.2024 13:18
Hallöchen,

Was sagt ihr?
Würde meinen gern zum Verkauf anbieten aber bin unsicher wegen dem Preis. Sind 200€ fair?
Kategorien: 3DCenter Forum

Die Nutzer sind Microsoft "ausgeliefert"

Neue Forenbeiträge - So, 10.03.2024 10:22
Für alle die sich immer Gedanken über Patches und Patchen der Windosen machen: Microsoft kann sich nichtmal selbst beschützen.

"Die Attacken laufen bereits seit Ende November 2023, seitdem ist es Microsoft offenbar nicht gelungen, die unbefugten Zugriffe zu unterbinden." https://www.heise.de/news/Russische-...t-9650468.html

Und fefe so
https://blog.fefe.de/?ts=9b12be6f
Kategorien: 3DCenter Forum

Suche dünnes, kleines Ultrabook (für Office, Surfen und Videos)

Neue Forenbeiträge - Sa, 09.03.2024 23:29
Hallo zusammen,
da ich wieder vermehrt auf Reisen bin, bin ich auf der Suche nach einem kleinen Ultrabook. Leider bin ich bei der Thematik komplett raus. Verwenden würde ich es nur, wenn ich unterwegs bin. dh. so knapp 2 max. 3 monate im Jahr.

Wichtig wäre es mir, dass das Teil wirklich "leicht", "klein und "dünn" ist. Definitiv unter 15". Mindestens FHD auflösung wär super, für meine Filme.
Arbeitsspeicher sollte auch nicht zu knapp sein. Großer Akku ist nicht so wichtig. Habe immer großen Akkupack dabei und Lademöglichkeiten sollten in der Unterkunft eh immer gegeben sein.
(Apple kommt für mich leider nicht in Frage.)

Brauch das Teil eher für Office-Anwendungen, E-Mails schreiben und ansonsten Surfen und Filme & Streamen.
Daher wäre eine größere SSD schon klasse, sonst kann ich erst wieder ein externes Speichermedium für meine Filme mitnehmen.

Preislich wäre alles unter 1k Netto interessant, da ich es direkt über meine Firma abschreiben kann.

Gibt es da irgendwelche Produkte die sich da hervortun?
ich bedanke mich herzlich für die Hilfe
Kategorien: 3DCenter Forum

IPv6 für einzelne App blockieren

Neue Forenbeiträge - Sa, 09.03.2024 12:21
Hallo,

ich habe hier ein Spiel (Warhammer 40k Martyr) welches einen Bug hat der verhindert, dass man sich mit den Spieleservern verbindet wenn am Rechner IPv6 aktiviert ist.
Ich handhabe es bisher so, dass ich IPv6 global in der FritzBox deaktiviert habe.
Da das aber nur eine Notlösung ist hier meine Frage: Gibt es eine Möglichkeit IPv6 nur für das Spiel zu blockieren/deaktivieren? Es läuft auf einem Win11 Rechner und über eine FritzBox 7530AX an Glasfaser.

Danke
Kategorien: 3DCenter Forum

VRAM-Auslastung aktueller Spieletitel

Grafikchips - Fr, 08.03.2024 16:30
Zitat: Zitat von Lurtz (Beitrag 13504816) Wenn Texturen = Ultra aber Konsolenqualität bedeutet und sich beim Runterskalieren überhaupt keine Arbeit gemacht wird, wie bei TLOU Part I, ist alles unter Ultra eben schon ein schlechter Kompromiss. Ja, deshalb empfehlen ja auch viele mittlerweile bisschen VRAM Puffer.
Nvidia macht es einem da allerdings nicht so einfach.
Aufpreis 4070(S) auf 4070 TI Super ist jetzt für die Kernzielgruppe solcher GPU's nicht so ohne.
Würde bei über WQHD Auflösung bei Neuanschaffung nicht mehr 12GB kaufen.
Aus 10% grenzwertigen großen Games wird dann schnell 1/3 und mehr nach 12 Monaten.
Aber es wird auch mit 12GB Dank Upscaling und Einstellungen wohl gutgehen.
TLoU war bisschen schlechter Release Zustand.
Hatte da mit 3080TI Ende letzten Jahres allerdings bislang auch keine Probleme.
Steel Rising ist auch mit 1,2 Reglern nicht auf Maximum weit über PS5 Niveau.
Das frisst nur einfach mörderisch Hardware in manchen Gebieten.
4080S in 4K mit DLSS schon voll empfehlenswert.

nVidia - GeForce RTX 4080 Super Review-Thread

Grafikchips - Fr, 08.03.2024 15:05
Also DLSS3 ist echt nen killerfeature. Muss ich schon so sagen, weil es perfekt funktioniert und kein Gefrickel ist wie bei AMD. Leider.

Von der Raytracing Performance mal ganz zu schweigen. Cyberpunk mit Pathtracing war halt schon ein Erlebnis.

Und selbst mit Avatar was ich gestern mal mit DLSS3 Mod probiert hab, kannste noch gut spielen in 4K.

Insgesamt schon beeindruckendes Biest und sogar kürzer und kühler als meine alte 6900XT.

Sind bei Fritzboxen alle LAN-Buchsen gleichwertig?

Neue Forenbeiträge - Fr, 08.03.2024 13:49
Moin.

Irgendwo vor einer halben Ewigkeit hab ich was darüber gelesen. Keine Ahnung mehr :frown:

Wie sieht es damit aus? Heut bin ich zufällig kurz hier reingestolpert
https://ch.avm.de/service/wissensdat...PTV-Anschluss/
und "6" erinnerte mich wieder daran.

Weiß da wer mehr? (als ich)

edit:
Ist da nebenbei die Zusatzinfo (2), daß wenn man den Zugang über "andere Anbieter" konfiguriert, eine Fritzbox IGMPv3 ausmacht? :|
Kategorien: 3DCenter Forum
Inhalt abgleichen