3DCenter Diskussionsforen

MicroLED Displays

Zitat: Zitat von RavenTS (Beitrag 13498954) Aber vielleicht für AR-Brillen oder HUDs in allen möglichen Fahrzeugen oder irgendwann mal einem Handy/Tablet wie bei Star Trek oder Displays in Automaten etc. pp.?! Alles potenzielle Einsatzgebiete ohne Frage, mein Kommentar bezog sich auch nur auf die Verwendung als transparenter Laptopbildschirm.

@Basix: Vielleicht gibts dann zukünftig als aufpreispflichtiges extra den privacy Vorhang hinter dem Bildschirm den man dann zu ziehen kann :freak:

AMD/ATI - Radeon RX 7700 XT & 7800 XT Review-Thread

Grafikchips - Mo, 26.02.2024 16:03
Danke, wusste ich nicht, aber funzt^^
Wobei Vram auch da nicht dabei ist. Das ist doch ne Standard Info :confused:

Zitat: Zitat von Dino-Fossil (Beitrag 13498676) Kann man doch im Adrenalin Treibermenü alles aktivieren, oder? Gerade gefunden, danke. War wohl blind...

AMD - Ryzen 8000G Review-Thread

Prozessoren und Chipsätze - So, 25.02.2024 16:43
Ich hab den 8700G ins Auge gefasst... will den mit 45W passiv als HTPC nutzen und ab und zu mal ne Runde in FullHD ggf mit F/RSR was zocken sowas wie LEGO Starwars :D
Passiv ist mir wichtig deshalb kommt mir kein MiniPC mit Lüfter ins Wohnzimmer...

AMD - Zen 3/Ryzen 5000 Review-Thread

Prozessoren und Chipsätze - Sa, 24.02.2024 16:00
Zitat: Zitat von HOT (Beitrag 13497513) 6400 wäre doof, da das IOD dann mit 2:1 läuft. 6200 wäre das Maximum. HUB nutzt 6000er für AMD und 7200 für Intel standardmäßig. Wenn HWUB schon RAM-OC fährt, werden sie klug genug sein, ein sinnvolles Setting zu wählen, welches auch gut performed. Wenn 6400 plötzlich langsamer als 6000 laufen, weil das SoC intern den IF-Multi hochschraubt, dürften sie das mitbekommen und gefixt (oder auf 6000 gelassen) haben.

AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread

Grafikchips - Fr, 23.02.2024 22:01
Zitat: Zitat von ][immy (Beitrag 13496740) Ich Frage mich allerdings ob das nur ein falscher Wert vom Treiber/Sensor ist, denn bei 300W hätte ich erwartet das auch die Temperatur ansteigt, was nicht der Fall war.
Zudem begrenze ich auf 60fps, was dann auch erstaunlich wäre, weil der größte Teil der Karte bei meinen bisherigen tests eigentlich idlen sollte. Seltsam. Computerbase hat da (v.a. im fps-Limit) sehr niedrige Verbrauchswerte gemessen.
Evtl. Treiber vermurkst oder Anzeige falsch?
Welche Auflösung hast du?
Miniaturansicht angehängter Grafiken  

rabbit r1 - your pocket companion - AI Device

das ging schnell
Zitat: „Buche mir einen Flug zum Viertelfinale“. Einfach per Sprachbefehl gehorcht der intelligente Assistent aufs Wort. Der Showcase zeigt anhand von konkreten Beispielen wie ein KI-Smartphone bei Reiseplanung, Einkauf, Videoerstellung oder Fotobearbeitung das Leben erleichtert. Möglich macht das ein digitaler Assistent der Telekom. Mittels KI übernimmt er die Funktionen unterschiedlichster Apps und kann alle täglichen Aufgaben erledigen, für die normalerweise mehrere Anwendungen auf dem Gerät benötigt würden. Ganz mühelos und intuitiv lässt sich der Concierge über Sprache und Text steuern. https://www.telekom.com/de/medien/me...n-apps-1060268

AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread

Grafikchips - Do, 22.02.2024 16:11
Na, das kann ich ja schon mal ziehen (y).

Verspreche mir davon jetzt nicht sooo viel, einfach so 'ne Art Überbrückung bis Tag x. RT hat mir nie so richtig was gegeben, habe mich nur über den Einbruch der Bildraten gewundert bis geärgert und nun soll es einfach eine Vernunftlösung werden. 2026 schauen wir dann mal weiter.

AMD - Ryzen 7040 Mobile (Phoenix, Zen4) Review-Thread

Prozessoren und Chipsätze - Di, 20.02.2024 14:43
Das Problem ist, dass sich Gaming-APU Nutzung und Notebook-APU Nutzung in ihren Anforderungen stark unterscheiden. Was gut für den einen ist, ist schlecht für den anderen.

Für den <=10W TDP Gaming Use-Case wird es mMn einfach weiterhin spezielle SoCs brauchen. "big.Little" kann hier sicherlich noch mal ein bisschen mehr Flexibilität schaffen, aber ein Wundermittel ist das ohne darauf getrimmten Software-Support auch nicht. AMD wird ohne explizite Großbestellung sicherlich keine Low-Power Gaming APU entwickeln, da der Markt dafür einfach zu klein ist.

Und auf einen Wunder-SoC hoffen, der von 5-30W immer perfekt skaliert ist auch albern. Von daher wählt man was einem selbst am Sinnvollsten erscheint.

nVidia - Geforce GTX Titan: (P)Review-Thread

Grafikchips - Sa, 17.02.2024 17:04
Zitat: Zitat von Raff (Beitrag 13489771) Geforce GTX Titan elf Jahre später: Alte Enthusiast-GPU vs. neue Einsteiger-Grafikkarte

-> Nur in Teilbereichen "zukunftssicher". ;)

MfG
Raff Es gab doch auch noch die Titan Z als Flagship, die müsste doch auch Kelper GK110 sein analog zur GTX690 mit 2xGK104. Ein Vergleich (heute) mit einer HD7990 oder FirePro S10000 12GB wäre dann auch interessant. Edit: Aber man müsste sicherlich ein wenig mit dem nVidia Profile Inspector herumprobieren bis alles läuft. :redface:

Gruß
BUG

Intel - ARC Battlemage reviews, Infos etc.

Grafikchips - Sa, 17.02.2024 16:42
https://youtu.be/66uLzezVP2Q?t=188

"Final BMG validation is targeting Q4 2024 at the earliest"


Also kann man nicht vor mitte 2025 damit rechnen. Das könnte sich auf das 64 Xe Modell beziehen muss man dazusagen. Aus anderen Quellen ist zu hören, dass G10 mit 56 Xe Kernen gestrichen wurde, weswegen es hier zu einer deutlichen Verzögerung kommt. Angeblich wurde vor 3 Monaten begonnen am 64 Xe Design zu arbeiten. Dann wäre die späte Validierung kein Wunder.


Das kleinste Modell mit 20 Xe Kernen soll wie ursprünglich aber noch auf der Roadmap stehen. Falls etwas kommt Ende 2024 oder Anfang 2025, dann wohl nur die kleinere 20 Xe Version. Ein deutliches Upgrade als A380 Nachfolger wäre es allemal.

Meltdown & Spectre: Sicherheitsrisiken durch Spekulation bei aktuellen Prozessoren

Prozessoren und Chipsätze - Fr, 16.02.2024 23:12
Zitat: Zitat von anddill (Beitrag 13492462) Diese Lücken sind schon seit mehreren A.G.E.S.A. Versionen gefixt. Bisher hat sich keiner über Performanceverluste beschwert:

https://www.heise.de/news/AMD-CPU-Si...t-9629613.html
Ach dann waren das die Lücken mit den BIOS-Updates z.B. letzten Oktober:
https://www.msi.com/Motherboard/X570-A-PRO/support
AMI BIOS7C37vHM2023-10-20
Description:
- AGESA ComboAm4v2PI 1.2.0.B update.
- AMD security issue patch.
- Support new Ryzen 5000 CPU.

Na gut, ist schon seit November im System eingespielt :-).

OpenAI Sora - Creating video from text

Ich sehe schon das Video vor mir, in dem Kanzler Scholz alles zugibt, Chemtrails, 11.9. Inside Job, Impflüge, Corona Verschwörung, QAnon, gezielter Bevölkerungsaustausch in Deutschland/ Europa.....
Und die Hälfte der Deppen in den einschlägigen Telegramgruppen wird das glauben, weil das Video beweist das ja und so.

Wie sieht Eure PC-"Grafikkarten-Laufbahn" aus?

Grafikchips - Fr, 16.02.2024 14:01
-ISA 512
-PCI S3 Trio 64 2MB
-PCI S3 Trio 64/V2+ 2MB
-PCI S3 Virge DX 2MB
-PCI Matrox Mystique 2MB
-PCI Matrox Mystique 4MB zzgl. 1, später 2 Voodoo-II 12MB-Boards
-PCI Matrox Mystique 220 4MB + Rainbowrunner
-AGP Matrox G200 8MB
-AGP Matrox G400 DH 32MB (auch hier waren die Voodoos zu Teil noch in Betrieb - glide rocks!)
-AGP ATI Radeon 8500 BBA 64MB
-AGP ATI Radeon 9500 Pro 128MB (Hercules 3D Prophet)
-AGP ATI X800gto² 256MB (Sapphire GTO²)

-PCIe ATI X1950Pro (Sapphire, 12-2006)
-PCIe ATI Radeon HD 4870 (Sapphire Toxic, 01-2009)
-PCIe AMD Radeon HD 6950 (Sapphire Dirt3 Edition, 06-2011)
-PCIe AMD Radeon R9 280X OC (Asus R9 280X DirectCU II TOP, 01-2014)
-PCIe AMD Vega 64 black air (XFX-Modell, 10-2017)

-PCIe AMD Radeon RX 7800 XT (XFX Speedster QICK 319, RX-78TQICKF9, 02-2024)

ChatGPT (KI-Chat, "HTML/Javascript"-Code erzeugen lassen)

Zitat: Zitat von Troyan (Beitrag 13491317) Benutzen Mistral mit 7B sowie Llama mit 13B Parametern. Der Vorteil hier ist, dass das ganze auf die TensorCores umgesetzt ist und nicht per CPU/Cuda läuft.

/edit: Paar Infos von nVidia: https://blogs.nvidia.com/blog/chat-w...available-now/ Was kein CUDA? TensorRT-LLM setzt auf CUDA auf, alles andere wäre dämlich... CUDA kann sehr gut mit den Tensor Kernen umgehen, oder was macht denn eine H100 damit? ;)
Kannst selbst nachschauen: https://github.com/NVIDIA/TensorRT-LLM

Offiziell aus der TensorRT Homepage:
Zitat: TensorRT, built on the NVIDIA CUDA® parallel programming model,[...]

Zitat: Zitat von Trap (Beitrag 13491360) Wenn Lllama13B geht, dann sollte technisch auch Llama70B gehen. Braucht halt in FP16 140 GB VRAM oder quantisiert so um die 45 GB. Also geht es technisch doch nicht. Wenn man nicht gerade eine dicke Quadro hat ;)

Unreal Engine 4

Zitat: Zitat von Chris Lux (Beitrag 13490988) Es gab aber damals schon glDrawPixels() ;). Damit konnte man den z-Buffer schreiben bevor man seine Polys rendert. Ah OK, danke, ich dachte das kam erst später so um die DX7 Ära.

nVidia - GeForce RTX 3050 Review-Thread

Grafikchips - Mi, 14.02.2024 08:13
In meinem Zweitsystem werkelt jetzt seit einigen Tagen eine 3050 6GB Low-Profile von MSI. Bin von der Karte durchaus angetan. Die Gaming-Leistung hat sich im Vergleich zu meiner bisher verbauten (und durch PCIe 3.0 zusätzlich beschränkten) RX6400 grob verdoppelt. Auch Starfield läuft jetzt in 1440p Medium einwandfrei. Ein Spiel wo die RX6400 zuvor kein Bein auf den Boden bekommen hat. Lüfter sind bei Gaminglast natürlich deutlich hörbar, erwarte bei dem Formfaktor und 70-Watt aber auch nichts anderes. Nee in Summe bin ich zufrieden mit der Karte, ist ein nettes Upgrade in dem Formfaktor. Ist jetzt meine erste GeForce seit einer 1070. Finde es ganz faszinierend das der Treiber immer noch völlig veraltet nach Win2k Optik aussieht und dies scheinbar keinen stört.

Zitat: Zitat von user77 (Beitrag 13486752) es gibt auch eine NVIDIA RTX 4000 SFF (Ada) mit 70W :eek::eek::eek:

https://www.techpowerup.com/gpu-spec...neration.c4139 Krasses Ding. Dürfte dann wirklich die schnellste Low-Profile 70-Watt Karte sein mit Abstand. Wobei Preis von 1500€ natürlich außerhalb der sinnvollen Range ist. Ist auch die Frage wie viel Leistung die Karte am Ende wirklich auf die Straße bekommt. Die RTX A2000 basiert ja auch auf dem großen Chip der 3060 im Vollausbau und landet im Leistungsindex trotzdem 10% hinter der normalen 3050, ist also übelst Powerlimitiert. Generell fände ich so einen Generationsvergleich auf 70-Watt Karten beschränkt mal ganz interessant, um den tatsächlichen Fortschritt über die Generationen vergleichbar zu machen
Miniaturansicht angehängter Grafiken    

Gaming auf 8k

Nach einigen Monaten 8k muss ich heute mal ein leicht erschreckendes und überraschendes Feedback dazu geben.

Ich bin schockiert, wie gut ich 8K-Content mittlerweile erkenne und es zu schätzen weiß, wenn jemand auf Youtube mal in 8k gefilmt hat. Sobald ich dann wieder 4K sehe denke ich sowas wie:,,Uh, das ist jetzt doch ein bisschen soft". (Natürlich nur, wenn ich sehr nah vor meinem 65 Zoller sitze, aus 2m Entfernung keine Chance mehr.)

Doch ich hätte nicht erwartet, dass ich mich an 8K gewöhne wie an 120Hz und es so sehr vermisse wenn ich es mal nicht habe. Besonders, da ich es zu Beginn kaum bis gar nicht gesehen habe. Und es schockiert mich, weil 8K Geräte und Inhalte eher die Seltenheit und ziemlich teuer sind. Ich will nicht mehr zurück. Ganz ehrlich, auf einem Smartphone würden mir sogar 1080p genügen aber auf einem sehr großen TV... da will ich mittlerweile eigentlich schon 8k, auch, wenn ich es mir selbst ungern eingestehe, weil ich weiß, dass ich mir gerade keinen zweiten, ordentlichen 8K TV leisten kann. :freak:

Fu**, ich will nicht, dass mir 8K so gut gefällt, es ist noch mit so vielen Problemen verbunden, aber es ist geil. Besonders als riesen PC-Monitor ist es das Ultimum, ein wahr gewordener Pipe-Dream.

Intel - "Raptor Lake Refresh"/Core i-14000 Review-Thread

Prozessoren und Chipsätze - Di, 06.02.2024 13:44
Ich meine die testen ihre Intels immer mit 7200 und die AM5 sogar mit 6400.
Das läuft natürlich nicht bei allen stabil und leider fehlen oft Vergleichswerte mit beiden auf 6k
Inhalt abgleichen