Neue Beiträge im Forum Technologie

Inhalt abgleichen 3DCenter Forum - Technologie
Aktualisiert: vor 9 Minuten 19 Sekunden

Bessere Monitore?

vor 1 Stunde 2 Minuten
Laut Gamestar ist jedenfalls MiniLED die Zukunft:
Zitat: Und mir ist vor Ort die Kinnlade heruntergeklappt, wie matt das vielbesungene OLED demgegenüber aussieht. Bei 27 Zoll und 1.152 Dimming-Zonen hab ich hier Mini-LED-Modelle gesehen, die auf 1.400 bis 2.000 cd/m² typische Helligkeit kommen, was mal eben das doppelte vom durchschnittlichen OLED-Display ist.
Ich durfte es bei TCL kurz an Elden Ring ausprobieren und habe noch nie so ein farbenfrohes, kräftiges und sattes "YOU DIED" auf meinem Bildschirm gesehen. Es hat mich schon sehr überrascht, wie viel besser sich das Spielerlebnis auf dem Mini-LED angefühlt hat.
Und dabei steht die Entwicklung von Mini-LED noch immer am Anfang: Das angesprochene Unternehmen HKC arbeitet wohl an einem 32 Zoll großen Panel mit mehr als 9.000 Zonen; wie man diese Menge erreichen will, konnte man mir aber nicht erklären.
Und das zweitbeste an der Geschichte: Im Gegensatz zu den aktuellen OLED-Monitoren sind die Mini-LED-Neuankündigungen vergleichsweise bezahlbar. Acer hat etwa ein neues Modell für das zweite Quartal 2026 angekündigt, das bei 600 Euro liegen soll. Vielleicht spricht aus mir der Messejubel, aber nach meinen Vergleichen kribbelt es mir schon unter den Fingern, meinen OLED am Spiele-PC zu ersetzen. https://www.gamestar.de/artikel/gami...a,3439125.html

:ugly:

Real-time Raytracing

vor 2 Stunden 10 Minuten
Zitat: Zitat von Gast (Beitrag 13809084) RTX Remix ersetzt die komplette Beleuchtung vom Originalspiel. Bei Pathtracing gibt es keine Schattenberechnung mehr, es gibt nur Beleuchtung und auf manche stellen fällt mehr auf andere weniger Licht und wo weniger Licht hinfällt bezeichnen wir als Schatten.

Stencil-Shadows sind eigentlich Shadow-Volumens, es wird also Geometrie für Bereiche die im Schatten liegen erzeugt, das alles wird obsolet wenn du die gesamte Beleuchtungspipeline austauscht. Danke für die Aufklärung! :up:

Dann scheint idtech4/Doom3-Engine ja besonders geeignet für NATIVES (und nicht nachträglich angeflanschtes) Ray/Pathtracing zu sein :smile:

R2

Unreal Engine 5

vor 6 Stunden 59 Minuten
Zitat: Zitat von Dampf (Beitrag 13808320) Hat eigentlich noch niemand das City Sample mit DLSS auf UE 5.6 und mit Einstellungsmenü sowie den aktuellesten Features wie das neue Streaming kompiliert? Würde mich mal interessieren, wie das heute laufen würde. Kompiliert nicht mit 5.6 ohne Zeugs zu flicken. Im Editor läuft es aber das packaging failed. Habe dann keine Zeit fürs flicken investiert. Vielleicht wird es mit 5.6.2 was.

Optiscaler, das Multifunktionswerkzeug für Upscaling, Framegenerierung und mehr

So, 07.09.2025 21:55
Zitat: Zitat von dargo (Beitrag 13808658) Mal eine Frage zu FSR 4.x und dem Optiscaler... sieht denn überhaupt jemand Unterschiede zwischen den sechs Modis? Was machen die genau oder worauf muss ich genau achten? Was die verschiedenen Modi machen, weiß ich nicht genau, aber bei Starfield sehe ich stellenweise Unterschiede.








Ist Ultra Performance. Mit Native AA sehe ich keine Unterschiede. Model 1 war ruhiger als Default

MicroLED-Displays

Fr, 05.09.2025 14:12
Stimmt alles und Tandem OLEDs wären zusätzlich nochmals deutlich energieeffizienter.
Das behauptet zumindest die Google AI. Genauer hab ich das nicht nachgeprüft.

AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)

Do, 04.09.2025 12:51
Zitat: Zitat von Gorkon (Beitrag 13807209) Nope, bleibt alles beim alten mit MP-Titeln. Du änderst ja trotz allem .dlls und damit potenzielle CRC/SHA256-Abfragen oder ähnliches.

Du sparst dir jetzt wirklich nur den OptiScaler Schritt wenn die Spiele FSR 3.1 haben. Für alles ältere oder DLSS-only braucht man immer noch Opti Wenn die Umsetzung von FSR3 jedoch vermasselt ist (Input Daten), dann kann DLSS -> FSR4 via OptiScaler immer noch besser aussehen. Außerdem hat Opti ja noch ein paar Features die ggf. fehlen oder nur schlecht Umgesetzt werden, wie Schärfe-Filter inkl. Motion-Erkennung, MipMap Anpassung usw ... FSR4 kann auch einen niedrigeres Mip-Level (und damit tendenziell mehr Textur Details) ab als FSR3 da es weniger zum Flimmern neigt.

Btw. die Mipmap Bias kann mit DLSS kleiner (also ein größerer neg. Wert) sein als wenn FSR als Input verwendet wird, dass kann in einigen Bild-/Video-Vergleichen auch Unterschiede bei den Details erklären.

nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4

Mo, 01.09.2025 13:41
Zitat: Zitat von aufkrawall (Beitrag 13804775) Auch im zweiten. Und nochmal: Ist mit CNN E komplett nicht existent. Weiß nicht, was daran so schwer zu verstehen ist... Das eine schließt das andere nicht aus. Wäre nicht das erste mal dass DLSS eine Artefakt unterdrückt dass eigentlich schon im Content drinnen ist.

Neuer HDMI-Standard kommt

Mo, 01.09.2025 13:35
Zitat: Zitat von Platos (Beitrag 13682346)
Schon beim Herauskommen ist kein 8k 120Hz ohne Kompression möglich. 4k 240Hz zwar, aber kein 8k 120Hz. Wie auch? 8k sind auch 4x so viele Daten, wenn 4k240 geht dann geht eben nur 8k60.

Zitat: Für 100" Gaming-TVs brauchts nunmal 8k und 120Hz. Aber hoffentlich gibts trotzdem welche, dann eben mit Kompression. Sieht man eh nicht bei so einer niedrigen Kompression dann. Für Gaming braucht es viel aber sicher kein 8k. Fraglich ob es 8k außerhalb von VR überhaupt braucht.

Und was ist so schlimm an Kompression? Jede BD verwendet Kompression, auf Kompression zu verzichten ist einfach dämlich wenn man mit Kompression in der selben Bandbreite mehr Qualität unterbringt.

DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC

Fr, 22.08.2025 11:48
Zitat: Zitat von Lurtz (Beitrag 13800912) Scheint im Zweifel halt auch ohne zu gehen. Ein Alan Wake 2 zB hat ingame keinerlei Ladezeiten, streamt alles, sogar Videosequenzen in-engine, und hat auch ohne DS sehr kurze Ladezeiten. Ja, die UE5 verwendet afaik auch noch kein DirectStorage (zumindest noch nicht, soll zukünftig kommen). Die Engine muss aber dennoch einen entsprechend modernen Unterbau inkl. Auslegung auf SSDs mitbringen. Zum Beispiel Ladeprozesse auf mehrere Threads auslagern, laden und Streaming mit kurzen Latenzen (da SSD) implementieren. Sonst wird das nichts mit schnellen Ladezeiten und Streaming.

Bezüglich Spielstart regt mich aber oft auch das Startgeplänkle mit Publisher, Entwickler usw. Screens auf bis man ins Menü gelangt. Beim allerersten Spielstart ist das OK. Nachher will ich das aber weggklicken / abbrechen können.

Wie viel kostet es, einen Django-Entwickler in Köln, Deutschland, einzustellen?

Do, 21.08.2025 07:07
Stellen Sie Django Entwickler Ein in Cologne, Deutschland Ob Sie ein Startup sind, das ein Minimum Viable Product (MVP) entwickelt, ein mittelständisches Unternehmen, das die Workflow-Automatisierung verbessern möchte, oder ein großes Unternehmen, das digitale Plattformen skaliert – Django-Entwickler können einen entscheidenden Einfluss auf den Projekterfolg haben.
Doch die zentrale Frage vieler Organisationen lautet: Wie viel kostet es, einen
Django-Entwickler in Köln einzustellen?

Die Antwort ist nicht eindeutig, da mehrere Faktoren den Endpreis beeinflussen – von der Erfahrung des Entwicklers über die Projektkomplexität bis hin zum gewählten Beschäftigungsmodell. Dieser Artikel beleuchtet die wichtigsten Aspekte und erklärt, wie innospitzen Ihnen helfen kann, die passenden Django-Talente in Köln zu finden, ohne Ihr Budget zu überschreiten.

Warum Köln, Deutschland, ein starkes Zentrum für Django-Entwickler ist

Köln zählt zu den lebendigsten Wirtschafts- und Technologiezentren Deutschlands. Die Stadt ist bekannt für ihre Mischung aus traditionellen Industrien und einer aufblühenden Tech-Szene und hat sich zu einem attraktiven Standort für Softwareentwickler, einschließlich Django-Spezialisten, entwickelt.
Dynamische Tech-Szene – Köln bietet eine Mischung aus etablierten Unternehmen, SaaS-Startups und Digitalagenturen, was eine kontinuierliche Nachfrage nach Python- und Django-Entwicklern schafft.
Bildungsstärke – In der Region gibt es Universitäten und Forschungsinstitute, die bestens ausgebildete Programmierer in Python, Django und modernen Frameworks hervorbringen.
Internationale Vernetzung – Entwickler in Köln arbeiten oft an globalen Projekten und sind daher routiniert im Umgang mit vielfältigen Teams und komplexen Anforderungen.
Die Einstellung eines Django-Entwicklers in Köln bedeutet Zugang zu einem Talentpool mit technischer Expertise und internationalem Geschäftsverständnis.

Faktoren, die die Kosten für die Einstellung von Django-Entwicklern in Köln beeinflussen

Die Kosten variieren je nach Situation erheblich. Die wichtigsten Faktoren sind:

Erfahrung und Qualifikationsniveau
Junior-Entwickler – 1–2 Jahre Erfahrung, geeignet für kleinere Projekte, Bugfixes oder Support-Rollen; günstiger.
Mid-Level-Entwickler – 3–5 Jahre Erfahrung; bewältigen komplexe Kodierung, Integrationen und Teamarbeit.
Senior-Entwickler – 5+ Jahre Expertise; spezialisiert auf Architektur, Optimierung, Leadership; höherer Preis, aber großer Mehrwert für Großprojekte.
Projektkomplexität
Einfache Webanwendungen – Firmenwebsites, Dashboards, Prototypen.
Individuelle Business-Plattformen – z. B. CRM-Systeme, E-Commerce, Buchungssysteme.
Großskalige Systeme – Enterprise-Projekte mit Microservices, API-Entwicklung und Sicherheit.
Einstellungsmodell
Freelancer – flexibel und kostenbewusst bei kurz- oder mittelfristigen Projekten.
Feste Mitarbeiter – höhere Kosten in Deutschland durch Gehälter und Sozialabgaben, ideal für langfristige Bindung.
Remote-/Contract-Developer – flexibel, teilweise günstiger; lokal oder international möglich.
Unternehmensgröße und Budget
Großunternehmen zahlen Premiumpreise für Top-Talent.
Startups setzen oft auf Freelancer oder Remote-Entwickler zur Kostenoptimierung.
Marktnachfrage
Mit dem Wachstum des digitalen Sektors in Köln steigt die Nachfrage nach Django-Experten, wodurch Preise in spezialisierten Nischen anziehen.

Mehr als nur Gehalt: Die tatsächlichen Kosten
Neben dem Stundensatz oder Gehalt spielen auch diese Faktoren hinein:

Rekrutierungskosten (Stellenanzeigen, Interviews, Prüfungen).
Einarbeitung (Workflows, Standards, Tools).
Arbeitsmittel & Softwarelizenzen.
Retention-Maßnahmen (Benefits, Karrierechancen, Unternehmenskultur).

Warum Unternehmen in Köln auf Django setzen

Schnelle Entwicklung – Django-Features beschleunigen die Delivery.
Skalierbarkeit – geeignet von MVPs bis zu Enterprise-Lösungen.
Sicherheit – ideal für Branchen wie FinTech oder Healthcare.
Vielfältigkeit – nutzbar für E-Commerce, SaaS, APIs, Enterprise-Systeme.
Community-Support – aktives Python-/Django-Netzwerk in Deutschland.

Wie innospitzen Unternehmen bei der Rekrutierung unterstützt

Vorqualifizierte Entwickler – geprüft auf Technik- und Kommunikationsskills.
Flexible Modelle – Freelancer, Vollzeit oder projektbezogen.
Lokal + Remote – Zugriff auf Kölner Entwickler oder Remote-Spezialisten.
Transparente Kostenstruktur – keine versteckten Gebühren.
Skalierbare Teams – flexibel erweiterbar je nach Projektfortschritt.

Tipps zur Kostenoptimierung

Projektumfang klar definieren.
Hybride Teams nutzen (lokal + remote).
Nach Skills statt Titeln auswählen.
Flexible Verträge bevorzugen.
Top-Talente binden, um Fluktuation zu vermeiden.
Häufige Fehler bei der Kostenschätzung

Fokus nur auf Stundensätze ohne Output-Betrachtung.
Onboarding-Phase unterschätzen.
Projektkomplexität falsch einschätzen.
Kulturelle Passung ignorieren.
Fazit
Wie viel kostet es, einen Django-Entwickler in Köln einzustellen?
Das hängt stark von Erfahrung, Projektumfang und Modell ab. Die Kosten liegen eventuell über dem Niveau anderer Städte, aber Köln überzeugt durch:
bewährte Talente,
eine dynamische Tech-Szene,
internationale Projekterfahrung.
Die wichtigste Erkenntnis: Die Kosten sind eine Investition. Ein erfahrener Django-Entwickler in Köln schreibt nicht nur Code, sondern baut Systeme, die Sicherheit, Skalierbarkeit und Wachstum ermöglichen.
Mit innospitzen als Partner beschleunigen Sie den Rekrutierungsprozess, halten die Kosten transparent und sichern sich langfristig Erfolg.

Co-packaged optics erklärt

Mi, 20.08.2025 20:55
Den hat gar Cutress mal eingeladen gehabt und war auffallend hochachtungsvoll :cool:

Solid-State-Lüfter

Mi, 20.08.2025 08:19

AI/Machine Learning in Gaming

Do, 14.08.2025 22:45
Zitat: Zitat von The_Invisible (Beitrag 13785286) Bis zu 90% vram Einsparung mit neural Texture
https://wccftech.com/nvidia-neural-t...to-90-percent/

Anscheinend auch für Game Downloads interessant wo man massiv einsparen kann Wäre doch toll um endlich mal die Diskussion um den Menge an VRAM vom Tisch zu bekommen.

Holographie als Monitorersatz

Di, 12.08.2025 22:58
Tja, sowas wär schon geil :D



MfG
Rooter

Wer ist der beste Wrapper im ganzen Land (2024)?

Mo, 11.08.2025 14:40
wenn man directx von MS nachinstalliert, sollte doch alles ab Version 9 doch ohne Wrapper laufen, oder nicht?

Sind Quantencomputer in 3 Jahren das Maß aller Dinge?

So, 10.08.2025 19:27
Zitat: es gibt so viele Ansätze und niemand weiß genau wo das hinführen kann/wird Wie auch? Hat bereits Schrödinger nicht gewusst. :redface:

Frame Generation für jede GPU (Lossless Scaling)

Fr, 08.08.2025 11:22
Zitat: Zitat von robbitop (Beitrag 13794457) Also was ich mir vorstellen könnte, ist dass AMD/Nvidia/Intel den compute Teil von Frame Generation (aber ggf auch von Super Resolution oder Ray Reconstruction) auslagerbar machen können. Zumindest bei Frame Generation hat man eigentlich genug Zeit den Frame auf die zweite GPU zu schieben und ein (oder mehrere) weitere generieren zu lassen. Das demonstrieren ja bereits AFMF2.x und LSFG 3.x. Warum soll das nicht auch mit DLSS FG/FSR FG/XeSS FG gehen?
Bei den super resolution Teilen bin ich mir nicht sicher. Ggf. nur in Verbindung mit FG (da ja ohnehin um 1 Frame verzögert wird). Aber an sich ist das Upsampling in der Frametime ja wunderbar abgetrennt vom eigentlichen Rendering und vom PostFX und HUD. Die 2. GPU könnte auch potenziell PostFX und HUD übernehmen (wobei das dann explizit auch vom Spiel zB mittels entsprechend erneuertem SDK von AMD/NV/Intel unterstützt werden müsste).

Was problematisch daran ist: Ausgabemonitor müsste auf die 2. GPU (Bandbreite und Latenz), man muss sicherstellen, dass genug PCIe Bandbreite auch für die 2. GPU vorhanden ist usw. Eine Menge potenzieller Fallstricke für den User, da könnte die User Experience schlecht werden.
Ggf. könnte man das durch eine erneute Einführung eines separaten Interfaces (wie NVLink oder Äquivaltente) auch umschiffen. Da gibt es ja heutzutage sehr potente Interfaces, die das leisten könnten.

Ich bin mir aber nicht sicher ob das nicht zu nieschig wäre. Aber vorstellbar wäre es IMO. Und man könnte dadurch ggf. GPU Verkäufe (bei den Enthusiasten) ankurbeln und wieder mehr Buzz/Hype verbreiten.

Aber verwetten würde ich darauf nichts ^^ Mir geht schon seit Jahren nicht in den Kopf, warum man die in praktisch jeder CPU vorhandene iGPU nicht gezielt für Post-Processing nutzt – sprich fürs „Bild-Aufhübschen“ nach dem Rendering.
Gerade für Dinge wie Upscaling, PostFX oder HUD-Rendering müsste das theoretisch perfekt passen.

Die Lage bei GPUs erinnert mich stark an die CPU-Situation vor 10–15 Jahren: ein dominanter Hersteller, kleine Generationensprünge, und am Ende setzen Konsolen-SoCs die Leistungsgrenze. Der PC bekommt vor allem visuelle Extras.

Genau hier könnte ein echtes Halo-Produkt ansetzen:
Ein Board mit mehreren Chips – z. B. ein Top-Chip aus der aktuellen Generation plus ein Mittelklasse-Chip der letzten Gen – auf einer Platine.
So umgeht man viele der Bandbreiten-/Latenzprobleme von Multi-GPU-Setups und hätte genug Rechenleistung für Frame Generation, Super Resolution und PostFX aus einer Hand.

Ja, das wäre in der ersten Generation teuer. Aber es würde frischen Wettbewerb anstoßen – und ich bin sicher, dass sich AMD, Nvidia und Intel in so einem Prestigeprojekt gegenseitig hochschaukeln würden.
Das Ergebnis: mehr Innovation, mehr Buzz, und für die Enthusiasten endlich wieder ein echtes Kaufargument.

Gaming auf 8k

Sa, 02.08.2025 15:01
Die 5090 ist für 8K eine Offenbarung. Alle Games noch vor "DLSS" laufen nativ mit 60+ FPS. VRAM und Leistung geben meist noch 11k@30FPS her - vorausgesetzt spielinternes Rendertarget. Alle Games ab DLSS laufen per se auch 8K60, wo man sich einfach nur entscheiden muss ob DLAA, Quality, Balanced mit oder ohne RT. 8K60 läuft immer. Ich komme gar nicht mehr auf die Idee 4K in irgendeinerweise zu aktivieren. Von der Bildqualität und durchgehenden Nutzung kann man sowas historisch vielleicht mit dem sofortigen Übergang von PS1 zu Xbox360 vegleichen. Wer in einer 5090 noch keinen großen Wert bis jetzt gesehen hat, der muss ein 8K TV dran anschließen = Fotorealismus.

Leute, wie könnt Ihr so zocken?

Fr, 01.08.2025 17:32
RIDE 4 kann man 16K@20FPS fahren. Mit BFI verlagert sich die Bildqualität ganz wo anders hin. Ohne BFI ist 8K@16K Downsampling halt bisschen schärfere Kanten, mehr auch nicht. Mit BFI man fühlt sich wie auf einer echten Straße, sprich die Augen können sich komplett auf die Landschaft 400 Meter weiter und an der Seite entlang konzentrieren, während man mit peripheral vision sein Bike lenkt. Alles was entlang der Strecke steht, Bäume, Häuser... sind plötzlich interessante Objekte wie wenn man an der Autobahn fährt und sich nicht wirklich auf Fahren konzentriert. So fotorealistisch sieht das ganze aus.

Intel Xe Super Sampling (XeSS)

Fr, 01.08.2025 15:20
Das FG scheint ziemlich gut auszusehen und skaliert auf der 5070 in 4k mit 55% bei 55fps Basis.
Leider inkompatibel mit dem Treiber-Vsync von Nvidia, macht Frame Times kaputt. Könnte als Backend in OptiScaler aber sehr spannend sein, womit denn Vsync und Reflex wieder gehen sollten. Es scheint viel weniger zum Garbling zu neigen als DLSS FG, aber dafür wohl zu etwas mehr Unschärfe. Wesentlich überzeugender als das XeSS-Upsampling.