25

News des 25. September 2008

Laut der ComputerBase soll der Trend bei hochwertigen TFT-Monitoren demnächst in Richtung von Displays mit 10-Bit-Farbtiefe (pro Farbkanal) gehen, was durchaus interessant wäre, unterstützt dies doch der sich derzeit durchsetzende DisplayPort-Standard. Zudem rechnen die Grafikchips von ATI und nVidia schon seit Jahren intern in höheren Genauigkeiten und schreiben teilweise auch die Ergebnisse schon in (geringfügig) höheren Genauigkeiten in den RAMDAC, welcher dann das Bild auf den Monitor ausgibt – mittels 10-Bit-Monitoren könnte man gerade dieses im Speicher liegende 10-Bit-Bild dann erstmals vollwertig ausgeben. Von 8 Bit pro Farbkanal auf 10 Bit wäre zwar kein übermässig großer Sprung und HDR ist damit auch noch nicht erreicht, aber dies gibt die derzeitige Übertragungstechnik sowieso nicht her. Mittels 10-Bit-Monitoren könnte man aber wenigstens das nutzen, was viele Grafikkarten schon seit längerem und die Übertragungstechnik mittels DisplayPort seit kurzem anbieten.

Ein recht interessantes Interview hat die DigiTimes mit dem nVidia-CEO Jen-Hsun Huang geführt. Natürlich gibt es nicht die großen Offenbarungen zu lesen, aber das Interview bietet in seiner Gesamtheit doch einige lesenswerte Informationen. Zu beachten wäre natürlich der spezielle Blickwinkel des nVidia-Chefs, womit dieser unter Rücksichtnahme auf den Aktienkurs kaum offenbaren kann, daß die kommende Integration von Grafikchips in die Prozessoren von AMD und Intel sein Unternehmen letztlich doch Marktanteile im Mainboardchipsatz-Geschäft kosten wird oder aber daß es perspektivisch als nicht gerade wahrscheinlich erscheint, als reiner Grafikchip-Hersteller überleben zu können.

Was natürlich nicht bedeuten mag, daß sich nVidia intern nicht ebenfalls in diese Richtungen hin Gedanken macht – nur kann man dies kaum nach außen hin zeigen, weil das öffentliche Eingeständnis, daß man langfristig gesehen gewaltigen Herausforderungen gegenübersteht, nicht gerade eine Stärkung der jetzigen Position bedeutet. nVidia bleibt hier gar nichts anderes übrig, als diese zukünftigen Herausforderungen zum jetzigen Zeitpunkt bewußt kleinzureden – und erst dann durch die Blume anzuerkennen, wenn man eine passende Lösung mit großem Paukenschlag präsentieren kann. Für ein solches Vorgehen gibt es schließlich überall Vorbilder – man denke beispielsweise nur an Intels Umschwung von der Netburst- zur Core-Architektur, als Intel fast bis zum letzten Tag noch Netburst propagandierte.

Zum gestern erwähnten ersten Test des DualCore K10-Prozessors auf Expreview wäre noch hinzufügen, daß es sich bei diesem natürlich um einen QuadCore mit zwei deaktivierten Kernen handelt. Darauf weist zum einen die recht hohe Leistungsaufnahme hin – und zum anderen der Umstand, daß AMD üblicherweise pro Prozessor-Architektur und Fertigungsgröße nur einen Prozessor-Kern fertigt und diesen dann nur je nach Anwendungsgebiet labelt. Hierbei sollte man sich nicht davon verwirren lassen, daß AMD für jede diese Labelung einen extra Core-Namen vergibt – so haben die Server, QuadCore-, TripleCore- und DualCore-Varianten des K10-Kern allesamt extra Core-Namen – rein produktionstechnisch ist das alles dasselbe.

Was für den Endkunden letztlich keinen Unterschied macht, ist für AMD in der Fertigung durchaus bedeutend, weil man mit diesem Fertigungsmodell weit weniger flexibel ist als Intel, deren QuadCore-Prozessoren derzeit schlicht aus zwei zusammengeklebten DualCore-Dies bestehen (und welche dann bei Nehalem extra DualCore- und extra QuadCore-Kerne auflegen werden). In der Fertigung kostet AMD das DualCore-Modell somit genauso viel wie das QuadCore-Modell – was eventuell auch AMDs Zurückhaltung erklärt, den DualCore K10 korrekterweise als "Phenom X2" zu labeln und mit ein wenig mehr Enthusiasmus in den Markt zu bringen. Denn gerade die Overclocking-Ergebnisse des vorgenannten Tests (aus dem Stand 3.0 GHz, mit Spannungszugabe 3.4 GHz) würden es wohl sogar möglich machen, mittels DualCore K10-Prozessoren auf hohen Taktraten mit Intels Core 2 Duo Serie auf Augenhöhe zu konkurrieren.

Laut der ComputerBase soll der Trend bei hochwertigen TFT-Monitoren demnächst in Richtung von Displays mit 10-Bit-Farbtiefe (pro Farbkanal) gehen, was durchaus interessant wäre, unterstützt dies doch der sich derzeit durchsetzende DisplayPort-Standard. Zudem rechnen die Grafikchips von ATI und nVidia schon seit Jahren intern in höheren Genauigkeiten und schreiben teilweise auch die Ergebnisse schon in (geringfügig) höheren Genauigkeiten in den RAMDAC, welcher dann das Bild auf den Monitor ausgibt - mittels 10-Bit-Monitoren könnte man gerade dieses im Speicher liegende 10-Bit-Bild dann erstmals vollwertig ausgeben. Von 8 Bit pro Farbkanal auf 10 Bit wäre zwar kein übermässig großer Sprung und HDR ist damit auch noch nicht erreicht, aber dies gibt die derzeitige Übertragungstechnik sowieso nicht her. Mittels 10-Bit-Monitoren könnte man aber wenigstens das nutzen, was viele Grafikkarten schon seit längerem und die Übertragungstechnik mittels DisplayPort seit kurzem anbieten.

Ein recht interessantes Interview hat die DigiTimes mit dem nVidia-CEO Jen-Hsun Huang geführt. Natürlich gibt es nicht die großen Offenbarungen zu lesen, aber das Interview bietet in seiner Gesamtheit doch einige lesenswerte Informationen. Zu beachten wäre natürlich der spezielle Blickwinkel des nVidia-Chefs, womit dieser unter Rücksichtnahme auf den Aktienkurs kaum offenbaren kann, daß die kommende Integration von Grafikchips in die Prozessoren von AMD und Intel sein Unternehmen letztlich doch Marktanteile im Mainboardchipsatz-Geschäft kosten wird oder aber daß es perspektivisch als nicht gerade wahrscheinlich erscheint, als reiner Grafikchip-Hersteller überleben zu können.

Was natürlich nicht bedeuten mag, daß sich nVidia intern nicht ebenfalls in diese Richtungen hin Gedanken macht - nur kann man dies kaum nach außen hin zeigen, weil das öffentliche Eingeständnis, daß man langfristig gesehen gewaltigen Herausforderungen gegenübersteht, nicht gerade eine Stärkung der jetzigen Position bedeutet. nVidia bleibt hier gar nichts anderes übrig, als diese zukünftigen Herausforderungen zum jetzigen Zeitpunkt bewußt kleinzureden - und erst dann durch die Blume anzuerkennen, wenn man eine passende Lösung mit großem Paukenschlag präsentieren kann. Für ein solches Vorgehen gibt es schließlich überall Vorbilder - man denke beispielsweise nur an Intels Umschwung von der Netburst- zur Core-Architektur, als Intel fast bis zum letzten Tag noch Netburst propagandierte.

Zum gestern erwähnten ersten Test des DualCore K10-Prozessors auf Expreview wäre noch hinzufügen, daß es sich bei diesem natürlich um einen QuadCore mit zwei deaktivierten Kernen handelt. Darauf weist zum einen die recht hohe Leistungsaufnahme hin - und zum anderen der Umstand, daß AMD üblicherweise pro Prozessor-Architektur und Fertigungsgröße nur einen Prozessor-Kern fertigt und diesen dann nur je nach Anwendungsgebiet labelt. Hierbei sollte man sich nicht davon verwirren lassen, daß AMD für jede diese Labelung einen extra Core-Namen vergibt - so haben die Server, QuadCore-, TripleCore- und DualCore-Varianten des K10-Kern allesamt extra Core-Namen - rein produktionstechnisch ist das alles dasselbe.

Was für den Endkunden letztlich keinen Unterschied macht, ist für AMD in der Fertigung durchaus bedeutend, weil man mit diesem Fertigungsmodell weit weniger flexibel ist als Intel, deren QuadCore-Prozessoren derzeit schlicht aus zwei zusammengeklebten DualCore-Dies bestehen (und welche dann bei Nehalem extra DualCore- und extra QuadCore-Kerne auflegen werden). In der Fertigung kostet AMD das DualCore-Modell somit genauso viel wie das QuadCore-Modell - was eventuell auch AMDs Zurückhaltung erklärt, den DualCore K10 korrekterweise als "Phenom X2" zu labeln und mit ein wenig mehr Enthusiasmus in den Markt zu bringen. Denn gerade die Overclocking-Ergebnisse des vorgenannten Tests (aus dem Stand 3.0 GHz, mit Spannungszugabe 3.4 GHz) würden es wohl sogar möglich machen, mittels DualCore K10-Prozessoren auf hohen Taktraten mit Intels Core 2 Duo Serie auf Augenhöhe zu konkurrieren.