6

Hardware- und Nachrichten-Links des 6. Mai 2014

Aus dem Chiphell-Forum (maschinelle Übersetzung ins Deutsche) kommt das wilde Gerücht, nVidia würde auch an einem GM204-Chip in der 20nm-Fertigung arbeiten, ausgedrückt durch das B1-Stepping. Jene zweite GM204-Ausführung soll dann im Jahr 2015 in den Markt gelangen und dort die GeForce 900 Serie begründen. Ob dies so zutrifft, bliebe abzuwarten – unmöglich ist es in jedem Fall nicht, nVidia hatte in der Vergangenheit schon diverse Grafikchips in differierenden Fertigungsverfahren aufgelegt, deren augenscheinlicher Unterschied lag dann jeweils auch nur im Chip-Stepping. Gerade, wenn der größere GM200-Chip wirklich erst in der 20nm-Fertigung antritt, erscheint es als sinnvoll, nachfolgend auch die anderen, kleineren Chips der Maxwell-Architektur auf die 20nm-Fertigung umzustellen. Dies funktioniert natürlich nur, sofern die 20nm-Fertigung am Ende auch wirklich günstiger kommt bzw. wird man eben so lange warten müssen, bis dieser Punkt erreicht ist. Die kleineren Maxwell-Chips in 20nm könnte daher durchaus noch einige Zeit auf sich warten lassen – während der große GM200-Chip deswegen als erster 20nm-Chip antritt, weil jener in 28nm sowieso nicht mehr herstellbar wäre.

Zur initialen Ausführung des GM204-Chips gab es daneben auch ein paar Informationen: Der Chip existiert derzeit im A1-Stepping und soll mit dem A2-Stepping in den Handel gehen – in der Frage gab es kürzlich eine abweichende Meinung, aber diesbezüglich ist noch alles möglich. Bei der Performance wird die GeForce GTX 780 Ti plus 10% angepeilt, was allen bisherigen Erwartungen entspricht, die Preislage soll bei zwischen 499 und 549 Dollar liegen. Erneut wurde DirectX 12 erwähnt, wobei diesbezüglich nach wie vor eine klare Bestätigung fehlt, ob dies auch auf die Hardware-Änderungen von DirectX 12 zutrifft. Zudem wurden 8 GB als Speicherbestückung erwähnt – was aber wohl ein Deutungsfehler aufgrund von mit 8 GB Speicher bestückter GM204-Sampleboards sein dürfte: Hiermit wurden die Möglichkeiten ausgetestet (was der Sinn von Sampleboards ist), bei den Verkaufsversionen wird man dagegen sicherlich bei 4 GB Speicher bleiben, da mehr derzeit einfach übertrieben sind.

Für ein wenig Aufregung & Diskussionen sorgen derzeit Aussagen seitens Antiviren-Hersteller Symantec gegenüber dem Wall Street Journal, getrieben von der markanten Headline "Antivirus is dead". Allerdings bezieht sich das ganze Interview eher auf den Punkt der geschäftlichen Akvitäten von Symantec – so wollte man mit der vorgenannten Headline eigentlich eher ausdrücken, das Symantec nicht mehr wie früher pur vom Verkauf von Antiviren-Paketen leben will. Natürlich steht hier auch der Punkt dahinter, daß im Firmen-Umfeld eine schlichte Antiviren-Lösung heutzutage lange nicht mehr ausreichend ist – weswegen sich Symantec auch verstärkt in Richtung Service-Angebote für Firmen entwickeln will. Im Privatanwender-Bereich dürfte aber vorerst alles beim alten bleiben, auch weil hier die Zahlungsbereitschaft letztlich bei weitem nicht so hoch ist.

Nichtsdestotrotz gibt es bedenkliche Punkte zu erwähnen: Symantec will ja nicht aus Spaß verstärkt in den Service-Bereich gehen – sondern weil normale Antiviren-Produkte derzeit nur ca. 45% aller Cyberattacken erkennen. Die Zahl hat im übrigen nichts mit den offiziellen Erkennungsquote typischer Antiren-Produkte in Richtung 99% zu tun, letztere beziehen sich immer nur auf einen Satz an bekannten Viren. Die genannten 45% sind dagegen ein Praxiswert, bezogen auf alle real aufgefallenen Cyberattacken. Letztlich wird hier durch die Blume ausgedrückt, daß Antiviren-Programme keine allein selig machende Schutzlösung sind – wie dies oftmals vom Normalanwender leider so angenommen wird – sondern nur in grob der Hälfte der Fälle weiterhelfen können. Im Rahmen eines vollständigen Sicherheitskonzeptes sind Antiviren-Programme allerdings weiterhin wichtig und nutzvoll – denn kaum eine andere Sicherheits-Maßnahme hilft bei gleich 45% der Fälle. Allerdings wäre den Herstellern von Antiviren-Produkten zu empfehlen, das Placebo der Heuristik und Verhaltenserkennung entweder derart auszubauen, daß es eine vernünftige Erkennungsrate bietet – oder aber zugunsten der Performance zu deaktivieren.

Wenn die Spielepublisher beim nächsten Mal über steigende Spieleentwicklungs-Kosten jammern, darf jenen gern der Fall "Destiny" vorgehalten werden, dessen Gesamtkosten inklusive Marketing und Serverbetrieb laut der ComputerBase satte 500 Millionen Dollar erreichen werden – im übrigen dann auch ein neuer Rekord. Dabei können extrem erfolgreiche Computerspiele durchaus solche Summen wieder einspielen – allerdings ist im Gegensatz zum Film-Business ein Erfolg im Spiele-Business noch viel weniger planbar, ist Erfolg nicht kaufbar. Wenn der Activision-CEO sogar persönlich von einer "500-Millionen-Dollar-Wette" spricht, muß dessen Qualifikation für einen solchen Job stark in Frage gestellt werden. Vergessen wird dabei immer wieder ganz gerne, daß die allermeisten der erfolgreichen und umsatzträchtigen Spieleserien relativ klein angefangen haben – man erinnere sich an das erste Call of Duty, was seinerzeit als Kopie des viel erfolgreicheren "Medal of Honor" angesehen wurde, oder auch an das erste GTA, welches aus heutiger Sicht einem Indiegame nahekommen würde. Solcherart Summen für die Fortsetzung erwiesenermaßen erfolgreicher Spiele hinzulegen, mag noch angehen – aber bei Erstlingswerken ist das ganze einfach nur absurd.