Was sich hier einige so aufregen. Sobald irgendwo Intel oder AMD in einer News steht, versuchen die Fanboys beider Seiten sofort einen Flamewar anzuzetteln. Vor allem fallen in letzter Zeit sehr die militanten AMD Fans auf. Diese sind oft besonders dreist und werfen mit immer wieder den selben Unwahrheiten um sich. Die Intel Fanboys haben sich immer noch nicht verändert "AMD ist was für arme Menschen und Hippies. Nur Intel ist das einzig wahre - die sind 700% schneller als AMD und ich bin der absolute Oberchecker, weil ich einen Gulftown drin hab."
Bei der AMD Fraktion hat sich eine Radikalisierung eingestellt -was auch daran liegen mag, dass mit Sandy Bridge viele ehem. AMD rational denkende Sympathisanten abgesprungen sindm weil der Sandy eben mittlerweile beim selben Preis das AMD Paket schlägt. Der i5 2100er Dualcore mit HT versägt die kleinen AMD 6 Kernen

und braucht dabei nur ein viertel so viel Leistung.
Ich bevorzuge ja auch AMD - aber ich werde mir sicher nicht, nur aus Sympathie das schlechtere Produkt kaufen.
So jetzt dürft ihr auf mich einprügeln.
Endlich zum Thema
Ich sehe leider kaum Fortschritt bei Raytracing. Diese Techdemo haben die schon vor 3 Jahren gezeigt. Und es sieht nicht so toll aus. Wenn man 2 Knights Ferry Karten braucht, um diese Demo auf Desktopauflösung mit 25-30fps laufen zu lassen, läuft irgendwas falsch.
Aber das ist okay. Die Raytracing Hardware ist noch am Anfang ihrer Entwicklung. Knights Ferry ist erst die 2. Generation der MIC Chips und noch nicht einmal käuflich zu erwerben. Knigts Corner wird einiges draufsetzen und vermutlich die doppelte Leistung bringen (deutlich mehr Kerne, Architekturüberarbeitung und 22nm Fertigung sind angestrebt). Wie lange hat es denn gedauert, von den ersten (also wirkliuch die ersten, die kaum bezahlbar waren oder gar nicht erwerbbar) 3D Karten, bis hin zu akzeptablen Framraten bei moderaten Preisen? Das dürften auch locker 5-7 Jahre gewesen sein. Außerdem muss Raytracing nicht zwangsläufig auf den Intel Karten oder den CPUs laufen. Die Programmiersprache ist superskalar (ist das das richtige Wort?) und läuft theoretisch auf unendlich vielen Rechenwerken, während Rasterisierung ja schon bei 2GPUs oder 5D Shadern Probleme bereitet. Ich denke mit leichten Architekturanpassungen bei AMD und nVidia wird das auch ohne Probleme auf den Shadern laufen. Und da hat man bis dahin sicher eben mal 1000 (1D) auf einer Karte.
Dazu kommen die immer schnelleren CPUs, mit mehr Kernen. Wer sagt denn nicht, dass, wenn es in einfach mal geraten 8 Jahren Marktreif ist, nicht die Kerne 6-12 nur für Raytracing freigehalten werden und die GPU auch noch damit arbeiten kann?
Außerdem ist Raytracing die Lösung für Multi GPU. Wenn man die Sprache verwendet, gibt es keine Mikroruckler - also ist es denkbar, dass die Graka Schmieden nicht mehr ihre Superchips bauen, sondern einfach eine kleine Armee von Chips mit meinetwegen 100 Shadern auf ein PCB werfen, ohne dass es Probleme gibt. Das war ja auch schon angedacht oder von 3dFx auch so praktiziert. Die Vodoo mit 8 GPUs lässt grüßen und die Dual Voodoo war ja schon fast gehobener Consumermarkt.
Ich vermute mal, dass es am Ende auf eine Mischung von Raytracing und Rasterisierung hinausläuft. Letztere macht ja auch Forschritte - oder wird sie machen, wenn die neuen Konsolen da sind, nur um dann wieder zu verharren. Dann hat man die guten Texturen und effekte der Rasterisierung und die genialen Lichteffekte aus Raytracing. Lichteffekte machen viel aus. Selbige haben etwa bei der Stalker Reihe dafür gesorgt, dass die Innenareale trotz durchschnittlicher Grafik extrem geil und gruselig aussahen (wer kennt noch das Level mit der geheimen Bunkereinrichtung mit den Poltergeistern drin, wo einem immer Ziegel entgegen geflogen kamen? Man ich hab mir fast in die Hose gemacht!).
Aber es ist immer sehr schwer schätzungen für den PC Markt abzugeben. Das ist so schnelllebig.
PS: Ich könnte wetten, dass bei den neuen Konsolen wieder so wird, dass sie nur auf DX11 setzen, obwohl zum Release Zeitpunkt DX12 schon ne Weile auf dem Markt ist. War ja bei der X360 und PS3 auch so - DX10 gab es da schon lange. Dann haben wir wieder ein DX, dass in 10-20 Spielen verwendet wird und nur nachträglich billigst aufgesetzt wird und dann dürfen wir uns schon darauf einstellen, dass wir wieder 5-6 Jahre bei DX11 stehen bleiben. Das ist zwar eine Steigerung aber trotzdem schade.