News Bestätigt: „Ivy Bridge“ mit DirectX-11-Support

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.925
da aktuell nur wenige Anwendungen davon profitierten

Bremser gibt es immer wieder nur um die eigene Unfähigkeit oder das Verschlafen einer neuen Technologie herunterzuspielen. War doch bei Nvidia das gleiche Bis Fermi kam brauchte DX11 kein Mensch, plötzlich war Tesselation das Wichtigste. Naja mit nur halbem Herstellersupport haben es neue Technologien nun einmal schwerer sich durchzusetzen.
 
I think it would have been.... the right time.


Da Nvidia und ATI schon DirectCompute nutzen können, haben diese Vorteile. Intel kann das nicht. Leider. Denn wenn, wäre der Mainstreammarkt auf den Zug aufgesprungen und evtl würden Programme endlich nicht mehr nur für eine Seite entwickelt werden.
 
Ne stimmt schon. Bei den Intel Chips braucht man kein DX11. Für die meisten DX 11 Spiele eh zu lahm und DirectCompute nutzt niemand.

Da ist die in SB vorhandene OpenCL Unterstützung wesentlich wichtiger.
 
DirectX11 kann man auch für was anderes als Spiele nutzen. Wenn man so denken würde, dann bräuchten Intel-IGPs DirectX8.
 
Finde ich auch vollkommen okay. Welcher Freak braucht unbedingt DX 11 mit ner OnCPU-GPU?:freak:

Ist eh viel zu lahm für alle DX 11-Games, sehe da keine Sinn, DX 10.1 reicht da vollkommen.

MfG M.R.
 
Zuletzt bearbeitet von einem Moderator: (Überflüssige Satzzeichen entfernt.)
Damit gibt es bei den aktuellen Sandy Bridge also kein OpenCL...
Naja, wenn dann auch mehr Programme OpenCL unterstützen und somit auch erste Benchmarks davon profitieren liefert auch Intel OpenCL kompatible Hardware.
Die die vorher was gekauft haben sind dann die Dummen und können sich gleich wieder was Neues holen.
 
1.) Ein integrierte Grafikkarte braucht gerade einmal den Windows 7 Desktop flüssig darstellen, mehr nicht. Nur weil AMD in einer Verzweiflungstat alles in die integrierte GPU steckt, muss diesen Schwachsinn ja nicht jeder nachmachen.

2.) OpenCL ist dafür gedacht die hohe Leistung einer 580GTX etc. auszunutzen, die in einem Spielerechner verbaut ist, die nur einen hoch getakteten Dual Core hat. Damit bekommt man schon sehr gute Steigerungen.
Auf einem Sandy Bridge System mit 8 virtuellen Kernen und einer vergleichsweise winzigen Grafikkarte ist das kompletter Unfug. Da wird abgesehen von ein paar theoretischen Tests die CPU immer schneller sein. Bei einer Applikation, die gut mit CUDA/OpenCL läuft ist eine High End Grafikkarte ca. 2-3 mal so schnell wie eine High End CPU, bei Mainstream Grafikkarten um die 100 Euro und einer starken CPU ist es schon ziemlich 1:1. Bei den meisten Anwendungen, die nicht einmal eine ordentliche Quad Core Optimierung schaffen, weil es der Algorithmus eben nicht ermöglicht, wird das Ganze um Vieles langsamer sein.
 
Bist du da sicher? Ich hatte sehr oft was von Steigerungen gelesen mit Werten um das ca. 8fache...

Bin aber eher der (HD-) Videoschnipsler, vllt ist das da anders. Auf jeden Fall hab ich mal nen Benchmark gesehen, wo beim CUDA-Rendern die GTX460 den dicksten Core i7 (glaub es war ein 920er) locker abgezogen hat und ca 600% schneller war.

Eigene Beobachtung:
Mein Intel Core 2 Duo T9500 (2 x 2,6 Ghz, 6 MB L2 Cache) rendert AVCHD ca. 60% langsamer als mit GPU-Unterstützung durch eine GeForce 8600M GT.
 
andr_gin schrieb:
1.) Ein integrierte Grafikkarte braucht gerade einmal den Windows 7 Desktop flüssig darstellen, mehr nicht. Nur weil AMD in einer Verzweiflungstat alles in die integrierte GPU steckt, muss diesen Schwachsinn ja nicht jeder nachmachen.

Gerade bei den "langsameren" mobilen Rechnern ist die GPU Beschleunigung von Browsern auch nett. Dadurch steigt ja nicht nur die Rendergeschwindigkeit sondern auch die Akkulaufzeit. Ich würde das nicht so einfach zur Seite schieben, gerade wenn man Atom und Bobcat vergleicht ist das ganze schon ein Vorteil.
 
andr_gin schrieb:
Nur weil AMD in einer Verzweiflungstat alles in die integrierte GPU steckt, muss diesen Schwachsinn ja nicht jeder nachmachen.

Schwachsinn ist das ganz bestimmt nicht. Für bestimmte Aufgabenbereiche ist eine GPU-Architektur deutlich schneller und effizienter als herkömmliche CPU Architekturen. Die meisten Programme außerhalb des HPC Marktes sind von ihrer Charakteristik aber gemischt, manche Unterprogramme laufen besser auf der CPU und manche besser auf der GPU. Bei CPU + Grafikkarte kannst du die Teilprogramme aber nicht oder nur sehr grob-granular auf CPU und GPU aufteilen, weil einfach die Latenzen zwischen CPU und GPU zu hoch und die Bandbreite zu niedrig ist. Wenn man nun die GPU richtig in die CPU integriert, könnte man das Problem komplett beheben.

andr_gin schrieb:
2.) OpenCL ist dafür gedacht die hohe Leistung einer 580GTX etc. auszunutzen, die in einem Spielerechner verbaut ist, die nur einen hoch getakteten Dual Core hat. Damit bekommt man schon sehr gute Steigerungen.

Ach ja, deswegen gibt es ja auch schon so viele Programme, die jeder Homeuser benutzt....

andr_gin schrieb:
Auf einem Sandy Bridge System mit 8 virtuellen Kernen und einer vergleichsweise winzigen Grafikkarte ist das kompletter Unfug. Da wird abgesehen von ein paar theoretischen Tests die CPU immer schneller sein. Bei einer Applikation, die gut mit CUDA/OpenCL läuft ist eine High End Grafikkarte ca. 2-3 mal so schnell wie eine High End CPU, bei Mainstream Grafikkarten um die 100 Euro und einer starken CPU ist es schon ziemlich 1:1. Bei den meisten Anwendungen, die nicht einmal eine ordentliche Quad Core Optimierung schaffen, weil es der Algorithmus eben nicht ermöglicht, wird das Ganze um Vieles langsamer sein.

Bei entsprechenden Problemen könnte sogar Mainstream GPUs schneller sein als jede zur Zeit erhältliche CPU. Der Haken ist aber wie oben schon erwähnt, dass es kaum Anwendungen gibt, die sich komplett für GPU optimieren lassen, d.h. es gibt immer Codeabschnitte, die sich auf einer CPU trotz geringerer Rohpower um ein vielfaches schneller ausführen ließen als auf einer GPU. Genau deshalb wollen ja alle plötzlich CPU + GPU vereinigen.

Mike Lowrey schrieb:
Ne stimmt schon. Bei den Intel Chips braucht man kein DX11. Für die meisten DX 11 Spiele eh zu lahm und DirectCompute nutzt niemand.

Da ist die in SB vorhandene OpenCL Unterstützung wesentlich wichtiger.

Ist es nicht so, dass es nur für den CPU-Teil einen entsprechenden OpenCL "Treiber" geben soll?
 
Zuletzt bearbeitet:
makiyt schrieb:
Bist du da sicher? Ich hatte sehr oft was von Steigerungen gelesen mit Werten um das ca. 8fache...

Bei fast rein synthetischen Code kann das schon gut sein.

Bin aber eher der (HD-) Videoschnipsler, vllt ist das da anders. Auf jeden Fall hab ich mal nen Benchmark gesehen, wo beim CUDA-Rendern die GTX460 den dicksten Core i7 (glaub es war ein 920er) locker abgezogen hat und ca 600% schneller war.

Da wurde dann wahrscheinlich vom gesamt Umfang der Software irgendeine kleine Spezialfunktion wegen entsprechenden Zuschüssen und technischer Unterstützung von Nvidia optimiert, wo vorher nicht einmal eine ordentliche Dual Core Unterstützung da war. Da kann das dann schon gut hinkommen.

Eigene Beobachtung:
Mein Intel Core 2 Duo T9500 (2 x 2,6 Ghz, 6 MB L2 Cache) rendert AVCHD ca. 60% langsamer als mit GPU-Unterstützung durch eine GeForce 8600M GT.

Die 8600M hat noch gar kein CUDA unterstützt geschweige denn OpenCL. Von was du redest ist wahrscheinlich nur die reine OpenGL Optimierung, die es schon seit Jahren gibt. Das ist kein GPU Computing. Hier macht die Grafikkarte nur das, was sie immer schon gemacht hat nämlich Bilder berechnen und diese dann ausgeben bzw. in den Speicher der CPU zurück lesen. Dafür braucht man aber kein DirectX11 oder viele Recheneinheiten, da alleine durch das Vorhandensein der Grafikkarte die Last schon wieder bei der CPU ist.

7bf schrieb:
Gerade bei den "langsameren" mobilen Rechnern ist die GPU Beschleunigung von Browsern auch nett. Dadurch steigt ja nicht nur die Rendergeschwindigkeit sondern auch die Akkulaufzeit. Ich würde das nicht so einfach zur Seite schieben, gerade wenn man Atom und Bobcat vergleicht ist das ganze schon ein Vorteil.

Ich habe nichts gegen eine integrierte Grafikkarte in der CPU. Für das darstellen von Grafik ist die Grafikkarte notwendig. Es wird aber nicht extrem viel Leistung benötigt. Typische Internetseiten kann auch eine 5 Jahre alte Bürokarte ordentlich darstellen. Da braucht es auch kein DirectX11 oder 1GB RAM in der CPU, die man sehr viel sinnvoller investieren könnte (z.B. ein weiterer Kern, mehr Cache usw.)

Limit schrieb:
Schwachsinn ist das ganz bestimmt nicht. Für bestimmte Aufgabenbereiche ist eine GPU-Architektur deutlich schneller und effizienter als herkömmliche CPU Architekturen. Die meisten Programme außerhalb des HPC Marktes sind von ihrer Charakteristik aber gemischt, manche Unterprogramme laufen besser auf der CPU und manche besser auf der GPU. Bei CPU + Grafikkarte kannst du die Teilprogramme aber nicht oder nur sehr grob-granular auf CPU und GPU aufteilen, weil einfach die Latenzen zwischen CPU und GPU zu hoch und die Bandbreite zu niedrig ist. Wenn man nun die GPU richtig in die CPU integriert, könnte man das Problem komplett beheben.

Das Problem ist, dass das Entwickeln von Code für die GPU um Welten komplexer ist, als das Entwickeln von Code für die CPU. Dagegen ist das Implementieren einer Dual/Quad Core Optimierung gar nichts und selbst das wird nur beim Rechenkern selbst gemacht, aber nicht beim ganzen Programm.
Die Bandbreite zur GPU ist auch hoch genug, genauso die Latenzen. Das Problem ist, dass es sich hier um IO Operationen handelt, die vom Betriebssystem verwaltet werden und wo ein Prozesswechsel notwendig wird, der um die 10µs braucht und das bekommt man mit einem integrierten Kern auch nicht weg.

Ach ja, deswegen gibt es ja auch schon so viele Programme, die jeder Homeuser benutzt....

Das Problem ist eben, dass es verdammt viel Aufwand macht solche Software zu entwickeln und dann nur ein paar Leute davon profitieren und das sind so gut wie nur Heimuser, mit denen man sowieso kein Geld machen kann.

Bei entsprechenden Problemen könnte sogar Mainstream GPUs schneller sein als jede zur Zeit erhältliche CPU. Der Haken ist aber wie oben schon erwähnt, dass es kaum Anwendungen gibt, die sich komplett für GPU optimieren lassen, d.h. es gibt immer Codeabschnitte, die sich auf einer CPU trotz geringerer Rohpower um ein vielfaches schneller ausführen ließen als auf einer GPU. Genau deshalb wollen ja alle plötzlich CPU + GPU vereinigen.

Die CPU lässt sich nicht so einfach mit der GPU vereinigen. Das eine ist normaler x86 Code, das andere ist nur ein Schreiben von Daten in den Speicher der Grafikkarte inkl. dem Code für die Berechnung und warten, bis man sich das Ergebnis wieder abholen kann. Das macht nur Sinn, wenn genug Arbeit am Stück da ist. Die meisten Algorithmen brauchen einiges an Cache, den die GPU so gut wie überhaupt nicht hat usw.

Ist es nicht so, dass es nur für den CPU-Teil einen entsprechenden OpenCL "Treiber" geben soll?

Ein Treiber läuft immer auf der CPU und zwar auf Kernel Ebene. Da kann man die Grundfunktionen der Grafikkarte verwenden, aber Code der Applikation hat auf der Ebene nichts verloren. Das hat Microsoft mit der zwingenden Treibersignierung auf x64 Systemen noch einmal deutlich gemacht. Das wäre ein Rückschritt zu Win98, wo ein Bug in der Software jedes Mal einen Bluescreen nach sich gezogen hat.
 
Ich lach mich eckig.

Mooly Eden schrieb:
...habe Intel bisher keine Notwendigkeit für die Unterstützung der neuesten Programmierschnittstelle für Grafikanwendungen gesehen, da aktuell nur wenige Anwendungen davon profitierten...

Demnach hätten sie sich AVX erst recht schenken können. Warum können sich Firmensprecher solch peinlichen Unsinn nicht sparen?
 
andr_gin schrieb:
Die 8600M hat noch gar kein CUDA unterstützt geschweige denn OpenCL. Von was du redest ist wahrscheinlich nur die reine OpenGL Optimierung, die es schon seit Jahren gibt.

Da muss ich dich korrigieren. Jede GPU der GeForce 8 Reihe unterstützt CUDA.

Quelle:
http://www.nvidia.com/object/cuda_gpus.html
Abschnitt: CUDA-FÄHIGE GEFORCE PRODUKTE

Es war mit Sicherheit kein syntehtischer Code.

Auch im Videofilmer-Forum (slashcam) berichten die Leute von Steigerungen mit Mainstreamkarten um 150€ um den Faktor 4. Mit ner guten Graka kommst dann auch auf den Faktor 6 bis 8.
 
Edgar_Wibeau schrieb:
Demnach hätten sie sich AVX erst recht schenken können. Warum können sich Firmensprecher solch peinlichen Unsinn nicht sparen?

So siehts aus. Und USB3 brauch auch keiner. Von einer Firma mit INTELs Möglichkeiten kann man eigentlich schon erwarten, dass die bissl mehr Standards unterstützen. Ohne Worte.
 
KAOZNAKE schrieb:
So siehts aus. Und USB3 brauch auch keiner. Von einer Firma mit INTELs Möglichkeiten kann man eigentlich schon erwarten, dass die bissl mehr Standards unterstützen. Ohne Worte.

Bei den iGPUs waren sie einfach noch nicht so weit, da versuchen sie sich ja grad vom absoluten Bodensatz in Richtung Mittelklasse zu entwickeln. Das ist ok, nur solche Begründungen sind eben einfach nur arm. Und die Treiber sind eh nicht spieletauglich, das Treiber-Entwicklungsteam viel zu klein. Bis zur echten Spiele-Tauglichkeit kann es also noch dauern. OpenCL wird ebenfalls stiefmütterlich behandelt. Genauer gesagt, bisher ignoriert.

Bei USB 3.0 ist es einfach Knauserigkeit bei der Entwicklung neuer Chipsätze, denn Intel hat diesen Standard ja federführend mitentwickelt. USB 1.0-2.0 haben sie noch selbst gepusht bis dorthinaus.

Und wer hat USB 3.0 als Erster in Chipsätzen? Richtig, AMD. Allerdings auch erstmal nur in denen für die Fusion-APUs (Ontario/Zacate/Llano), dem vernehmen nach nicht in der ersten Generation (9x0) für den Phenom-Nachfolger Bulldozer/Zambezi. Auch nicht nachvollziehbar.
 
Bei dem ganzen Gemecker sollte man nicht vergessen das Intel derzeit die effizienteste Grafik gebaut hat , die verbraucht wesentlich weniger als eine ATI5450 und ist genauso schnell.. ;)
 
Doch das ist nachvollziehbar. Die BD Plattform brauch nicht unbedingt USB 3.0 nativ im Chipsatz, da genug Lanes vorhanden sind, USB 3.0 anzubinden. Ob nun USB 3.0 im Chipsatz ist oder nicht, ist für den Kunden so interessant wie ein Staubkorn auf der Straße. Intel hat es ja nun auch geschafft, wenigstens schon mal keine Bandbreitenlimitierte PCI-E 2.0 Lanes mit 1155 zu verbauen. Auch wenn trotzdem noch im Vergleich zur AM3 Plattform zu wenige vorhanden sind. AM3 kann man mit 42 Lanes in der Northbridge kaufen. 1155 hat immer nur 16 Lanes über die Nothbridge in der CPU.
Somit muss AMD nicht zwingend den Chipsatz überarbeiten, weil man eh schon alle aktuellen Eigenschaften bekommt. AMD muss eben auf das Geld schauen, während Intel Millionen in ein Projekt schießen kann, welches dann eh scheitert. Siehe Larabee. So etwas kann sich AMD nicht leisten. Das muss man immer beachten, AMD ist 10 mal kleiner als Intel. AMD verdient im Jahr weniger Geld als Intel in 3 Monaten. Insofern sehe ich dann solche Argumente als weniger durchdacht.
2012 wird wohl PCI-E 3.0 kommen und da macht es Sinn für AMD in den Chipsatz weiter zu investieren. Zumal man dann nicht noch mehr Lanes braucht wegen USB 3.0, weil die Bandbreite ja mit PCI-E 3.0 steigt.

Aktuell ist der Chipsatz bei AMD top und Intel bietet nicht mehr. Eher sogar weniger. 6x SATA 3 nativ bei AMD, nur 2x SATA 3 nativ bei Intel. Beide ermöglichen über Zusatzchips USB 3.0. Was soll also noch geboten werden? Soll der Chipsatz einem auch noch die Wäsche waschen? :)
 
Voyager10 schrieb:
Bei dem ganzen Gemecker sollte man nicht vergessen das Intel derzeit die effizienteste Grafik gebaut hat , die verbraucht wesentlich weniger als eine ATI5450 und ist genauso schnell.. ;)

Wenn Du SandyBridge als 17W-Version kaufst, ist die iGPU massiv (IIRC auf 350/900 MHz) im Takt beschränkt. Wenn Du diese dann gegen den AMD E-350 (aka Zacate, 18 Watt) benchst, rate mal, wer gewinnt.

Aber immerhin: Intel hat den effizientesten Video-Encoder. Zumindest, was CPU-integrierte angeht. Soll heissen, es mag externe Encoder-Chips geben, die effizienter sind.
 
Zuletzt bearbeitet:
Zurück
Oben