Test „Sandy Bridge“-Grafik: Intel kombiniert starke GPU mit schwachem Treiber

@6shop:

Bitte informiere dich vor dem polemisieren, was Sandy Bridge ist.

Es ist der Mainstream-Prozessor von Intel. Auch wenn neuerdings immer ein Grafikkern dabei ist, den musst und sollst du nicht für jedes Anwendungsgebiet nutzen. Die P67-Platinen habe nicht mal die Möglichkeit dazu.

Den IGP-Teil kann man skeptisch sehen. Das ändert nichts an der generellen Performance des Chips. Du kannst dir dafür gerne den CB-Test zum CPU-Teil zu Gemüte führen.
 
ja der cpu-part ist eh toll gelungen - keine frage. aber von der grafikleistung bin ich eben ein wenig enttäuscht. und nachdem das der thread zum "grafiktest" ist nehm ich nicht an das es hier nur über die reine cpu-leistung gesprochen wird - sondern vll eher über die grafikleistung.
 
Die IGP des "Ivy-Bridge" wird wohl mind. doppelt so schnell sein.

Intel ist mit Larrabee kläglich gescheitert, vll. wäre es möglich mit extrem aufgeborten integrierten IPGs genau den Fehler wieder auszubügeln.

Ivybridge soll ja sogar GDDR-Ram beinhalten, genauer gesagt, LPDDR2-Ram, 1GB das wärs doch.

Die Sandybridges sind sehr energiesparend.
Zeit, das man dies ausnutzt und die IGP zum Monster macht, so könnte Intel eventuell sogar noch die komplette GPU-Macht werden, vorausgesetzt ist natürlich ein neue Dimension der Treiberqualität bei intel, in etwas die von AMD oder Nvidia.

Dann passt es.

Würde man die Recheneinheiten der IGP verachtfachen, den takt noch erhöhen und den 1GB Großen speicher draufsetzen und die Treiber optimieren, denke ich es ist die Performance einer HD 6850 in etwa überboten.
22 nm is coming in 2011^^
 
Zunächst erstmal vielen Dank für den Artikel und die damit gemachte Mühe.

Da ich selbst gerade einen Rechner plane, habe ich bei eurem Test auf die verbaute Hardware geachtet.

- Warum wird bei einem Maximal Verbrauch von unter 100W ein 850W Netzteil genommen?
(Eigentlich sollte in dem neuen Testsystem das Netzteil von Enermax mit 660W genommen werden)

- Warum werden hier auch vom offiziellen Testsystem abweichende Speicherriegel verwendet?
(Ich persönlich halte den Leistungszuwachs von 1.333Mhz auf 1.600Mhz für verschwindend. Jedoch steigt der Stromverbrauch bei den Riegeln. Diese Takten mit 1.65V statt bei den Referenz Riegeln aus dem neuen Testsystem mit 1,25V)


Ich schätze diese beiden Maßnahmen würden schon 5Watt im Idle einsparen. Ich weiß auch, dass dieser Test nicht auf maximales Stromsparen abzielte.

Ich verstehe wie viele vor mir auch nicht, warum hier so auf die Gaming-Sparte abgezielt wurde. Ich habe hauptsächlich vor mit der neuen CPU zu surfen, gelegentlich was zu rippen, zu decodieren und keine Lust lange auf den Computer zu warten.
Eine Einschätzung zum Dual-Monitoring vermisse ich auch ein wenig.

Trotzdem vielen Dank.

LG Rusty
 
RustyGT2005 schrieb:
- Warum werden hier auch vom offiziellen Testsystem abweichende Speicherriegel verwendet?
(Ich persönlich halte den Leistungszuwachs von 1.333Mhz auf 1.600Mhz für verschwindend.)
Das ist übrigens ein sehr interessanter Punkt!

Der Einfluss von Ram Takt auf die CPU Performance spielt sich ja im sehr niedrigen einstelligen Prozentbereich ab.

Die IGP ist ähnlich einer diskreten GPU im Gegensatz dazu jedoch sehr dankbar über jedes zusätzliche MB/s in den Grafikkartenspeicher.

Ich habe auf einem GM965 Notebook Chipsatz mit Intel IGP X3100 den Einfluss der Speicherbandbreite mal nachgemessen. Damals waren es von DDR2-667 Single Channel (5,3 GB/s) auf Dual Channel (10,7 GB/s) bis zu +46,6% mehr fps in Quake 3 Arena:
http://forum.notebookreview.com/gam...ere-new-pre-beta-drivers-169.html#post4843422

Ich könnte mir also vorstellen, dass bei der Sandy Bridge IGP es ebenfalls einen größeren Unterschied macht ob man mit DDR3-1333 oder DDR3-1600 testet. Oder der geniale L3 Cache und Ringbus entkoppelt alles ziemlich gut.
 
7oby schrieb:
Ich könnte mir also vorstellen, dass bei der Sandy Bridge IGP es ebenfalls einen größeren Unterschied macht ob man mit DDR3-1333 oder DDR3-1600 testet. Oder der geniale L3 Cache und Ringbus entkoppelt alles ziemlich gut.

Wurde schon x-fach getestet (google), macht sogut wie keinen Unterschied.
 
Und wie sieht es mit der Wiedergabe von BDs mit 24p aus? Wieder einmal voll am Thema vorbei.
24p ist beim Clarkdale ja immer noch ein Problem, deswegen unbrauchbar.
 
Zuletzt bearbeitet:
flappes schrieb:
Wurde schon x-fach getestet (google), macht sogut wie keinen Unterschied.

für anwendungen nicht, da hast du recht.

eber er meint wen der ram als grafikspeicher genutzt wird, da könnte es bei den schwachen igps schon nen unterschied machen
 
HappyMutant schrieb:
@6shop:

Bitte informiere dich vor dem polemisieren, was Sandy Bridge ist.

Es ist der Mainstream-Prozessor von Intel. Auch wenn neuerdings immer ein Grafikkern dabei ist, den musst und sollst du nicht für jedes Anwendungsgebiet nutzen. Die P67-Platinen habe nicht mal die Möglichkeit dazu.

Den IGP-Teil kann man skeptisch sehen. Das ändert nichts an der generellen Performance des Chips. Du kannst dir dafür gerne den CB-Test zum CPU-Teil zu Gemüte führen.


Wenn du schon andere maßregelst wäre es angebracht die Empfehlung sich zu informieren auch selbst umsetzen- wie sagt man so schön: quid pro quo.

Sandy Bridge ist nicht nur der "Mainstream-Prozessor" sondern eine komplette Produktreihe (eigentlich die "Architektur" des Chips). Die vorgestellten Prozessoren sind in der Tat die Mainstream/Performance-prozessoren, es folgen die Einsteiger- und Ende des Jahres die High-Endprozessoren



Ich persönlich stelle z.B. nicht die Performance der CPU in Frage, viel mehr stelle ich die Behauptung (von Intel) in Frage er könnte diskrete und Einsteigerkarten ersetzen. Desweiteren halte ich es für mehr als fragwürdig eine 12 Monate alte Einsteigergrafikkarte in einem Vergleichstest zu nutzen und dann zu suggerieren die iGPU könnte durchaus mithalten sie sogar um ein mehrfaches übertrumpfen: bei einer mehr als realitätsfernen Bildschirmauflösung. Realitätsfern insofern, als das sich kein Mensch dabei erwischen lässt bei so einer Auflösung zu spielen.
Und auch wenn wir vom unwissenden, das Komplettsystem beim Aldi um die Ecke kaufenden, Endverbraucher ausgehen: auch dieses Komplettsystem wird nicht mit einer Auflösung von 1024x768 konfiguriert. Allein schon beim Anschluss des Monitors wird (m.E.) die native Auflösung empfohlen. Solange man keinen 15" Monitor sein eigen nennt.


Meiner Meinung nach ist der integrierte Grafikkern eine Farce: Er bringt nicht genug Leistung eine (angemessen) Einsteigerkarte zu ersetzen und er erhöht die Kosten der Gesamt-CPU. Ich sehe ihn als Ballast. Der Preis für ein HTPC-System wird sinnlos erhöht, genauso wenig findet er Platz in einem Office-PC.
 
Nach dem ersten Lesen fand ich den Test auch noch recht aufschlussreich, bei genauerer Betrachtung tun sich aber doch einige Lücken auf. Da das alles hier schon angesprochen wurde, würde mich eine Reaktion seitens CB interessieren. Welche Stellung bezieht man zu den großteils konstruktiven und begründeten Argumenten? Hat man im Zuge der früheren Vorstellung von Sandy Bridge nicht die Zeit für umfangreichere Tests gehabt und wird man sich der Kritik annehmen? Gerade das Thema Sound (Formate) taucht glaube ich nicht zum ersten Mal in Zusammenhang mit einem Grafikchip auf, getan hat sich seit dem offenbar nichts.

@ topic

Für mich ist die integrierte GPU nicht Fisch und nicht Fleisch. Sie kann alles ein bisschen, aber nichts richtig. Na gut, den Desktop kann sie offenbar großteils ohne Abstürze darstellen. Toll. ;)
 
Zuletzt bearbeitet:
Erstmal danke für den guten Test!

Kleine Anmerkung:

"Dieser Artikel kümmert sich nun ausschließlich um die neue „Graphics HD“-Generation, von der es durchaus das ein oder andere interessante Detail zu berichten gibt."

und

Bei "Bildqualität HD-Material" haben alle 15 von max. 25 Punkten, im Text darunter steht allerdings: "Die AMD Radeon HD 5450 schafft sogar die volle Punktzahl"


Klar sollte der Test auf das Anwendungsgebiet zugeschnitten sein, aber dann verstehe ich nicht warum ziemlich Hardwarefordernde Spiele genommen werden, dann aber auf niedrigen Details. Das ist weder das richtige Anwendungsgebiet, noch schafft es Vergleichbarkeit zu anderen Grafikkarten, um zu zeigen wie groß die Unterschiede noch sind und auch noch bleiben werden.
Natürlich kann man dann sehen was (schon) alles mit integrierter Grafik möglich ist, aber es vermittelt (für mich zumindest) den (falschen?) Eindruck eines fast schon konkurenzfähigen Produktes.

Mit höheren Einstellungen hätte die AMD Karte wohl auch einen größeren Vorsprung.

Und solange es mit den Treibern nicht klappt, kann man es eh nicht richtig nutzen.
 
deadohiosky schrieb:
Sandy Bridge ist nicht nur der "Mainstream-Prozessor" sondern eine komplette Produktreihe (eigentlich die "Architektur" des Chips).

Ja die Bezeichnung war blöd ausgedrückt. Ich wollte eigentlich sagen, dass die CPUs mit IGP nicht eine spezielle Linie sind, und das Fass was aufgemacht wird nicht unbedingt mit der Grafikkern zu tun hat. Klar, dass Sandy Bridge mehr ist und man sogar drüber streiten kann, ob die CPUs überhaupt "Mainstream" sind oder nicht. :)
__________

@Fetty88:

Habe mal beide Fehler korrigiert, der Wert müsste wohl wirklich 25 und nicht 15 sein.
_______

Und zu den Kritiken: Ja wir sind uns dieser bewusst. Ich kann wirklich nicht sagen, ob was wann wie anders oder unter anderen Gesichtspunkten getestet wird. Alle Wünsche zu erfüllen ist quasi unmöglich und um die meisten zu erfüllen, bräuchte man letztendlich ein anderes Testsetup. Inwieweit sich das (zeitlich und materiell) aber machen lässt, weiß ich nicht.
 
Zuletzt bearbeitet:
Leute, was habt ihr denn alle für Erwartungen?

Die Grafikeinheit soll doch keine Zockerkarten ablösen. Es geht erstmal darum, ob sie brauchbar genug ist, um überhaupt ohne separate Grafikkarte auszukommen.

Realitätsfern ist das Verlangen nach höherer Auflösung in Spielen, da die Dinger dann völlig überfordert sind. Das tut sich kein Mensch an. In niedriger Auflösung ist es spielbar, der Monitor skaliert das Bild auf Vollbild, alles prima.
Unter Windows könnt ihr natürlich die volle Auflösung nutzen, nur in Spielen muss eben runtergeschraubt werden.

Die Viecher sind Alternativen für Leute, die sich vorher Grafikkarten à la 5450 gekauft haben, daher eben der Vergleich damit. Mit höheren Ansprüchen kommt man weiterhin nicht an besseren Grafikkarten vorbei.

Die IGP sind übrigens fast perfekt für HTPC und Office. Auch wenn der CPU-Part für das Einsatzgebiet überdimensioniert ist.
 
@Jto
Ja aber darum geht es doch gerade. Die sind nicht fürs Zocken gedacht werden aber auf Basis dieses Setups getestet. Warum?? Ausgerechnet das was du selbst sagst, nämlich Office und HTPC, wird nichtmal im Ansatz brauchbar getestet!

@HappyMutant
Ich verstehe das wirklich viel Arbeit in solchen Tests steckt. Und es ist sicher in einigen Bereich nicht gerade fair geäußerte "Kritik". Aber sei mir nicht böse wenn ich, unter den bereits genannten gesichtspunkten, sagen muss das der Test SO nahezu unbrauchbar ist.
- Eine vergleicbarkeit zum vorherigen Test ist nur sehr schwammig möglich auf grund unterschiedlicher Setups.
- Die Auswahl der Komponenten des Setups ist Teilweise mehr als Fragwürdig (NT z.B.).
- Das eigentliche Einsatzgebiet der IGP wurde nciht getestet. Nämlich Office (Photoshop z.B.) und HTPC (ist dies die ERSTE IGP mit der VA Deinterlacing bei 1080i möglich ist?)

Desweiteren fehlen viele, hier bereits genannte, interessante Informationen. Um ein Beispiel heraus zu nehmen die fehlende Mehrkanal unterstützung von Audio beim QuickSync Encoden.
Meinem Verständniss nach, und bitte korrigiere mich wenn ich falsch liege, gehört QuickSync mit zum IGP Teil und ist Intels Antwort auf CUDA und Stream...

Ich möchte wirklich nicht einfach böswillig und respektlos rumnörgeln. Aber dieser Test lässt in seiner aktuellen Version leider kaum Luft für Lobeshymnen auch wenn die dazu aufgebrachte Zeit und Arbeit dieses sicherlich Wert gewesen wären!
 
sanders schrieb:
@Jto
Ja aber darum geht es doch gerade. Die sind nicht fürs Zocken gedacht werden aber auf Basis dieses Setups getestet. Warum?? Ausgerechnet das was du selbst sagst, nämlich Office und HTPC, wird nichtmal im Ansatz brauchbar getestet!

Da stimm ich mit dir überein. Ich bezog mich auf die Forderungen der "testet in FullHD und gegen aktuelle GPUs"-Fraktion.
 
glumada schrieb:
eber er meint wen der ram als grafikspeicher genutzt wird, da könnte es bei den schwachen igps schon nen unterschied machen
Genau so war's gemeint.

Auf Anandtech und bei ht4u.net finden sich ja auch ziemlich überzeugende GPU OC Ergebnisse. Und auch eine Andeutung, dass mehr Ram-Takt der iGPU helfen würde:
Etwas Linderung dürfte sicherlich schon ein höherer Speichertakt verschaffen, doch ausgerechnet diesen untersagt Intel ja auf den H67-Platinen...
http://ht4u.net/reviews/2011/intel_sandy_bridge_sockel_1155_quadcore/index26.php
 
Wie wurden die gemessen? Welche Hauptplatine wurde für die Messungen genommen? Warum wird dies im Sinne der Transparenz nicht aufgezeigt?
Wurden die Messungen möglicherweise mit einem ATX Board + 2500K + 5450 gegen ein µATX + 2500K im IGP gemacht?
Schau mal unter "Testsystem", da stehts ;)

Besonders der Bereich Transcoding ist sehr schwach gemacht! Das zeigt sich schon alleine daran dass nicht mal erwähnt wird, dass das transcodieren mit den derzeit beiden einzigen Softwarelösungen die Intels Quick Sync unterstützen KEINE Mulitchannel Audio ausgeben:
Mit dem Abschnitt Transcoding wollten wir uns absichtlich nicht lange aufhalten, da dieser unserer Meinung nach schlicht und ergreifend einfach nur eine sehr kleine und geringe Rolle spielt bzw. einfach kau mInteresse dafür da ist. Oder haben wir uns da geirrt? Dann einfach melden wenn sowas in Zukunft wichtiger werden soll.

1. Was sofort auffällt: Warum gibt es keine Messungen mit einer NVidia-Einsteigergrafikkarte? Ist NVidia etwa nur ein Außenseiter?
2. Warum gibt es keine Messungen mit Grafikkarten, die preislich 10-20€ mehr kosten als die billigsten Einsteigergrafikkarten? Zumal man ja damit mal eine nette Gegenüberstellung machen könnte, ob denn der Mehrpreis einer K-SNB-Variante gerechtfertigt ist oder ob man das dafür notwendige Mehrgeld vielleicht nicht doch lieber in eine diskrete Grafikkarte investieren könnte?
3. Warum gibt es keine Skalierungstests? Wenigstens die nächste Auflösung 1280x1024, die bei älteren 17-19"-Monitoren sehr sehr üblich ist?
4. Warum werden AA/AF-Messungen durchgeführt, aber für unterschiedliche Bildqualitäten nicht?
5. Was gibt es für Probleme bei Mafia2? Das lässt sich im Text nicht herauslesen (nur andeutungsweise im Fazit).
6. ...Kleinigkeiten
1. Nvidia inklusive deren Bordpartner konnten uns kein Sample einer GT 430 zur verfügung stellen, trotz mehrfacher Nachfrage. Deswegen gabs dann keine Karte im Test.
2. Ja, die Überlegung gab es durchaus. Wir haben uns dann schlussendlich aber dagegen entschieden, zumal die HD 5450 doch gut mithalten kann. Ist aber ohne Zweifel ein Thema über das diskutiert werden kann.
3. Irgendwie sehe ich da bei einer IGP nicht vierl Sinn drin da riesige Auflösungen zu testen. ich persöhnlich als Spieler würde eher die Details hochschrauben.
4. Mhm? Da stehe ich jetzt auf dem Schlauch.
5. Schau mal unter "technische Schwierigkeiten" nach.

Mein Physiklehrer würde sagen:
"Wer misst misst Mist!"

Ihr habt es als erster Testteam mit dieser Aussage:
So ziehen sie (Sandy) unter Windows mit etwa 47/48 Watt acht/sieben Watt weniger aus der Steckdose als der langsamere Core i5-661.
Volkers CPU-Test ist mit einer diskreten Grafikkarte gemessen, der Artikel hier nur mit einer IGP. Da können dann auch natürlich andere Ergebnisse bei rauskommen. Zumal die SB-IGP deutlich bessere Energiesparmechanismen als Clarkdale hat.

Im Text wird eine "Management Engine Software" für HD-Beschleunigung erwähnt. Woher bekommt man diese?
Das ist ne gute Frage. Der Presse wurde der Treiber zur Verfügung gestellt, online habe ich diesen jetzt noch nicht finden können.

Warum wird die unterirdisch schlechte AF Qualität nicht im Fazit, Kontra Kasten aufgeführt?
Und warum wird behauptet das diese IGP auf Höhe von HD 5450 liegt wenn die Performance mit AF cheaterei erkauft wird?
Es ist eine IGP und es wird auf dieser wohl kaum jemand mit AA/AF spielen. Die schwäche wurde im Fazit erwähnt, muss in dem Fall aber kaum in den Pro/Kontra-Kasten. Da gibt es noch ganz andere Baustellen.
Und die Performance liegt ohne AF gar vor den AMDs. Da muss wohl kaum gezweifelt werden, dass diese mehr oder weniger identisch sind.

Habe mir mal den Test über die Video-Wiedergabe angesehen. Im Text wird von einer HD 3000 geschrieben. Ich konnte aber keinen einzigen Wert daüber finden. Habe ich da was übersehen, oder wurden die Werte einfach vergessen?
Die Videowiedergabe bei HD 2000 und HD 3000 ist absolut identisch.

Ist es möglich, die integrierte Grafikeinheit der CPU zusammen mit einer diskreten Grafikkarte zu betreiben? Wurde das bereits irgendwo getestet und wenn ja, mit welchem Ergebnis?
Mich interessiert es, da ich gerne in naher Zukunft die Kombination H67 + i2500K und nVidia GTX570 laufen lassen würde. Die integrierte Grafik soll dabei lediglich einen FullHD-Monitor zum gucken von Videos bzw. als Desktop-Erweiterung ansteuern. Zur Zeit nutze ich zu diesem Zweck eine zusätzliche 9500GT, die ich aber gerne in Rente schicken würde.
Ohne es ausprobiert zu haben: Der Logik nach ist es nicht möglich, da die IGP bei erkennung einer separaten Grafikkarte abgeschaltet wurde. Egal wo da welcher Monitorstecker dran hängt. Und im BIOS/UEFI gibt es zumindest bei dem MSI-Board keine Funktion wo beides parallel eingeschaltet werden kann.

@Computerbase: Mich würde besonders die OpenCL Performance von Sandy Bridge interessieren. Könntet ihr das bitte noch in den Test aufnehmen? Ein gutes Tool zum Testen ist der GPU Caps Viewer.
Die Hardware sollte OpenGL können, der Treiber aber wohl noch nicht.

- Warum wird bei einem Maximal Verbrauch von unter 100W ein 850W Netzteil genommen?
Das war einfach das Netzteil das da war, ohne jetzt noch groß ein anderes organisieren zu müssen. Und um Weihnachten und Neujahr herum passiert diesbezüglich da mal gar nichts. Dann wäre der Artikel vielleicht in zwei Wochen fertig.
- Warum werden hier auch vom offiziellen Testsystem abweichende Speicherriegel verwendet?
Es ist halt ein völlig anderes Testsystem :)
Darüber hinaus ist das ein kleiner C&P-Fehler. In dem Artikel taktet der Speicher mit 1.333 MHz. Die Spannung bleibt natürlich bei 1,65 Volt.

Eine Einschätzung zum Dual-Monitoring vermisse ich auch ein wenig.
Naja, er funktioniert. Klonen und erweitern. Kann man da großartik mehr berichten?

Gerade das Thema Sound (Formate) taucht glaube ich nicht zum ersten Mal in Zusammenhang mit einem Grafikchip auf, getan hat sich seit dem offenbar nichts.
Auch wenn es kein NDA gab, Zeitdruck gab es dennoch genug ;)
Ja, das Thema Audio hatten wir da leider im STress vergessen. Da hat sich aber nicht wirklich was getan, sprich es gibt die HD-Tonformate per Bitstream.
 
@ Wolfgang: Bezüglich HTPC, kannst du etwas zum Deinterlacing sagen oder habt ihr das nicht näher getestet?

Wäre interessant zu wissen ob VA Deinterlacing oder ähnlich gutes möglich ist?
 
Hm, also Anandtech kommt beim Transcodieren auf ein anderes Ergebnis.
Da ist die ATI-GPU Qualität mindestens mit der CPU-Transcodierung gleichwertig.
Wenn man sich die Bilder dort ansieht, sieht man auch warum mindestens, die Qualität ist überragend.
Die iGPU von Intel kam da überhaupt nicht vor, sondern QuickSync und das hatte eine etwas schlechtere Quali als die ATI-GPU und die CPU-Transcodierung und eine GTX460 hatte eine komplett grottige Qualität beim Transcodieren.
 
Zurück
Oben