Test „Sandy Bridge“-Grafik: Intel kombiniert starke GPU mit schwachem Treiber

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.596
Alle Sandy-Bridge-Prozessoren von Intel kommen mit einer integrierten Grafikeinheit daher. Wir finden heraus, wie sie sich im Duell mit „Low-Cost“ von AMD und Nvidia schlägt. In unserem Artikel achten wir dabei nicht nur auf die Performance sondern auch auf die Kompatibilität und Stabilität.
Zudem untersuchen wir die Video-Wiedergabe.

Zum Artikel: „Sandy Bridge“-Grafik: Intel kombiniert starke GPU mit schwachem Treiber
 
Darauf hab ich ja schon lange gewartet, gleich mal zu Gemüte führen!

Schon mal fettes Danke!

"Die AMD-Karte liegt lediglich beim Aufwerten einer DVD in eine 3D DVD in Front, ansonsten belegt sie zweimal den letzten und einmal den vorletzten Platz."

Kann an der Uhrzeit liegen, aber sollte das nicht umgedreht sein?

So habs jetzt durch:

Erst mal an CB bissl konstruktive Kritik:

1. Gut fand ich die CPU-Auslastung gegenübergestellt mit der Leistungsaufnahme
2. Keine Skalierungstests. Weder Auflösung, noch AA oder AF Grad. Schade!
3. Benches nur in low quality + niedrigste Auflösung, obwohl meist deutlich mehr drin gewesen wäre. Dafür hätte man lieber auf AA/AF verzichten können, welches eh nicht wirklich brauch bar ist.
4. Keine Bildqualitätsvergleiche in High-Quality (wenn auch unspielbar, aber hier gehts ums Prinzip)
5. Bitte überarbeitet noch mal die Einleitungstexte zu den Benches. Sätze wie "Einzig die Qualitätseinstellungen weichen von diesem ab, da wir durchweg die Enthusiast-Einstellung verwenden. " (Crysis) verwirren unnötig, auch wenn ihr die verwendeten Einstellungen nochmal fett daneben habt.

Das wars erstmal...Ich kann noch den Anandtech-Test empfehlen, wer sich noch mal die Transkodierungsfähigkeiten anschauen möchte. Dort war auch eine NVIDA-Karte dabei und es gab sehr interessante Aussagen die Qualität betreffend...

Zur IGP: Sehr schön, dass INTEL die Messlatte deutlich höher gelegt hat! Nur dummerweise reicht das nicht! Leider hat man eigentlich nur was mit der HD3000 davon, die aber so gut wie keiner mit einer solchen CPU verwenden wird. Insofern kann man die beiden eigentlich von der Liste streichen und übig bleiben die deutlich langsameren HD2000, die auch noch mit Bildqualitäts- und Treiberproblemen zu kämpfen haben.

Insofern kann ich das Fazit von CB voll und ganz unterschreiben. Zum Spielen ungeeignet, wer ne billige Sims-Gaming-Kiste für seine Freundin sucht, sollte da lieber zum Zacate greifen, der ähnliche Spiele-Leistung, aber ohne die genannten Probleme bietet ;)
 
Zuletzt bearbeitet:
sehr netter Test, danke dafuer!
die Performance scheint ja ganz in Ordnung zu sein, fuer nen Office-PC mehr als ausreichen, auch als Multimedia-Rechner gut zu gebrauchen, die gerige Leistungsaufnahme is da echt nen großes Plus.
Leider hinken die Treiber und die Filterung um Jahre hinterher... was das ganze zum gamen zwischendurch wohl eher schlecht eignet.. schade. Aber durch die kompletten Nvidia-Patente wird das Problem wohl bald Geschichte sein......
 
Zuletzt bearbeitet:
Super Test und beeindruckende Leistung und Gesamtpaket! Aber die Treiberfrickelei sollte sich schleunigst ändern!

@KAOZNAKE, Hauptsache schnell was geschrieben als erster und dann lesen.... Super!
 
Lord Sethur schrieb:
Hat jemand schon überlauert, ob Dual-Monitor-Betrieb unter Verwendung von zwei digitalen Anschlüssen mit den On-Die-GPUs möglich ist?

Gruß,
Lord Sethur

EDIT: Bei Asus gibts noch keine Boardhandbücher zum Download, Asrock und Gigabyte gehen zwar auf das Thema Dual-Monitor-Betrieb in den User Guides ein, schreiben aber nicht, welche Schnittstellen kombiniert werden können... es besteht also noch Hoffnung.

Habs immer noch nicht verifizieren können... und beim ersten Überfliegen dieses Artikels hab ich auch nichts entdeckt - wie siehts denn aus mit der meiner Ansicht nach eventuell sogar größten Schwäche aller aktuellen OnBoard-oder-sonst-was-nicht-dedizierten-Lösung bei Sandy Bridge?

Gruß,
Lord Sethur
 
In Sachen Leistungsaufnahme haben die Sandy-Bridge-Prozessoren einige Verbesserungen mitgebracht. So ziehen sie unter Windows mit etwa 47/48 Watt acht/sieben Watt weniger aus der Steckdose als der langsamere Core i5-661.

Völlig haltlose Behauptung, denn beim H55 + i5 661 habt ihr auf ein ASUS Board gesetzt und beim H67 + i2x00(K) auf MSI. Die Differenz liegt einzig und alleine an der Boardauswahl!

Eure eigenen Leser wissen bereits, dass es einen gewaltigen Unterscheid zwischen ASUS H55 und MSI H55 gibt: https://www.computerbase.de/forum/threads/16-w-core-i3-530-komplettsystem-standard-v.685231/

Es ist also lediglich eine Suggestion, dass die neuen CPUs sparsamer im Leerlauf wären. Nehmt euer MSI H55-ED55 zur Hand und macht einen fairen Vergleich.
 
Zuletzt bearbeitet:
Der Sinn eines 2600k auf einem H67 Board erschließt sich mir zwar immer noch nicht, aber gut, darum gehts ja nicht.

Andere Frage, bezüglich Battleforge, Zitat Test: "Das Spiel bietet den Support von DirectX 11 (was wir inklusive der Einstellung SSAO Very High nutzen)"
Das stimmt hier denke ich nicht, und wurde nur aus dem großen Test kopiert oder?

Ansonst, toll anzusehen, dass vielleicht endlich die Lowendsparte ausgedient hat.
Wenn diese Technik, in Verbindung mit deaktivierter diskreter Grafikkarte ala Nvidia´s Optimus, ausgereift ist, kann man nur begrüßen.
 
Mal schauen, ob es Intel schafft die Treiberprobleme aus der Welt zu bringen, sowie das schlechte AF zu verbessern (denke aber der Fehler liegt hier in der Hardware begründet).

Ich rechne auch weiterhin, dass die OEMs im Consumermarkt eher auf eine Low-End GPU als auf die SB IGP setzen werden.
 
Ich finde, die teilweise mangelnde Integration kann man nicht Intel anlasten.
Wenn Steam o.ä. es immer noch nicht geschafft haben, Intel mit einzubauen zeugt das, meiner Meinung nach von der typischen Arroganz gewisser Hersteller.
Das mit dem Blu-Ray Menüs ist mir allerdings schleicherhaft. Greift das auf Videobeschleunigung zurück ? Falls ja sind bestimmt nur ATI, Nvidia eingearbeitet worden.

Die allgemeinen Abstürze jedoch, hinterlassen einen bitteren nachgeschmack. Falls die Performace beim Ivy Bridge nochmals solch eine Schritt nach vorne macht, sollten sich AMD und NV warm anziehen. das wird alles bis zur GTX 260 weggefegt :D
 
Flüssiges Spielen von Crysis Warhead in 1024x768 mit AA und AF? Das ist krass!
 
mich stört die auflösung .. ich find sie realitätsfern :/ auch wenn die igp nict zum zocken gedacht ist, sollte man wenigstens in 1680 testen .. (eigentlich wär hd schon angebracht).

ansonsten bin ich positiv überascht von der leistung der intel igp
 
Hi,

bei den Benchmarks wird die ganze Zeit der Core i7 als i5 aufgeführt.

Ich frag mich bis jetzt auch was die Grafikeinheit bei den "k"-Modellen soll, denn man kann ja entweder übertakten oder die Grafik nutzen indem man das passende Mainboard kauft. Bis jetzt zumindest.
 
Ordentlicher Test, danke!
Ich hätte es wirklich begrüßt wenn ihr auch Multimonitor Betrieb getestet hättet, für eine reine Office-Umgebung sicherlich von Vorteil.

Die IGP ist ja schonmal auf dem richtigen Weg endlich dedizierte Grafikkarten abzulösen, zumindest Hardwartechnisch. Hoffentlich macht AMD in dieser Hinsicht "mehr" richtig :).

Und das hier:
bigot schrieb:
Völlig haltlose Behauptung, denn beim H55 + i5 661 habt ihr auf ein ASUS Board gesetzt und beim H67 + i2x00(K) auf MSI. Die Differenz liegt einzig und alleine an der Boardauswahl!

Eure eigenen Leser wissen bereits, dass es einen gewaltigen Unterscheid zwischen ASUS H55 und MSI H55 gibt: https://www.computerbase.de/forum/threads/16-w-core-i3-530-komplettsystem-standard-v.685231/

Es ist also lediglich eine Suggestion, dass die neuen CPUs sparsamer im Leerlauf wären. Nehmt euer MSI H55-ED55 zur Hand und macht einen fairen Vergleich.


Ich bin jetzt nicht ganz auf dem neuesten Stand, aber vielleicht wurden auch bei den Chipsätzen angesetzt und diese verbrauchen nun weniger. Es gibt bestimmt einen erklärbaren Grund warum Computerbase hier auf MSI gesetzt hat und die beiden Systeme untereinander so vergleichen kann.

mfg manniefresh
 
Maulwurff schrieb:
@KAOZNAKE, Hauptsache schnell was geschrieben als erster und dann lesen.... Super!

Und du möchstest mir wohl erzählen, dass du den Test in 7 Minuten gelesen hast ;)

Insofern hat dein Comment auch kein Wahnsinnsgehalt....:o
 
Bin doch sehr überrascht das dennoch soviel Leitung dabei rum kommt aber ich frag mich ob man "soviel" Leistung überhaupt brauch wenn man doch bei Spielen auf einiges verzichten muss (Auflösung,AA/AF). Jeder der mal bei gelegenheit spielt kauf sich eine kleine Graka und ist dabei viel besser bedient.

Also ich denke zu viel für Office und Multimedia zu wenig um es als richtige altanative für Gamer in betracht zu ziehen!
 
Und nun die Bonusfrage:
Wer kauft sich einen i5-2600 für rund 300 Euro und spart sich allen ernstes 100 Euro für eine halbwegs nutzbare Grafikkarte? Ich denke bei den Ivys wird es erst interessant, wenn die Treiber dann ok sind.

Witzig finde ich auch, wie gelassen die Treiberprobleme hingenommen werden. Würde nvidia oder AMD sowas abliefern, dann wäre hier wieder die Hölle los ;-)
 
manniefresh schrieb:
Ich bin jetzt nicht ganz auf dem neuesten Stand, aber vielleicht wurden auch bei den Chipsätzen angesetzt und diese verbrauchen nun weniger. Es gibt bestimmt einen erklärbaren Grund warum Computerbase hier auf MSI gesetzt hat und die beiden Systeme untereinander so vergleichen kann.


Aber ich bin auf den neusten Stand und ich sage, dass die Chipsätze sich kaum verändert haben, die Fertigung ist identisch (65nm), Features sind dazugekommen (2 x SATA III und USB3.0, allerdings durch Zusatzchip) aber die haben wenn überhaupt eher negativen Auswirkungen auf den Verbrauch.

ASUS und MSI war, ist und wird auch wohl nie vergleichbar sein.
 
Zurück
Oben