Test „Sandy Bridge“-Grafik: Intel kombiniert starke GPU mit schwachem Treiber

Ycon schrieb:
Jedoch... um die schnelle 3000er Grafik zu bekommen, muss man fast 300 Euro in eine CPU versenken und ich glaube nicht, dass dies dem Anwendungszweck eines IGPs entspricht.


Den 2500k mit HD3000 gibt es ab ca 210€.
 
toller test :)

obwohl mir, ums mal anzuschneiden, der sinn einer IGP bei einer CPU die wahrscheinlich 300€ aufwärts kosten wird (wenn wir mal i7-2600 hernehmen) nicht ganz klar ist, denn wenn ich sowas wirklich brauch brauch ich ne ordentliche grafikkarte doch auch, oder irr ich mich?

aber gut, sei dahingestellt

arbeitet an euren treibern intel -.-
 
Ralf555 schrieb:
Das ist doch überhaupt nicht vergleichbar. Die Mainboards sind unterschiedlich und im Sandy Bridge Tests wurde ein stromfressendes Asus Deluxe Board verwendet, zudem ist dort mit einer GTX580 gemessen wurden. Die IGP im i5-661 wird außerdem mehr verbrauchen weil die noch in 45 nm gefertigt ist und nicht 32 nm.

Eben das ist ja das Hauptproblem, dass die Mainboards derartig unglücklich (vom Stromverbrauch aus gesehen) gewählt wurden.
..und klar kann man das miteinander vergleichen. Mir ging es dabei ja nur um "verdrehten" Differenzen zueinander.
Hier in diesem Test wurden die Sockel 1155/1156 CPU's mit IGP getestet und in dem anderen Test genau diese nur mit ausgeschalteter IGP und beide jeweils mit der GTX 580.
Ob die IGP mit 45nm mehr verbraucht kann ich nicht beurteilen, da ich noch keine gescheiten Messungen gesehen habe.
Ich habe selbst hier mit dem i5-661 einen Verbrauch im Idle von 30Watt. Mit normalen Komponenten und ohne irgendwelche Tuningmaßnahmen (undervolten usw.).
Hier im Thread wurde auch schon daraufhingewiesen, dass sogar 16 Watt möglich sind.
Hier: https://www.computerbase.de/forum/threads/16-w-core-i3-530-komplettsystem-standard-v.685231/
Das ist ein sehr extremer Wert, aber auch mit "normalen" Komponenten erreicht wurden.
Wenn jetzt noch die 32nm-IGP sparsamer ist, hätte ich nichts dagegen.

Nur wenn wie hier ein Verbrauchstest für die sparsamen Systeme mit IGP mit gemacht wird und dafür ein 850 Watt Netzteil benutzt wird, fällt mir nichts mehr ein. Außer, dass ich gerne die Effizienz des Netzteiles bei den Idle-Verbräuchen wissen würde. :lol:
Die liegt dann wohl irgendwo bei 50%........

lg asteriks
 
DvP schrieb:
@ Canopus
Danke für deine Predigt und für keine Antwort bzw. Richtigstellung. So ist dein Beitrag mal richtig sinnvoll. Wenn du bessere Infos hast die diesen Nebenarm der Diskussion beenden, würde dein Post bestimmt nicht gelöscht werden. Darüber hinaus hast du beides zitiert und keiner weiß auf welchen Punkt du eingehst.
Da deine Aussage über Nvidia Chipsätze und Lizenzen von AMD nur so aus dem Ärmel geschüttelt war, kannst du nun nicht erwarten, dass ich dies Ausführlich erklären kann, warum deine Aussage falsch ist. Schließlich hat BD und Nvidia Chipsätze weniger mit dem Thema Intel IGP gemeinsam als ein Fahrrad zu einem Formel 1 Auto.
Ich habe aber für dich das Thema eröffnet. Ich habe schon oft diese falsche Aussage wie du sie gemacht hast gelesen. Natürlich nur von Usern und natürlich ohne Link.
Keine einzige relevante Redaktion wie CB, HWL, 3DCenter und HT4U haben jemals was in dieser Richtung gebracht. Ich habe auch gesucht und nichts gefunden.
https://www.computerbase.de/forum/t...idia-chipsaetze-mehr-fuer-amd-systeme.842784/
 
asteriks schrieb:
Hier in diesem Test wurden die Sockel 1155/1156 CPU's mit IGP getestet und in dem anderen Test genau diese nur mit ausgeschalteter IGP und beide jeweils mit der GTX 580.

Nein eben nicht, unterschiedliche Mainboards auch noch!

asteriks schrieb:
Ob die IGP mit 45nm mehr verbraucht kann ich nicht beurteilen, da ich noch keine gescheiten Messungen gesehen habe.

Die Differenzwerte von Idle zu Last sprechen ein klare Sprache. Der Abstand vergößert sich da um weitere 5 Watt zum i5-2300.
 
Ein deutlicher Schritt nach vorn von Intel. Leider hat Intel nicht die maximale Wirkung entfaltet da die HD3000 nur in den Highend-CPUs verbaut wird.

Ich bin gespannt auf AMDs APU-Chip und erwarte eine bessere Performance sowie saubere Treiber, schliesslich ist AMD in der GPU-Entwicklung deutlich erfahrerener als Intel. Und der Hammer wäre noch Ifinity mit drei digitalen Anschlüssen, dass würde Büro-PCs super stehen!
 
@elmex201:

In den nächsten wochen sollten die günstigen Dualcore versionen erscheinen, diese sind schnell genug für Office und Multimedia und besitzen den Grafikkern. Also ideal für Office...
 
Also dafür was die Sandys kosten arbeiten die aber mehr als brav
 
Tobear schrieb:
Genau das trifft es auf den Punkt. Die schnelle CPU mit der (bis auf die Treiberprobleme recht passablen) IGP ist ja schön und gut. Aber irgendwie hat das Teil überhaupt keine relevante Zielgruppe. Die Leistung der CPU und der IGP stehen in gar keinem Verhältnis zueinande

Die relevante Zielgruppe ist die sogenannte produktive Welt-eben dort wo gearbeitet und nicht gespielt wird.

z.B)
jegliche Art von massivem Multitasking
Video-/Audio/-(de)coding
Massive Kopieraufgaben im RAM
Komplexe Berechnungen in der Forschung and so on....
...all das verbunden mit geringer Leistungsaufnahme

und ja...ich kenne GPUComputing...ich kenne CUDA

Manchmal fragt man sich was sich Otto Normalbürger so anmaßt über das "gut und schlecht" eines Chipgiganten wie Intel zu urteilen...bei dem die IQ170 aufwärts Leute reihenweise in der Entwicklungsabteilung sitzen???!!!

Bestimmt warten die nicht auf den Kommentar ein paar Dorf-Spieler aus Germany
 
Vielleicht schwebt Intel ja eine Lösung nach dem Nvidia Optimus Prinzip vor....
Haben ja schließlich bald Zugriff auf Nvidias Patente. Es wäre doch ganz akzeptabel wenn man die IGP dann nutzt, wenn keine großen Aufgaben zu erledigen sind und wenn doch wird automatisch zu ,,echten'' Graka umgeswitcht. So macht es dann trotzdem Sinn in eine 300 Euro Cpu eine integrierte Gafikeinheit einzubauen. Das würde dann auch ne Menge Strom sparen. AMD muss aufpassen, das den einzigen wirklichen Vorteil den sie im Gegensatz zu Intel haben nicht verspielen (der ist meiner Meinung nach ATI). Wenn Intel im Bereich Grafik schnell an Boden gewinnt und das Potenzial haben sie ohne Frage, wird es schwierig auf dem Markt.

Good luck AMD!
 
Was ich nicht verstehe ist weshalb der Energiebedarf der HD 3000 gleich dem der HD 2000 scheint... Oder liegt das jetzt einfach an der schlechten Messmethodik? (850W Netzteil^^)
Aber es hat schon was... Intel produziert eine CPU die von den Features etwas beschnitten ist dafür einen offenen Multiplikator besitzt sowie einen stärkeren Grafikchip. Die Pointe daran ist jedoch das genau diese Gegebenheit (noch) nicht zusammen genutzt werden kann. Das klingt nach Marketing und Kundenverarsche. Was denkt ihr, wieviele Leute werden denken "wow, den kann ich übertakten" packen das Ding dann aber auf einen H67. Oder dann halt auf den P67 und wundern sich wo man den nun den Bildschirm anschliessen kann ("brauch ich da jetzt einen USB-VGA Adapter?" Ich seh schon die neuen Forumanfragen vor mir).
Ich blick das echt nicht, sorry.

Schade das CB sich hier nicht besonders geschickt.
 
Canopus schrieb:
Da deine Aussage über Nvidia Chipsätze und Lizenzen von AMD nur so aus dem Ärmel geschüttelt war, kannst du nun nicht erwarten, dass ich dies Ausführlich erklären kann, warum deine Aussage falsch ist. ...
Eine Aussage die du nicht widerlegen kannst ganz dogmatisch als "falsch" zu bezeichnen ist auch auch eher schwach.

TecHead schrieb:
Vielleicht schwebt Intel ja eine Lösung nach dem Nvidia Optimus Prinzip vor....
Haben ja schließlich bald Zugriff auf Nvidias Patente.
Auf eine solche Lösung hoffen extrem viele schon lange. Ich hätte auch gern einen 24/7 PC, der beim Surfen etc. so wenig wie möglich Leistung zieht und dennoch im Spielbetrieb richtigen Bums hat. Wenn du dir bei HT4U aber anguckst wie sparsam die neuesten High-End Grakas aktuell sind, stellt sich schon fast die Frage nach der Notwendigkeit einer technisch komplexen Lösung. Die Dinger ziehen ja keine 20W mehr, was auch auf ein ganzes Jahr im nonstop Betrieb keinen Kostenberg verursacht.
Interessant wird auch noch zu sehen ob Intel, dann noch Lizenzkosten an NV abdrücken muss wenn sie in den Patenten etwas finden das ihnen gefällt. Wie genau dieses Abkommen aus den letzten Tagen aussieht, konnte man so genau auch nicht rausfinden.
 
AMD ist halt technologisch gesehen in diesem Bereich Intel um Jahre voraus. Die Treiber sind unvergleichlich, genauso die Grafikleistung und der Grad der Verschmelzung. Zwar ist dies schon ein Fortschritt gegenüber den alten Cores, aber trotzdem noch längst nicht ausreichend.
Die Prozessorleistung kann auch noch so gut sein, so lange Intel hier nicht langsam mal den Rückstand aufholt, bewahrheiten sich noch die Vorhersagen der Experten, dass AMD nächstes Jahr insgesamt 25% und übernächstes Jahr 30% Marktanteil hat (aktuell ca. 20%).
Stelle es mir aber auch schwierig für Intel vor, hier aufzuholen, während AMD einfach nur mehr und mehr das Wissen von ATI ausbeutet, muss Intel ohne Erfahrung versuchen, was neues aus dem Boden heraus zu entwickeln, nebenbei noch Millarden im Patentstreit an Nvidia zahlen... Da kommen düstere Zeiten auf Intel zu, wenn nicht Ivy Bridge endlich vernüftige Leistung zeigt, was nur zu hoffen ist. Zur Zeit ist das keine Alternative, wie beireits im Fazit erwähnt, ganz im Gegensatz zu den APUs von AMD, deren Leistung zu gebrauchen ist.
 
Canopus schrieb:
Ich muss auch sagen, dass ich bei CB sehr viel kritisieren muss.

Du musst nicht, du machst es.

Welche Hauptplatine wurde für die Messungen genommen? Warum wird dies im Sinne der Transparenz nicht aufgezeigt?

Das steht mehrfach im Test. Im Zweifel aber immer bei "Testsystem".
 
Ich bin echt überrascht von dem IGP! In meinem HTPC werkelt jetz ein 2500K und der hat mehr als genügend Leistung! Da kann man sich schon mal freuen, was Ivy Bridge bringt :)
 
Man hätte vlt noch eine HD 5670 als Vergleich nehmen können, der Liano wird ja vermutlich 400 Shader besitzen und das wäre ja der Konkurrent im Desktop Bereich. An sonsten ganz interessant, aber die Multimedia-Fähigkeiten könnten vlt noch besser sein.
 
Guter Test. Aber wenn Intel die Treiberfehler beseitigt könnte ich mir vorstellen doch mal einen SandyBridge-Prozzi zu kaufen.
 
Mit der Ausführlichkeit kann man es auch übertreiben.
Was sollen bitte Spieletests @ 1024x768?
Weder HD 2000 noch 3000 taugen als Gamer-GPUs und sind dafür auch nicht gemacht. Dann kann man sich solche extensiven Spiele-Tests sparen bzw. auf eine halbe Seite beschränken.

Kann man mit diesem MSI-Board auch eine richtige Gamer-Grafikkarte benutzen, die man im BIOS komplett aktivieren/deaktivieren kann?

So könnte man sich beim Arbeiten die knapp 20 W Idle-Verbrauch einer Radeon HD 6870/6850 sparen.
 
Zurück
Oben