Test Test: Intel Graphics HD 4000 & 2500

Ivy Bridge sind gut, keine Frage. Viel schneller und dabei sparsamer als AMD und auch nicht zu teuer. Das war Sandy Bridge aber auch schon. Deshalb habe ich mir etwas mehr erwartet, zumindest einen noch geringeren Stromverbrauch im Vergleich zu Sandy Bridge (mein Gott 22nm!!!). Stattdessen hat Intel die meisten Neuerungen in die integrierte Grafik gesteckt.
Die aber auch nicht der Hammer ist (im Vergleich zu AMD nicht SB).
Unterm Strich bringt Ivy Bridge also kleinere Detailverbesserungen, minimal mehr Leistung und etwas geringeren Stromverbrauch gegenüber dem Sandy-Bridge.

Ich warte auf Trinity, so heiß auf CPU power bin ich nicht. Kühles, leises System mit guter
GPU (also keine HD2500) ist mein Motto, und nicht so Teuer.

P.S Hoffentlich wird Trinity mein erster AMD schlecht hin (aber vielleicht auch nicht), mal sehen.
 
Gabbermafia
Dann freu dich doch mal auf 28nm APUs, denn dann wird man wie bei der jzigen HD7770 richtig hoch takten können.
Die DIE Fläche einer HD7770 ist 123mm². Die Fläche von Trinity ist derzeit auf 240 bis 250mm².
Also wenn Kaveri eine gescheite Speicheranbindung hat.

Glaub somit der Abstand zwischen Intel und AMD wird immer größer werden, doch glaub ich nicht dass Intel beabsichtigt, viel in das Thema GPU zu investieren. Glaub sie werden ihre alten Ideen sicherlich nicht vom Board geworfen haben und auf ihre MultiCLusterCPUs oder wie die auch heißen, Manycores weiter geld pumpen.
 
Trinity wird rocken ;)
 
Man löst das Speicheranbindungsproblem bei AMD ja durch ne Art virtuellen Grafikspeicher.
Den ersten "Feldversuch" wird man bei Trinity sehen. Ein Grund, warum man die Speichertaktrate nicht auf DDR3 2133mhz erhöht hat.
 
Volker schrieb:
Trinity wird rocken ;)

Unglaublich, dass ich mich nun nicht nach Ivy Bridge, sondern Trinity sehne :D
Es war eine gute Entscheidung von AMD mehr auf APU und Server zu setzen, denn da scheinen sie ja trotz größerer Fertigungsgröße noch richtig gute Produkte zu haben
 
Sehr schöne GPU, 30 Prozent mehr Leistung bei gleicher Leistungsaufnahme. Leider hab ich schon eine HD3000 in meinem Notebook, wäre sonst gekauft!
 
Volker schrieb:
Trinity wird rocken ;)

Ich dachte Release ist erst am 15. Mai und Testmuster werden erst spät verschickt.
Aber gut, würde mit den Trinity Notebook Release von Dell schon Ende Mai Sinn ergeben...

Wintel schrieb:
Ich hoffe mal dass das auch ein bisschen für die CPU Performance

Wozu?
 
@CB

Ich finde Tests bei denen die GPU ~15fps erreicht recht sinn frei. Keiner will Crysis 2 auf max. Detail und DX11 auf einer IGP spielen. Ihr solltet eher Spiele Testen die auch wirklich auf sowas gespielt werden:

FIFA usw.
Rennspiele usw.
LEGO Star Wars usw.

Eben Spiele die man auf einen HTPC spielen würde.

Oder auch populäre Spiele wie Sims 3...

Jeder der ernsthaft in Erwägung zieht Crysis 2 zu spielen kauft sich doch irgend eine dezidierte Grafikkarte!
 
pipip schrieb:
Also wenn Kaveri eine gescheite Speicheranbindung hat

Für Kaveri sind glaub ich 20 bis 30 % mehr GPU Leistung für anfang 2013 angesetzt oder?

derGrimm schrieb:

damit sich der AMD-Intel Vergleich nicht nur alleine auf Grafik vs. CPU Performance konzentriert, sondern AMD Intel auch CPU seitig an die Eier packen kann und ein schöner Konkurrenzkampf entsteht.
 
http://www.nordichardware.com/news/...s-performance-on-par-with-radeon-hd-7750.html
Documents from AMD have revealed specifications for Kaveri, which at first sight reminds us of a recently launched circuit. Besides third generation Bulldozer architecture "Steamroller", it will get 8 GCN units, which is the exact same as Radeon HD 7750. There is talk that Kaveri will go up to 100W just like the precursor, and be the first APU to reach 1 TFLOPS (Tera Floating-Point Operations Per Second).
Wintel
No matter if it is graphics built into the motherboard or the processor, the graphics processor has had to allocate a certain amount in the past. In practice it means that all RAM will then be available to both processor and graphics circuit.

Doch muss ich sagen freu ich mich eher auf 2014, dann soll die APU ja fertig verschmolzen sein...

Ich kann mir gut vorstellen, dass Intel dann wohlmöglich Many-Core am start hat in der Fertigung weiter voraus ist.

http://www.xbitlabs.com/news/other/...ndries_We_Have_Better_FinFETs_Than_Intel.html
Wobei GF behauptet, dass deren FINFET wesentlich besser sein sollte. Doch bis 14 nm kann ja noch viel passieren...
 
Zuletzt bearbeitet:
Wintel schrieb:
damit sich der AMD-Intel Vergleich nicht nur alleine auf Grafik vs. CPU Performance konzentriert, sondern AMD Intel auch CPU seitig an die Eier packen kann und ein schöner Konkurrenzkampf entsteht.

Und was nutzt ein AMD vs Intel Vergleich im "wahren" Leben?
 
DAASSI schrieb:
da wird doch nicht etwa jemand von ner fast ein jahr alten APU abgezogen... wie "erstaunlich"

Du meinst so wie AMD von > 3 Jahren alten Intels abgezogen wird? ^^

So genug Fanboy Polemik, Ivy leistet was zu erwarten war. Wär noch keinen Sandy hat kann jetzt beruhigt zu ivy greifen. Was office Rechner angeht, ob ich jetzt n Llano oder n Ivy drinn hab ist meinem Excel oder Powerpoint völlig egal. Solange ich 1080p wiedergeben kann ist alles darüber Zuckerguß und erst ab den dezidierten Grafikkarten fängt wieder ein neues Segment an. Für einen Office Rechner würde ich einfach das billigst am Markt verfügbare nehmen das noch in die Leistungsklasse passt und gut ist ob ich damit irgendwas zocken kann oder damit irgendwelche 3D blu Ray abspielen kann ist für den office betrieb irrelevant.

Als Beispiel mal unsere Büro Rechner:
Pentium 4 HT
1024mb RAM
80gb HDD

Da eh alles nur über Server läuft ist es völlig egal wieviel Leistung der client bringt.
 
terraconz schrieb:
Du meinst so wie AMD von > 3 Jahren alten Intels abgezogen wird? ^^

So, nun nehmen wir nochmal Intels Jahrzehntelangen Marktmißbrauch hinzu ;)
 
pipip schrieb:
Doch muss ich sagen freu ich mich eher auf 2014, dann soll die APU ja fertig verschmolzen sein...

Danke für den Link. Da steht ja 2013 nochmal eine enorme Merhleistung ins Haus, sofern natürlich die Bandbreite nicht limitiert.
Dann dürfte Inte vielleichtl noch etwas mehr ins Hintertreffen geraten. Ich gehe mal davon aus, dass AMD zumindest mit Trinity den Vorsprung mindestens halten, wenn nicht nen Tick ausbauen wird, obwohl Haswell wird auch sehr interessant. Hmm.. wird ne spannende Zeit.

terraconz schrieb:
Solange ich 1080p wiedergeben kann ist alles darüber Zuckerguß und erst ab den dezidierten Grafikkarten fängt wieder ein neues Segment an.

Nein die Segmente gehen fließend über, du machst dir das viel zu einfach. Ich dachte es wäre Schluss mit der Polemik? BTW ist auch GPU Beschleunigung bei Office Rechnern für Browserbeschleunigung, Aero Oberflächern und sonstiges relevant, auch wenn die CPU natürlich maßgeblich ist.

Das Trinity Topmodell wird wahrscheinlich fast die Leistung einer HD 6670 erreichen.
Man sollte schon zwischen absolutem Office Rechner und High end Spielerechner mit dedizierter GPU differenzieren.
 
ich seh da beim BüroPC keinesfalls die AMD Lösung vorne. Hier werden die kleinen i3 Intels perfekt sein für. Llano ist eher was für den Family PC, wenn überhaupt... was spielt man denn bitteschön mit einer "HD 6550" anstatt einer HD4000 von Intel (?), vermutlich ohnehin gar nichts, wüsste nicht wann bei unserem Office PC mal die GPU von nöten war (außer vllt um Aero starzustellen ^^).

Wer spielen will ist ja selbst mit ner 40€ dez GPU besser dran. Wichtig ist nicht spielen, sondern Multimedia wie BD Beschleunigung, Multidisplay, 3D, Bitstreaming etc.
Gerade das dürfte mit einem kleinen i3 auf passendem Intel Board sehr effizient vonstatten gehen (schätze 20-25W Verbrauch).

Mich wundert etwas, dass Intel tatsächlich den 24p "Bug" behoben hat. Das überrascht mich positiv denn auch VA Deinterlacing und 3D geht damit problemlos. Gepaart mit einem ~35W i3 gehts kaum effizienter und besser.

Gerade unter Linux sind die Treiber auch schon weiter als bei der roten Konkurrenz.

Mal sehen was Trinity im Bereich 17-35W bietet.

Edit: dennoch ist der GPU Leistungssprung kleiner als erwartet, eventuell liegt es an der gestiegenen BQ zb bei AF.
 
Zuletzt bearbeitet:
BomberDeluxe schrieb:
Jetzt hör aber auf...
So ein Fanboy Quatsch. Wozu brauchst du denn bitte diese enorme CPU Performance?
...
Die meisten mit einer APU nutzen diese aber sowieso nur als Office Rechner... Aber dazu muss es ja ein leistungsstarker Intel sein... Da nehm ich lieber einen Llano, der genügend CPU Power, aber auch 30% mehr GPU Leistung hat. Wer spielt BF3 denn bitte mit einer iGPU?

Toll. Ich brauche keine Grafikkarte, deswegen nehme ich die schlechtere CPU, weil die die bessere GPU drinnen hat.
Für Office ist ein Pentium G8x0 die Perfekte Lösung. Billig, relativ flott, kaum Stromverbrauch. Für 60€ bekommt man da eine echt gute CPU. Wenn ich mehr Performance brauche, nehme ich den i3. Gleich teuer wie der Llano, aber VIEL schneller.
Und für einen Spielerechner - das einzige Gerät, das mit der Rechenleistung einer GPU was anfangen kann - brauche ich keine APU. Da nehme ich eine CPU + dezidierte Grafikkarte.

Es gibt einfach kein Anwendungsgebiet außer Low-End-Gaming, in der Llano auch nur den Funken von Sinn macht. Für ordentliches Gaming zu langsam, für Office übertrieben, im kompakten HTPC dank idiotischer Leistungsaufnahme unbrauchbar, etc.

mfg
 
die perfekte HTPC CPU dürfte bald ein 35€ Celeron @ ~2,5 - 3 Ghz sein mit HD2500 und vermutlich ~30W Verbrauch auf ITX Intel Board mit Full Boot in <13 Sekunden von SSD und keinen 15 W idle Verbrauch ;)

Ich finde zZ gerade die extrem günstigen DCs interessant, 35€ mit GPU ist echt ne Ansage.

http://www.xbitlabs.com/articles/mainboards/display/mini-itx-lga1155-roundup_12.html#sect0

idlenrjig.jpg


Von daher sind die Verbrauchswerte die bei CB im Test ermittelt werden wenig maßgeblich da die Stärken klar unten heraus liegen vor allem auf Intel Boards.
 
Zuletzt bearbeitet:
Zurück
Oben