News Weitere Details zu Intels „Broadwell“-CPUs

Vergleiche Iris 5100 (bis zu 1,2 GHz) und Iris Pro 5200 (bis zu 1,3 GHz): Beide 40 EUs, Unterschied nur EDRAM und Takt. Im Mittel bei 3DM Fire Strike (GPU-limitiert) liegen die Punkte im Mittel bei 948 vs 1536. Selbst unter der Annahme, dass die 5100 in den 28W-SKUs nicht durchgehen die 1,2 GHz hält - sondern nur 1,0 GHz als Beispiel - dann fehlen immer noch 20 % zur 5200. Der EDRAM bringt also ziemlich viel.

http://www.notebookcheck.com/Intel-Iris-Graphics-5100.91974.0.html
http://www.notebookcheck.com/Intel-Iris-Pro-Graphics-5200.90972.0.html
 
und dann sollte man die 2 gpu´s mit de selben ram testen,
Iris 5100- nutzt bei NBC-1333er
5200 pro- nutzt bei NBC-1600er

damit ist die 5200 maximal 15% schneller, dafür kostet der edram nur schlappe 200euro(für den Käufer)
im vergleich: eine gtx650m/hd8750m kostet den Käufer als gesamtes=65-80euro
 
Technische Zahlenspiele täuschen manchmal über die praktische Anwendung:

Die Notebook i7-4750-CPU mit Edram + IrisPro 5200 arbeitet im CPU-Computing / transcodieren
schneller als mein Desktop mit Xeon-E1245 mit der IGPU P3000 oder der AMD 7750 oder der GT 640.
Ebenfalls schneller als mein Notebook-CPU-2630 mit GTX 460M
Ich bezweifle das eine potentere Grafikkarte hier die IrisPro schlagen kann, vielleicht die GTX 870M?
Dann aber mit viel Energieaufwand, Lüfteraktivität, grossem Netzteil etc...

Ich warte auf die neue i7-4700 mit Edram und IrisPro, vielleicht etwas höher getaktet bei weniger Stromverbrauch...
2014 wird super....
 
Elkinator schrieb:
naja, wohl wieder zum größten teil nur durch mehr EUs, wenn die anderen fertiger aufgeholt haben wird sich intel mal etwas neues überlegen müßen.
Ach, und was haben Nvidia und AMD seit den jeweiligen Umstellungen auf GCN bzw. Unified Shader die letzten Jahre gemacht?

Außer stetig die Anzahl der EUs (und nebenbei bemerkt auch dem Stromverbrauch) erhöhen ist in letzter Zeit auch nicht viel gegangen, der heilige Gral liegt auch dort noch im Sand vergraben.
 
das mit dem stromverbrauch ist wieder mal der typische blödsinn den man hier immer zu lesen bekommt...
 
Blödsinn?

Dann hast du sicherlich eine Erklärung dafür, dass vor nicht allzu langer Zeit selbst die Top-Modelle ohne zusätzliche Stromstecker und Single-Slot-Kühler betrieben werden konnten.

Die letzten 4-5 Jahre hat beinahe jede Generation neue Rekorde aus der Steckdose gezogen. Ein spürbarer Teil der Mehrleistung wird/wurde schlicht und ergreifend über mehr Energieverbrauch "erkauft", das lässt sich nun einmal kaum von der Hand weisen.

Natürlich war das davor auch schon der Fall, mittlerweile nimmt das Geschehen aber teils schon abstruse Züge an.
 
weil man ja auch die oberste leistungsklasse für einen geringen anteil der nutzer da berücksichtigen muß...
die standardkarten für den normalnutzer haben heute einen vergleichbaren verbrauch wie früher.

und was vielleicht vor 10 jahren war ist egal, damals haben CPUs auch weniger energie verbraucht.
 
Standardkarten (was auch immer du darunter verstehst) benötigen seit Jahren mehr Energie, seit etwa 2008 brauchen Mittelklasse-Modelle einen 6P-Stecker, da sie mehr als 75W schlucken. Vor zehn Jahren waren Prozessoren wie der Pentium 4 HT 2,8C aktuell - der kommt auf 70W ohne iGPU. AMDs Athlon 64 3000+ (Clawhammer) wurde gar mit 89W spezifiziert.
 
Simon schrieb:
Die letzten 4-5 Jahre hat beinahe jede Generation neue Rekorde aus der Steckdose gezogen. Ein spürbarer Teil der Mehrleistung wird/wurde schlicht und ergreifend über mehr Energieverbrauch "erkauft", das lässt sich nun einmal kaum von der Hand weisen.

Beim Vergleich der technischen Daten meiner 4670 (Herbst 2008) mit einer R7 250 ( http://www.hwcompare.com/15430/radeon-hd-4670-1gb-vs-radeon-r7-250/ )komme ich zu einem anderen Schluß.
 
Simon bezieht sich vermutlich eher auf High-End-Modelle, denn im Mid-Range-Segment erhält man mehr Leistung bei grob stagnierendem Stromverbrauch.
 
Zurück
Oben