News Intels Broadwell-GPU mit vielen Verbesserungen

hört sich zwar nett an aber 1,5 Jahre ist eine halbe Ewigkeit...
 
Ich denke du hast das falsch verstanden.

Ende diesen Jahres (2014) oder dann 2015 wobei letzteres wahrscheinlicher sein mag...
 
Intel frisst sich an dem GPU leiter wieder ein Stückchen nach oben. ^^
 
Und kein Wort über die CPU Leistung das sagt alles ^^
 
Evtl. Sollten sie anstatt dir Ausführungseinheiten hochzuschrauben überlegen eine bessere Architektur zu entwickeln. GCN ist weiterhin die bessere Architektur
 
Die GPU Leistung ist uninteressant,da die integrierte GPU nur zu EInsatz kommt, wenn meine Nvidia Grafikkarte abraucht.
 
Endlich integrieren sie Kantenglättung, das Arbeiten in CAD Software macht mir kaum Spaß, jetzt gibt es immerhin 2-fache...
 
@Toms

Bei Nvidia und AMD wird die Zahl der Ausführungseinheiten nicht erhöht, um eine höhere Leistung zu erzielen? Das ist bei GPUs und deren Skalierbarkeit der normale Weg. Und der Test zur Iris Pro hier auf CB zeigt jedenfalls nicht, dass es sich um eine wesentlich schlechtere Architektur handelt. Am ehesten besteht beim Treiber noch viel Potential.

@Knuddelbearli

Was soll man da auch sagen... es ist weiterhin die Haswell Architektur.
 
Mehr ist von einem Shrink eigentlich auch nicht zu erwarten. Wobei ich mich Frage, ob Intel seinen Tick-Tock Zyklus noch lange weiterführen will / kann.
 
Höhere Grafikkartenpower wäre natürlich wünschenswert, nicht unbedingt für den Desktopmarkt, da ja hier sowies auf eine dedizierte Karte zurückgeriffen wird, falls mehr Power (v.a. beim gaming) benötigt wird, oder sonst halt auf eine APU. Die Leistung ist ja nach wie vor mehr als ausreichend für Office arbeiten.

Wo die Power wirklich wünschenswert und vieles verändern kann ist im Mobile Sektor (Tablet + Notebook). Wenn es Intel natürlich schafft eine Grafikkarte für Mobile CPUs zu verwenden, die von der Leistung her auf die AMD und NVidia Mobilekarten aufschliessen kann, würden AMD und NVidia sicher darunter leiden, allerdings ist zu erwarten, dass Notebooks mit Grafikpower erschwinglicher werden, weil ja nicht mehr zwingend eine seperate Karte verbaut werden muss... Scheint mir vor allem in Hinsicht auf die zukünftigen Surface Pro Systeme sehr interessant. Das 3 pro wird allerdings wohl nicht mehr davon profitieren können, allerdings ist ja auch dort mit Iris Pro evtl. etwas zu erwarten, aber wenn sie auf das 4er hin etwas leisten könnten, wäre Intel auch in diesem Bereich kaum mehr zu bremsen... Und Microsoft hätte auch gleich andere Bedürfnisse gestillt und die Verkaufszahlen könnten wirklich ansteigen.

Nun, was die Zukunft auch bringt, ich bin zuversichtlich :D
 
Ach die sollen mal lieber optional die i5/i7 Prozzis ohne iGPU rausbringen. Wer sich solche holt hat in 90% der Fälle doch sowieso schon eine dedizierte Grafikeinheit und billiger wird das Ganze dann auch noch. Die Xeons sind ja eigtl. eh nicht für Privatanwender gedacht, warum dann nicht diese letzte Marktlücke schließen :confused_alt:
 
Das weitaus Wichtigste wäre neben der reinen iGPU-Leistung mal eine Funktion zum manuellen bzw. zusätzlich automatisierten Wechsel zwischen iGPU und dedizierter GPU. Daran sollte doch im Sinne des Kunden als Erstes gedacht werden, m.E.
 
calluna schrieb:
@Toms

Bei Nvidia und AMD wird die Zahl der Ausführungseinheiten nicht erhöht, um eine höhere Leistung zu erzielen? Das ist bei GPUs und deren Skalierbarkeit der normale Weg. Und der Test zur Iris Pro hier auf CB zeigt jedenfalls nicht, dass es sich um eine wesentlich schlechtere Architektur handelt. Am ehesten besteht beim Treiber noch viel Potential.

Nein bei AMD war nie was von VLIW5,4 GCN zu hören und bei NV war nie was von Fermi, Kepler, Maxwell und Co zu lesen. Nur von Intel hört man ständig etwas von einer neuen GPU Architektur.
Und AMD hat immer die Shader erhöht, sodass Capre Vedre weniger Shader als sein Vorgänger hatte aber mit etwas mehr Takt trotzdem schneller war.

Btw, die Iris Pro verbraucht ja im Vergleich zu AMD und NV gar keinen Platz. Deshalb ist es ja kein Problem einfach die GPU noch fetter zu machen und noch mehr Takt anzulegen, immerhin hat man dann ja 14 nm und die Konkurrenz nur 28nm.
 
Euathlus schrieb:
Mich würde interessieren, ob der Quicksync Encoder auch qualitativ besser wird und nicht nur schneller. Schneller kann jeder.

Das Problem an der Geschichte ist:

das Ergebnis wird anhand der Software bestimmt.

Bei Tomshardware gabs vor Ur-Zeiten mal ein Vergleich zwischen CUDA/Quicksync und jede Software führte zu anderen Ergebnissen
(was innerhalb unterschiedlicher Versionsnummern vorkommen kann).

Von daher ist die Qualität der Videos leider nicht so leicht zu bestimmen.

Link:
http://www.tomshardware.de/video-tr...a-intel-quicksync,testberichte-240740-10.html

Aber schon klar was Du meinst, bessere Qualität ist immer gut :)

Das einzige was mich bei Quicksync wirklich beeindruckt hatte war der sehr niedrige Stromverbrauch während der Umwandlung.
 
Zuletzt bearbeitet:
Simanova schrieb:
Die GPU Leistung ist uninteressant,da die integrierte GPU nur zu EInsatz kommt, wenn meine Nvidia Grafikkarte abraucht.
Warte mal auf DirectX 12. Als die Entwickler der Schnittstelle danach gefragt wurden, ob man mit DX12 in Zukunft auch mehrere Grafikchips wie zum Beispiel dedizierte GPUs und integrierte GPUs gleichzeitig nutzen können werde, so hat der Typ von MS geantwortet, dass man diese Möglichkeit definitiv in Betracht ziehe.
Eventuell wird es also demnächst möglich sein, dass Spieleentwickler beide GPUs nutzen können. Es wäre schön, wenn MS das hinkriegen würde, dann lägen die internen GPUs bei vielen wenigstens nicht einfach nur so brach herum, sondern hätten tatsächlich etwas zu tun.
 
Zurück
Oben