News Verdoppelt Intel die Shadereinheiten bei „Ivy Bridge“?

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.914
Finde ich persönlich nicht so toll... Wer wirklich 3D-Gaming braucht kauft sich eine Grafikkarte... Die integrierte Grafiklösung war perfekt für alles andere... Bluray usw..
 
Also mir wird/würde wahrscheinlich immer eine schwache on die GPU reichen.
Aber vielleicht braucht man ja in Zukunft selbst im Office Segment immer mehr Grafikleistung wegen Grafik Hardwarebeschleunigung etc.

Nach meinen eigenen Tests arbeitetet meine CPU aber immernoch stromsparender beim Seitenaufbau im Firefox als meine GPU, deswegen halte ich noch nicht viel davon.
 
Die intrigierte Lösung ist in erster Linie für den Notebook Sektor gedacht. Und dort ist es bekanntlich schwer eine Grafikkarte zu verbauen.
 
in der news sind mir einfach zu viele "könnte, hätte, wenn, dann, wäre, gerüchte" drin.
 
cool ist ja auch nur möglich dank des 22nm sonst würde der stromverbrauch in die höhe gehen^^ bin mal gespannt was dann die neue 22nm noch cpu generation bringt an gpu.
 
Dann kann man "Hybrid" wirklich realisieren. Zumindest so das es ohne Problem funktioniert, Strom und Wärmeentwicklung würden zurückgehen, schon hat man einen Lüfer weniger.
 
Schwachsinn, das erhöht nur den Stromverbrauch. Niemand brauch eine hohe Leistung in einer IGP, Gamer kaufen Grafikkarten.

Außerdem ist das ein Gerücht, was denke ich zu 90% nicht stimmt. Ist schließlich noch über ein Jahr, bis dahin ändert sich das eh noch dreimal.
 
So lange Intel nicht sehr intensiv an den Treibern arbeitet, können die so viele Units verbauen wie sie wollen, zu gebrauchen ist es trotzdem nicht.
 
Zuletzt bearbeitet:
Mika911 schrieb:
So lange Intel nicht sehr intensiv an den Treibern arbeitet, können die so viele Units verbauen wie sie wollen, zu gebrauchen ist es trotzdem kaum.

Dafür sind Intel die einzigen, die ordentliche (quelloffene) Linux Treiber hinbekommen :)
 
Im Grafiksegement hat Intel keine chance gegen AMD das wissen beide Firmen wo gegen AMD in den Prozessor bereich an sich sehr gut mithalten kann.
Und Wenn Media-Saturn auch Intel verkaufen würde dann wette ich mit jeden das sich AMD viel besser verkaufen wird weil die Fusion APU's im Bereich wie schon gesagt im Grafiksegment sehr gut sind wenn man sich ein Notebook oder ein Netbook mit Fusion APU holt dann sind die geräte wesentlich schneller vor allem beim Netbook selbst beim Notebook bräuchte man da keine extra grafik, das gute dabei ist das dann die Netbooks und Notebooks für die absolute mehr leistung dafür einen sehr geringen verbrauch hat und bei Notebooks würde mich das nicht wundern wenn man da dann auch mehr Akkulaufzeit hat. ^^
Na ja es bleibt interessant.
 
Damit dürfte dann auch im Grafikbereich der Spaß für AMD und nVidia vorbei sein (als Vermutung von aktuellen Zahlen ausgehend).
Mich stört allerdings, dass dies nur durch eine massive Erhöhung der Quantität (100 % ^^) der Ausführungseinheiten erreicht wird und nicht weiter an der Grundperformance gearbeitet wird, v.a. auch an den Treibern.
 
Pelzameise schrieb:
Schwachsinn, das erhöht nur den Stromverbrauch. Niemand brauch eine hohe Leistung in einer IGP, Gamer kaufen Grafikkarten.
Die IGP schaltet sich bei entsprechender, dedizierter Grafikkarte ab. Damit ist dein "Argument" hinfällig. Nicht jedes Spiel lebt von opulenter Grafik, das ist Trugschluß der Neuzeit.

Ich freue mich auf die potenzielle Möglichkeit, selbst mit einem vermutlich erschwinglichen und von der Akkulaufzeit langlebigen Netbook das ein oder andere Spiel wagen zu können. Das perfekte all-in-one Produkt sozusagen. Klein, leicht und bei guter Effizienz eine gute Arbeitsdauer oder aber bei Wunsch ein wenig Power für 3D Applikationen.
Die Kühlbarkeit sollte ebenfalls einfacher in einem Netbook realsisierbar sein.

Damit dürfte dann auch im Grafikbereich der Spaß für AMD und nVidia vorbei sein (als Vermutung von aktuellen Zahlen ausgehend).
Wieso, AMD hat doch Fusion.
 
find ich gut

da ich der meinung bin das leistungsfähige IGPs den computer als "gaming platform" stärken könnten (mehr native spiele etc...)

weil ein großer teil der kosten für einen spiele pc liegt eben in grafikkarten

bräuchte man keine grafikkarten mehr um aktuelle spiele zuspielen (wenn auch mit niedrigen grafischen einstellungen) fällt gut 1/3 der kosten weg für einen spiele pc und damit wird der computer als "gaming platform" deutlich attraktiver für leute die weniger geld für die unterhaltung ausgeben möchten/können
 
Warum seht ihr den GPU-Part immer nur aus Sicht des Gamers?
Ich sehe ihn eher als zusätzliche spezialisierte Einheit(en), so wie damals die FPU (zu 286er/386er Zeiten). On-Die lassen sich viele Optimierungen bezogen auf den Stromverbrauch vornehmen.

Zu den Intel-Grafikkarten-Treibern:
So schlecht sind diese nicht, ich kann jedenfalls das ein oder andere Spiel auf meiner X4500HD zocken. Wenn auch nicht sonderlich performant dafür aber ohne Darstellungsfehler.

Also ich freue mich auf die neuen CPU+GPU/APU-Chips. Das verspricht mir weiterhin ein Notebook mit durchschnittlich 20 Watt Verbrauch. Und wenn ich es möchte kann ich das ein oder andere Spiel sogar noch besser spielen. Auch Numbercrunching oder Videoschnitt würde schneller werden, soweit OpenCL bei intel-Einzug hält. Und das alles ohne dedizierte GPU, welche den Verbrauch über 50 Watt hebt. Also auch ohne Monsterakku oder zu kurze Laufzeit.
 
derNetZwerg schrieb:
Warum seht ihr den GPU-Part immer nur aus Sicht des Gamers?
Weil es mehr Spieler als "Folder" hier im Forum gibt? GPU Berechnungen in allen Ehren, aber das wird auch noch zu seiner Zeit kommen. Erst mal muss die Software etwas mit 6-8 oder Zwölfkernern anfangen können oder eben mit GPU Decoding. Das ist nicht flächendeckend der Fall. Ob die besagten Shader im Speziellen für bspw. Folding oder für Unterhaltungsanimationen sind, dazu fehlt mir die Kenntnis.
 
Boar, was für Kommentare ! :D

C4pSeX schrieb:
Dann kann man "Hybrid" wirklich realisieren.

Man kann davon ausgehen, daß die GPU Einheit abgeschaltet werden muß, sollte man eine Grafikkarte laufen lassen wollen. Eine echte Hybridlösung bündelt die Power mehrerer GPU's.

Pelzameise schrieb:
Schwachsinn, das erhöht nur den Stromverbrauch. Niemand brauch eine hohe Leistung in einer IGP, Gamer kaufen Grafikkarten.

Es werden vonwegen Stromverbrauch Software-technisch sowieso schon "Schalter" mit einem jeden neuen Stepping einer CPU und auch GPU gesetzt. Der Rest erledigt der Treiber. Im Endeffekt ändert sich da gar nichts. Das wird auch weiterhin so sein und kann durch die direkte Anbindungung der GPU mit der CPU nur besser werden. ;)

Sephiroth51 schrieb:
Und Wenn Media-Saturn auch Intel verkaufen würde dann wette ich mit jeden das sich AMD viel besser verkaufen...

??? Okay, davon mal abgesehen daß Mediamarkt bisher nur Intel Lösungen verkauft hat, solltest gucken, daß du Dinge verständlich erklärst. Sry, nicht böse sein. ;)

Ycon schrieb:
Damit dürfte dann auch im Grafikbereich der Spaß für AMD und nVidia vorbei sein (als Vermutung von aktuellen Zahlen ausgehend).
Mich stört allerdings, dass dies nur durch eine massive Erhöhung der Quantität (100 % ^^) der Ausführungseinheiten erreicht wird und nicht weiter an der Grundperformance gearbeitet wird, v.a. auch an den Treibern.

Davon mal abgesehen, daß der Kauf von ATI wohl das Beste war was die machen konnten, ist der Zug für die Firma noch lange nicht abgefahren. Im Gegenteil, diese können hoffentlich im nächsten Jahr dank der großen Erfahrung Ihrer Grafikkartensparte dick aufholen.

Sephiroth51 hat Recht
"Im Grafiksegement hat Intel keine chance gegen AMD das wissen beide Firmen..."

Es ist völlig egal wie ein gutes Performace-Verbrauchsverhältnis erreicht wird. Außer natürlich daß für dich emotionale Gründe ausschlaggebend für deine Äußerung waren. :D
Ergänzung ()

Lycos schrieb:
Unterstützt denn der IGP von Sandy Sandy / Ivy Bridge OpenCL ?


Wenn ich mich richtig erinnere, habe ich gelesen daß Sandy Bridge DX9.0 und IVY Bridge DX10.1 unterstützt. OpenCL kam aber mit 11.0, oder ? *grübel*



Zum Thema:

Lycos hat in meinen Augen das wichtigste überhaupt angesprochen, das Erledigen von Aufgaben auch durch die GPU. Wobei hier natürlich noch fast komplett die Software zu fehlt. Daß Gelegenheits - Gamer hier mit einem Schlag über mehr Performance verfügen ist doch nur ein angenehmer Nebeneffekt. Man sollte mal über den Tellerand hinaus schauen !
 
Zuletzt bearbeitet:
Ich dachte Ivy´s Grafik könne D3D11....stehe ich jetzt auf´m Schlauch???
 
Zwirbelkatz schrieb:
Weil es mehr Spieler als "Folder" hier im Forum gibt? GPU Berechnungen in allen Ehren, aber das wird auch noch zu seiner Zeit kommen. Erst mal muss die Software etwas mit 6-8 oder Zwölfkernern anfangen können oder eben mit GPU Decoding. Das ist nicht flächendeckend der Fall. Ob die besagten Shader im Speziellen für bspw. Folding oder für Unterhaltungsanimationen sind, dazu fehlt mir die Kenntnis.

Das war zum Anfang mit der FPU auch nicht anders. Erst mit dem 486DX war diese flächendeckend im PC-Bereich verfügbar. Es gab jedoch bereits zu 286er Zeiten spezielle Programmversionen die die FPU nutzen konnten.
Ähnlich verhält sich das jetzt mit den GPU-Berechnungen. Man kann sie nicht für alles verwenden, aber wenn man sie verwenden kann, dann bringt das mehr Performance/Watt als eine viel allgemeiner gefasste ALU dafür zu verwenden.
Die ganzen Spezialeinheiten (MMX, SSE, AVX) kommen ja nicht von ungefähr. Eine ALU ist halt bei SIMD oder MIMD nicht sonderlich effektiv.

Wenn man nun die Shader soweit integriert das sie auch auf den L2 bzw. L3 zugreifen können, kann man während der Programmausführung halt die Shader ebenso effizient einsetzen wie SSE/AVX etc.. zusätzlich bekäme man die ALUs frei für wichtigere Aufgaben wie die Programmsteuerung.
 
Zurück
Oben