Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsVerdoppelt Intel die Shadereinheiten bei „Ivy Bridge“?
Der Nachfolger von Intels kommender CPU-Generation „Sandy Bridge“ heißt „Ivy Bridge“ und soll gegen Ende des nächsten Jahres bereits in die Massenproduktion gehen. Die 22-nm-Chips werden ebenfalls über eine integrierte Grafik verfügen, die laut neuesten Gerüchten doppelt so viele Shader wie „Sandy Bridge“ besitzen soll.
Finde ich persönlich nicht so toll... Wer wirklich 3D-Gaming braucht kauft sich eine Grafikkarte... Die integrierte Grafiklösung war perfekt für alles andere... Bluray usw..
Also mir wird/würde wahrscheinlich immer eine schwache on die GPU reichen.
Aber vielleicht braucht man ja in Zukunft selbst im Office Segment immer mehr Grafikleistung wegen Grafik Hardwarebeschleunigung etc.
Nach meinen eigenen Tests arbeitetet meine CPU aber immernoch stromsparender beim Seitenaufbau im Firefox als meine GPU, deswegen halte ich noch nicht viel davon.
cool ist ja auch nur möglich dank des 22nm sonst würde der stromverbrauch in die höhe gehen^^ bin mal gespannt was dann die neue 22nm noch cpu generation bringt an gpu.
Dann kann man "Hybrid" wirklich realisieren. Zumindest so das es ohne Problem funktioniert, Strom und Wärmeentwicklung würden zurückgehen, schon hat man einen Lüfer weniger.
Im Grafiksegement hat Intel keine chance gegen AMD das wissen beide Firmen wo gegen AMD in den Prozessor bereich an sich sehr gut mithalten kann.
Und Wenn Media-Saturn auch Intel verkaufen würde dann wette ich mit jeden das sich AMD viel besser verkaufen wird weil die Fusion APU's im Bereich wie schon gesagt im Grafiksegment sehr gut sind wenn man sich ein Notebook oder ein Netbook mit Fusion APU holt dann sind die geräte wesentlich schneller vor allem beim Netbook selbst beim Notebook bräuchte man da keine extra grafik, das gute dabei ist das dann die Netbooks und Notebooks für die absolute mehr leistung dafür einen sehr geringen verbrauch hat und bei Notebooks würde mich das nicht wundern wenn man da dann auch mehr Akkulaufzeit hat. ^^
Na ja es bleibt interessant.
Damit dürfte dann auch im Grafikbereich der Spaß für AMD und nVidia vorbei sein (als Vermutung von aktuellen Zahlen ausgehend).
Mich stört allerdings, dass dies nur durch eine massive Erhöhung der Quantität (100 % ^^) der Ausführungseinheiten erreicht wird und nicht weiter an der Grundperformance gearbeitet wird, v.a. auch an den Treibern.
Die IGP schaltet sich bei entsprechender, dedizierter Grafikkarte ab. Damit ist dein "Argument" hinfällig. Nicht jedes Spiel lebt von opulenter Grafik, das ist Trugschluß der Neuzeit.
Ich freue mich auf die potenzielle Möglichkeit, selbst mit einem vermutlich erschwinglichen und von der Akkulaufzeit langlebigen Netbook das ein oder andere Spiel wagen zu können. Das perfekte all-in-one Produkt sozusagen. Klein, leicht und bei guter Effizienz eine gute Arbeitsdauer oder aber bei Wunsch ein wenig Power für 3D Applikationen.
Die Kühlbarkeit sollte ebenfalls einfacher in einem Netbook realsisierbar sein.
Damit dürfte dann auch im Grafikbereich der Spaß für AMD und nVidia vorbei sein (als Vermutung von aktuellen Zahlen ausgehend).
da ich der meinung bin das leistungsfähige IGPs den computer als "gaming platform" stärken könnten (mehr native spiele etc...)
weil ein großer teil der kosten für einen spiele pc liegt eben in grafikkarten
bräuchte man keine grafikkarten mehr um aktuelle spiele zuspielen (wenn auch mit niedrigen grafischen einstellungen) fällt gut 1/3 der kosten weg für einen spiele pc und damit wird der computer als "gaming platform" deutlich attraktiver für leute die weniger geld für die unterhaltung ausgeben möchten/können
Warum seht ihr den GPU-Part immer nur aus Sicht des Gamers?
Ich sehe ihn eher als zusätzliche spezialisierte Einheit(en), so wie damals die FPU (zu 286er/386er Zeiten). On-Die lassen sich viele Optimierungen bezogen auf den Stromverbrauch vornehmen.
Zu den Intel-Grafikkarten-Treibern:
So schlecht sind diese nicht, ich kann jedenfalls das ein oder andere Spiel auf meiner X4500HD zocken. Wenn auch nicht sonderlich performant dafür aber ohne Darstellungsfehler.
Also ich freue mich auf die neuen CPU+GPU/APU-Chips. Das verspricht mir weiterhin ein Notebook mit durchschnittlich 20 Watt Verbrauch. Und wenn ich es möchte kann ich das ein oder andere Spiel sogar noch besser spielen. Auch Numbercrunching oder Videoschnitt würde schneller werden, soweit OpenCL bei intel-Einzug hält. Und das alles ohne dedizierte GPU, welche den Verbrauch über 50 Watt hebt. Also auch ohne Monsterakku oder zu kurze Laufzeit.
Weil es mehr Spieler als "Folder" hier im Forum gibt? GPU Berechnungen in allen Ehren, aber das wird auch noch zu seiner Zeit kommen. Erst mal muss die Software etwas mit 6-8 oder Zwölfkernern anfangen können oder eben mit GPU Decoding. Das ist nicht flächendeckend der Fall. Ob die besagten Shader im Speziellen für bspw. Folding oder für Unterhaltungsanimationen sind, dazu fehlt mir die Kenntnis.
Man kann davon ausgehen, daß die GPU Einheit abgeschaltet werden muß, sollte man eine Grafikkarte laufen lassen wollen. Eine echte Hybridlösung bündelt die Power mehrerer GPU's.
Pelzameise schrieb:
Schwachsinn, das erhöht nur den Stromverbrauch. Niemand brauch eine hohe Leistung in einer IGP, Gamer kaufen Grafikkarten.
Es werden vonwegen Stromverbrauch Software-technisch sowieso schon "Schalter" mit einem jeden neuen Stepping einer CPU und auch GPU gesetzt. Der Rest erledigt der Treiber. Im Endeffekt ändert sich da gar nichts. Das wird auch weiterhin so sein und kann durch die direkte Anbindungung der GPU mit der CPU nur besser werden.
Sephiroth51 schrieb:
Und Wenn Media-Saturn auch Intel verkaufen würde dann wette ich mit jeden das sich AMD viel besser verkaufen...
??? Okay, davon mal abgesehen daß Mediamarkt bisher nur Intel Lösungen verkauft hat, solltest gucken, daß du Dinge verständlich erklärst. Sry, nicht böse sein.
Ycon schrieb:
Damit dürfte dann auch im Grafikbereich der Spaß für AMD und nVidia vorbei sein (als Vermutung von aktuellen Zahlen ausgehend).
Mich stört allerdings, dass dies nur durch eine massive Erhöhung der Quantität (100 % ^^) der Ausführungseinheiten erreicht wird und nicht weiter an der Grundperformance gearbeitet wird, v.a. auch an den Treibern.
Davon mal abgesehen, daß der Kauf von ATI wohl das Beste war was die machen konnten, ist der Zug für die Firma noch lange nicht abgefahren. Im Gegenteil, diese können hoffentlich im nächsten Jahr dank der großen Erfahrung Ihrer Grafikkartensparte dick aufholen.
Sephiroth51 hat Recht
"Im Grafiksegement hat Intel keine chance gegen AMD das wissen beide Firmen..."
Es ist völlig egal wie ein gutes Performace-Verbrauchsverhältnis erreicht wird. Außer natürlich daß für dich emotionale Gründe ausschlaggebend für deine Äußerung waren.
Ergänzung ()
Lycos schrieb:
Unterstützt denn der IGP von Sandy Sandy / Ivy Bridge OpenCL ?
Wenn ich mich richtig erinnere, habe ich gelesen daß Sandy Bridge DX9.0 und IVY Bridge DX10.1 unterstützt. OpenCL kam aber mit 11.0, oder ? *grübel*
Zum Thema:
Lycos hat in meinen Augen das wichtigste überhaupt angesprochen, das Erledigen von Aufgaben auch durch die GPU. Wobei hier natürlich noch fast komplett die Software zu fehlt. Daß Gelegenheits - Gamer hier mit einem Schlag über mehr Performance verfügen ist doch nur ein angenehmer Nebeneffekt. Man sollte mal über den Tellerand hinaus schauen !
Weil es mehr Spieler als "Folder" hier im Forum gibt? GPU Berechnungen in allen Ehren, aber das wird auch noch zu seiner Zeit kommen. Erst mal muss die Software etwas mit 6-8 oder Zwölfkernern anfangen können oder eben mit GPU Decoding. Das ist nicht flächendeckend der Fall. Ob die besagten Shader im Speziellen für bspw. Folding oder für Unterhaltungsanimationen sind, dazu fehlt mir die Kenntnis.
Das war zum Anfang mit der FPU auch nicht anders. Erst mit dem 486DX war diese flächendeckend im PC-Bereich verfügbar. Es gab jedoch bereits zu 286er Zeiten spezielle Programmversionen die die FPU nutzen konnten.
Ähnlich verhält sich das jetzt mit den GPU-Berechnungen. Man kann sie nicht für alles verwenden, aber wenn man sie verwenden kann, dann bringt das mehr Performance/Watt als eine viel allgemeiner gefasste ALU dafür zu verwenden.
Die ganzen Spezialeinheiten (MMX, SSE, AVX) kommen ja nicht von ungefähr. Eine ALU ist halt bei SIMD oder MIMD nicht sonderlich effektiv.
Wenn man nun die Shader soweit integriert das sie auch auf den L2 bzw. L3 zugreifen können, kann man während der Programmausführung halt die Shader ebenso effizient einsetzen wie SSE/AVX etc.. zusätzlich bekäme man die ALUs frei für wichtigere Aufgaben wie die Programmsteuerung.