News Weitere Details zur Ivy-Bridge-Grafik

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.919
Auf dem derzeit in San Francisco stattfindenden Intel Developer Forum (ComputerBase ist vor Ort) plaudert Intel fleißig über die zukünftige Ivy-Bridge-CPU, die die aktuelle Sandy-Bridge-Generation ablösen wird. Da sich vor allem bei der Grafik einiges getan hat, gibt es diesbezüglich viele neue Details.

Zur News: Weitere Details zur Ivy-Bridge-Grafik
 
Wenns so weitergeht mit dem Lernprozess von Intel am GPU Sektor, könnten sie wohl wirklich mal eine dedizierte Grafikkarte rausbringen die im Spiel von NV und AMD mithalten könnte. Ich muss es zwar nicht sehen, dass Intel noch größer wird aber etwas Konkurrenz schadet nie.
 
Sehe ich ebenso: Früher gab es mehr GPU Schmieden als AMD und nVidia. Ich denke dass etwas Konkurrenz durchaus gut zu bewerten ist. Es ist nicht erforderlich, dass Intel versucht einem der beiden "Player" den Rang abzulaufen, aber ich denke, dass gerade im portablen Sektor viel Energie gespart werden kann. Denn für ein Notebook wünsche ich mir eine GPU mit der ich HD Filme beschleunigen kann und einige Games zum Zeitvertreib spielen kann. Ich denke dieses Profil könnte Intel irgendwann gut erfüllen.

Also ich finds gut! :D
 
Die das verdoppelte Performance/Watt-Verhältnis für die ganze CPU oder nur für die GPU?
 
GuaRdiaN schrieb:
Sehe ich ebenso: Früher gab es mehr GPU Schmieden als AMD und nVidia. Ich denke dass etwas Konkurrenz durchaus gut zu bewerten ist. Es ist nicht erforderlich, dass Intel versucht einem der beiden "Player" den Rang abzulaufen, aber ich denke, dass gerade im portablen Sektor viel Energie gespart werden kann. Denn für ein Notebook wünsche ich mir eine GPU mit der ich HD Filme beschleunigen kann und einige Games zum Zeitvertreib spielen kann. Ich denke dieses Profil könnte Intel irgendwann gut erfüllen.

Also ich finds gut! :D


Nur wird Intel sagen: Kauf die eine (Intel) CPU, dann hast Du eine GPU. Dedizierte Low End GPUs werden zukünftig weniger Sinn machen, weil das Feld die CPUs einnehmen und für Mittelklasse oder High-End GPUs ist Intel noch lange nicht so weit.
 
Kann es kaum erwarten mein neues Notebook mit "Ivy-Bridge" zu holen, noch nutze ich hier eines auf Basis der Santa Rosa Platform mit Core 2 Duo, das jetzt 4 Jahre alt ist.

Ab wann werden denn Notebooks mit "Ivy-Bridge" hierzulande zu kaufen sein?

Gruß,
Fenvarien
 
Ralf555 schrieb:
Nur wird Intel sagen: Kauf die eine (Intel) CPU, dann hast Du eine GPU. Dedizierte Low End GPUs werden zukünftig weniger Sinn machen, weil das Feld die CPUs einnehmen und für Mittelklasse oder High-End GPUs ist Intel noch lange nicht so weit.

Das ist wahr, wobei die FairyKnights wohl der erste Schritt in die Richtung sein könnte, denke ich. Aber gerade für den mobilen Sektor ist das doch wunderbar. So wird der Chipcount reoduziert, und die Geräte werden kleiner / leichter / billiger. Wenn die Grafik in der CPU ist braucht es noch ein bisschen Legacy IO, sowie SATA / HDAudio. Damit hat man dann eigentlich alles. Und dafür ein paar Gates abfallen zu lassen -> Und schon hat man ein X86_64 SoC von Intel. (Also von AMD natürlich dann auch, geht mit der APU ja auch in die Richtung.)

Würds eben begrüßen. Und im High-End Markt haben nV und AMD einfach viel viel mehr Know-How.
 
Zumindestens unter Windows sind die Treiber entscheidend...
 
Klingt schon mal besser als die Nachricht von gestern :P

Ralf555
Ich glaube, da Intel schon sehr leistungsfähig im low end werden wird.
Dadurch AMD mit seinen APUS ebenfalls im Feld zufinden ist, wird der eigentliche Verlierer NV sein, der aber eh schon seit längere Zeit anscheinend kein interesse im low end Bereich zeigt.
Glaube aber dass es in der Zuknunft nur mehr 1 oder 2 Modelle im low end Bereich der Anbieter geben wird und das für solche die noch eine CPU ohne igp haben.
Sonst werden hauptsächlich nur mehr Gamer-Karten zu finden geben.

GuaRdiaN
FairyKnights hat aber mit der igp die in der i -Reihe verbaut wird nichts gemeinsam oder ?
Würde es nicht Begrüßen wenn Intel in den Grafikkarten sektor steigen würde. Ich hab das gefühl dass es den Markt zusammen hauen würde. Momentan liefert sich ja NV und AMD heiße Gefechte und es ist genau so wie es sein sollte. Man arbeitet sehr an der nächsten Generation usw.
Bei Intel würde ich mir vorstellen, dass sie viel über Namen verkaufen könnten, aber wenig in die Entwicklung bringen würden (zumindestens am Anfang) und somit die Entwicklung eher aufhalten.
Kann mich aber mit meinen Vorstellungen natürlich sehr täuschen.
FairyKnights ist aber deshalb interessant, falls man mal Prozessoren verkauft die aus großen und vielen keine cores besteht, wobei die kleinen cores grafiklastige Sachen berechnen können.
 
Zuletzt bearbeitet:
Nein hat sie nicht, es ging mir da gerade nur um die massive parallele Architektur die die Karte hat. Damit ist sie der Struktur einer dedizierten GPU schon recht ähnlich. Aber du hast Recht, es ist keine GPU
 
pipip schrieb:
Bei Intel würde ich mir vorstellen, dass sie viel über Namen verkaufen könnten, aber wenig in die Entwicklung bringen würden (zumindestens am Anfang) und somit die Entwicklung eher aufhalten.
Kann mich aber mit meinen Vorstellungen natürlich sehr täuschen.

Um auch nur annähernd an Nvidia oder AMD ranzukommen, müsste Intel Milliarden in die Forschung stecken, und auch dann würde man noch weit abgeschlagen sein.
Eine CPU und eine GPU sind technisch wirklich fast grundverschieden, in dem Bereich hat Intel noch fast gar keine Erfahrung. Knights Ferry mag zwar ein Schritt in diese Richtung sein, ist aber immernoch eine x86 Plattform.
 
Intel ist doch schon mal mit dedizierten Grafikkarten auf die Schnauze gefallen, auch wenns etwas länger her ist.

Allerdings hat Intel genügend Kohle um die besten Leute von AMD und Nvidia wegzukaufen, Oder hat man Angst vorm Kartellamt?
 
Grundsätzlich sehe ich das genau so, allerdings gibt es dabei ein Problem, wie ich finde: Selbst wenn Technologien existieren sollten, die den Verbrennungsmotor im Auto verdrängen könnten, werden die Mineralölkonzerne alles daran setzten, dass sich das nicht durchsetzt, weil sie sonst einfach kein Sprit mehr an den Fahrer bringen könnten.

Übertragen wir dies einmal: Falls Intel (oder sonstwer) etwas hocheffizientes in der Schublade haben sollten (denn ob die wirklich kein echtes Know How hat, weiß keiner wirklich) bin ich der Ansicht, dass dies den Markt sicher eher inspirieren wird. Man hat den Schwenk von NetBurst zu Core gesehen. Das eine war eine Sackgasse, das andere hatte und hat viel Potenzial. Und die GPUs gehen auch in die Richtung, dass sie mehr und mehr Strom verbrauchen. Da werden immer neue Sparmechanismen implementiert, aber unter Vollast wird es mehr und mehr (im Detail kenne ich die Werte nicht). Und der Trend ist da meiner Meinung nach verhängnisvoll - die Versuchen um vorne zu bleiben einfach einen oben drauf zu setzen. Die Zeit einen neuen Weg zu gehen, das nehmen sie sich beide nicht. Vielleicht würde ein neuer Player in dem Segment einfach den nötigen Paradigmenwechsel bringen. Weil ich kaufe mir keine neue Graka weil mir die Knete fehlt, sondern weil ich meinen Strom selbst zahle.

Ich denke da muss etwas passieren.
 
Fenvarien schrieb:
Kann es kaum erwarten mein neues Notebook mit "Ivy-Bridge" zu holen, noch nutze ich hier eines auf Basis der Santa Rosa Platform mit Core 2 Duo, das jetzt 4 Jahre alt ist.

Ab wann werden denn Notebooks mit "Ivy-Bridge" hierzulande zu kaufen sein?

Gruß,
Fenvarien

Kommt drauf an, die Topmodelle werden wohl gleich nach den Desktop-Prozessoren released werden, der Rest wie immer so etwa 2 Monate später.
 
Ralf555 schrieb:
Nur wird Intel sagen: Kauf die eine (Intel) CPU, dann hast Du eine GPU. Dedizierte Low End GPUs werden zukünftig weniger Sinn machen, weil das Feld die CPUs einnehmen und für Mittelklasse oder High-End GPUs ist Intel noch lange nicht so weit.
Ist doch jetzt schon so, dass Low-End keinen Sinn mehr macht außer in 1% besonderer Fälle. Hier ein Test auf Anandtech:
http://www.anandtech.com/show/4748/sony-vaio-sb-all-day-consumer-computing/4
Die Kombination i5-2410M (mit 2,3GHZ/2,6GHz für 2 Kerne und 2,9GHz für einen Kern) und Radeon HD 6470M wird von Llano A8-3500 überall, außer bei SC2, pulverisiert.

Das einzige wodrauf ich sehnsüchtig warte ist endlich ein gutes Konzept dedizierte Grafik und integrierte Grafik parallel im Desktop nutzen zu können. Da hat weder AMD noch Intel was ordentliches geliefert und das gewurschtel mit Lucid Software gefällt mir auch nicht.

Edit:
Und die GPUs gehen auch in die Richtung, dass sie mehr und mehr Strom verbrauchen.
Dem muss ich widersprechen. Ja, Highend-Lösungen (Dual-GPU) verbrauchen mehr Strom als früher. Aber generell wird Leistung/Watt immer besser und der Wattverbrauch betrachtet in der jeweiligen Klasse bleibt gleich oder nimmt ab. Ein Beispiel:
http://de.wikipedia.org/wiki/ATI-Radeon-HD-2000-Serie Radeon HD 2900 XT hat eine TDP von 215W
http://de.wikipedia.org/wiki/ATI-Radeon-HD-3000-Serie Radeon HD 3870 X2 hat eine TDP von "ca. 200W" (wobei sie im Computerbase Test https://www.computerbase.de/2008-01/test-ati-radeon-hd-3870-x2/28/#abschnitt_leistungsaufnahme 23W über der 2900 XT liegt)
http://de.wikipedia.org/wiki/AMD-Radeon-HD-6000-Serie Radeon HD 6950 hat eine TDP von 200W, die 6970 hat eine TDP von 250W.

Zwischen HD5xxx und HD6xxx gab es Prozessbedingt wenig Änderungen. Aber wenn der nächste Die-Shrink auf 28nm kommt wird das wohl ein vergleichsweise Riesenschritt werden.
 
Zuletzt bearbeitet:
Die GPU-Architektur wurde derart geändert, dass die Leistung für verschiedene Video-Codecs und beim Skalieren von Videos sowie der Nutzung verschiedener Filter verbessert wird

...und hoffentlich werden auch Selbstverständlichkeiten wie das Abspielen von 23,976fps Material ermöglicht sonst können die sich ihre ach so tolle Leistung bei Video-Codecs in die Haare schmieren.
 
Death666Angel schrieb:
Das einzige wodrauf ich sehnsüchtig warte ist endlich ein gutes Konzept dedizierte Grafik und integrierte Grafik parallel im Desktop nutzen zu können. Da hat weder AMD noch Intel was ordentliches geliefert und das gewurschtel mit Lucid Software gefällt mir auch nicht.

Das ist mit XP und Win7 möglich. Einzig Vista erlaubte nur einem Grafiktreiber zur Zeit aktiv zu sein. Das wurde jedoch mit Win7 wieder abgeschafft.
 
@GuaRdiaN
das ist so nicht ganz richtig. Auch GPUs werden immer sparsamer. Parade Beispiel ist der Vergleich von einer ATI 4870 -> 5870. Die 5870 hat ~50% mehr Leistung als die 4870, verbraucht aber ~15% weniger Strom.

Auch bei Nvidia sind die neueren Modelle sparsamer als ihre Vorgänger. Zwar verbrauchen die etwas mehr Energie, dafür leisten die dann auch ne Ecke mehr.

Es ist aber tatsächlich so, das Intel einen gewaltigen Vorsprung hat, was Effizenz anbelangt.
 
Zurück
Oben