News Intel: Eigene diskrete Grafikchips kommen

@ 18) katanaseiko
Weißt du wie groß die Kristall-Gitterstruktur ist? oder meinst du, dass wenn es heißt 45nm dann halbieren sie einen Atom des Kristalls, das die Gitterstruktur am Rande nicht mehr erhalten bleibt? Oder wie ist dein Denkansatz bei deiner Frage? 45nm Fertigung heißt nicht unbedingt, dass da etwas auf 45,000nm begrenzt wird. Es könnte ja auch so was wie 45,1345 oder 44,9859 stehen! Dann passt es auch zur Gitterstruktur ;-) Man rundet bloß die Kommazahlen bei der Angabe. Von Messfehlern und Fertigunsungenaugkeit will ich erst gar nicht anfangen zu reden.
 
hört sich doch vielversprechend an :)

@9
das macht doch auch keiner
ok, amd, aber dafür haben die ja auch die quittung bekommen
 
Naja Intel sollte nicht versuchen sich mit denen an zu legen....Intel hat das Zeug zum übertrumphen..ja keine frage. Aber wie das auf die Dauer aussieht weiss auch kein Mensch!
 
Das wurde aber auch langsam mal Zeit, und so dürfte es auf jeden Fall günstiger werden, als der 5,4-Millarden-Impulskauf ATi oder eine eventuelle Übernahme von nVidia. Man muss allerdings ob der Vergangenheit die Einschränkung erwähnen, dass Intel es diesmal auch wirklich durchziehen sollte.

Für mich ist es dann nur eine Frage von 2, maximal 3 Jahren, dass Intel auch die Leistungsspitze bei GPUs übernimmt. Dazu muss man sich eigentlich nur die verfügbaren Herstellungsressourcen anschauen und mit denen von nVidia und AMD vergleichen.

Bessere Prozesstechnologie übersetzt sich im GPU-Bereich direkt in -bei gleicher Leistung - kleinere Chipgrößen (gut für die Margen) oder -bei gleicher Chipgröße- mehr Rechenwerke (gut für die Leistung). Wenn die VCG dann auch noch von den MPU-Kollegen Hilfe im IC-Design bekommt, und entsprechend höher taktende Einheiten verwenden kann, wird sich speziell nVidia ganz schnell nach einem Rettungsring umschauen müssen.
 
Und nächste Woche haben wir dann die News, dass nVidia CPU herstellen wird. Vielleicht kommen dann mal durch Intel auch stromsparende und leistungsfähige GPU auf den Markt.

Wobe das "Dualcore" und co. Karten auf den Markt kommen halte ich dann eher für "komisch". nVidia hat doch einen netten Ansatz mit seinen einfachen freiprogrammierbaren Einheiten. Da wird man hinterher nicht Programme für eine oder zwei oder x GPU schreiben sondern optimiert die auf eine gewisse Anzahl an Recheneinheiten. Der Ansatz geht eh dahin, dass man die richtige Hardware vor den Programmen versteckt, damit die Entwicklung einfacher wird. Dann steht vielleicht Quad Double Sli für den User drauf (der ist ja durch Intel und AMD darauf geprägt Multicore zu lieben) und für den Entwickler bedeutet das einfach, das er die vierfache/x-fache Menge an Recheneinheiten zur Verfügung hat.
 
Zuletzt bearbeitet:
Bei nVidia ist halt die Frage, ob (wie?) sie den Rückstand gegenüber Intel und -zu einem geringeren Anteil- AMD in der Fertigungstechnologie aufholen können.

Ich persönlich halte nVidia allein für zu klein, um das langfristig zu überstehen. Aber vielleicht können sie sich ja wie AMD bei der IBM-Litho-Allianz einkaufen und ein eigenens Werk auf die Beine stellen.
 
@ cylord
Na ja... Fakt ist, dass AMD Intel nun schon seit acht Monaten in sämtlichen Preisklassen (außer halt ganz low-cost, unter 100 euro) nichts entgegen zu setzen hat. ich denke schon, dass man sich da viel zu sicher gefühlt hat bei amd. ich denke, dass intel amd so übertrumpft haben die wenigsten vor 1.5 jahren gedacht..

@ topic

Hm.. ma schaun was da drauß wird. ich seh nvidia die nächsten jahre allerdings noch nicht gefährdet. vllt kommts ma soweit, aber nicht heut oder morgen. ich denke nicht, dass direkt die erste generation intel gpus total der überflieger ist. aber längerfristig kann das schon was werden!
 
Multi-GPU?? Die könnten ja glatt, nVidia/ATI konkurenz machen
 
Soweit ich weis bietet Intel sowieso integrierte Grafikchips an.
Wird wohl am Ende darauf hinauslaufen dass es nur noch Intel gegen AMD heißt.
Wobei man sich wie früher dann zwischen zwei Plattformen entscheiden muss, ähnlich wie MAC und PC wird man dann vielleicht AMD oder INTEL System kaufen müssen.
Denn beide bieten chipsätze, und prozessoren an. Wenn beide nun auch Grafikchips anbieten können dann ist der nächste Schritt Intel gegen AMD, der, seine Produkte gegen die Konkurenz nicht lauffähig zu machen. Bei den Chipsätzen (was sowieso logisch ist) haben wir es ja schon immer so.
Und wenn man sich schon bei Motherboardkauf entscheiden muss ob Intel oder AMD System, warum dann nicht auch beim Grafikchip??
 
kisser schrieb:
Der Chip hiess i740 und war seinerzeit (1998) absolut konkurrenzfaehig zu Riva128, Voodoo1, ...

@ kisser:

Nein, ich meine wirklich den i750, Nachfolger des i740.
Und der i750 war nicht mehr konkurenzfähig. Und der i740 ist mehr der Konkurenz hinterhergelaufen, war also sicher absolut nicht konkurenzfähig zur voodoo1 oder Riva128.
 
Duskolo schrieb:
[...]
Und wenn man sich schon bei Motherboardkauf entscheiden muss ob Intel oder AMD System, warum dann nicht auch beim Grafikchip??

Jetzt ist es schon so, dass man sich beim Motherboardkauf für Nvidia oder ATI entscheiden muss, wenn man sich ein Crossfiresystem oder SLI System aufbauen will, da es keine Chipsätze gibt, die beides unterstützen.
Aber gut. :-) Ich kaufe mir eh kein SLI oder Crossfiresystem, von daher bin ich erst mal von dieser Einschränkung nicht betroffen.

HereticNovalis schrieb:
[...]
@9
das macht doch auch keiner
ok, amd, aber dafür haben die ja auch die quittung bekommen

AMD hat sich nicht auf den Lorbeeren ausgeruht. AMD hat versucht möglichst viel Gewinn aus den Lorbeeren herauszuhohlen um seine Kapazitäten zu erhöhen. (und sich was dazu zu kaufen->ATI)
 
Zuletzt bearbeitet:
@32:

Der Nachfolger des i740 war der i752, der aber nicht mehr auf Grafikkarten zum Einsatz kam (er ist aber z.B im i810 Chipsatz integriert).
Der i740 liegt leistungsmaessig auf einer Stufe mit Riva128 und V1, er kam aber spaeter als diese (Anfang 1998) und kurz danach kamen schon V2 und RivaTNT, gegen die hatte er (wie auch der i752) leistungsmaessig keine Chance mehr.

/edit: Wikipedia gibt mir recht.;)

http://de.wikipedia.org/wiki/I752
 
Man wird sehen, was drauf wird - im Moment kann ich mir kein Bild mit einer "CPGPU" machen.

Übrigends wird der Plural einer Abkürzung nicht mit einem "s" versehen - es heißt also eine 'Central Processing Unit' (CPU) oder zwei 'Central Processing Units' (CPU).

Ich wüsste nicht, dass man "Units" mit "Us" abkürzt!
 
nachdem aero glass mit auf dem gma950 angeblich gut läuft versteh ich intels anstrengungen nicht. prestige vlt? eine bessere grafik "braucht" deren portfolio eigentlich nicht (obwohl sie - imo nat. - eine wenigstens rudimentär spielefähige grafik gebrauchen könnten).
 
@ 35) RubyRhod
Klugscheißer?
Wenn du schon schreibst wie man es nicht machen sollte, dann solltest du wenigstens hinschreiben wie man es machen sollte! Sonnst verunsicherst du die Leute doch nur.
Übrigens hört sich "Ich habe mir zwei CPU angeschaut." irgendwie ungewohnt an. Die neue Rechtschreibung wird es schon richten. Zwei CPUs sind schließlich besser als eine :-)
Oder sollen wir deiner Meinung nach anstatt "CPUs" lieber "Prozessoren" schreiben? Wenn hier jemand anstatt "Grafikkarte" lieber "Graka" hinschreibt, regt sich auch niemand auf, dass "Graka" nicht im Lexikon steht.
 
Zuletzt bearbeitet:
@33
Ja bei Crossfire oder SLI muss man sich schon entscheiden. Aber das betrifft eher einige wenige prozent der User.
Aber du hast recht, der Trend geht schon in diese Richtung, AMD'S kauf von ATI und Intels eigende GPU Entwicklung wird diese Tendenz sicher verstärken. Ich hoffe blos, dass sich das nicht auch auf Software niederschlägt, ähnlich wie bei Apple gegen PC.
 
Ich würde Intel schon zutrauen, dass Sie vom Knowhow anschließen könnten. Es ist ja durch die internen Grafikkarteneinheiten nicht so, dass Intel von vorne beginnen müsste.

Der X3000 des 965 Chipssatzes - ob nun gut oder nicht - ist ja dahingehend modern, dass er Shader und Pipelines hat und mit neuen Treibern SM4 können soll. Die aktuell schlechte Performance des X3000 auf Basis der Papierdaten führe ich eher auf die aktuellen Treiber zurück.

Mal sehen was kommt - interessant wird es sicher werden (und hoffentlich verschwindet dadurch nicht nVidia)
 
man muss sich der konkurenz stellen oder man geht unter
 
Zurück
Oben