News Larrabee: Fakten zur Intel Highend-Grafikkarte

ChilliConCarne schrieb:
bla bla.. ich weiß genau so viel wie der über mir bla bla

da sitzt wohl noch jemand auf einem hohen Ross mh?

Und hey.. leider hat dein Vorredner zum Teil recht.. was glaubst du warum die Benzinpreise nicht fallen sondern immer weiter stigen obwohl es doch einige Unternehmen gibt auf dem Markt - genau, die Kunden kaufen es trotzdem ; )... Oligopol.. Monopol.. alles egal solang es genug Leute gibt, die jeden Preis zahlen, weil sie es entweder müssen oder weil es ihnen egal ist was sie zahlen.

back 2 Topic:

Ich bin mal gespannt ob Intel das Projekt wirklich bis zum ende durchzieht, es gab ja schon immer mal welche die behauptet haben ihr neuer Grafikchip wird so gut wie die nächste / ü. nächste Generation der Konkurrenz.. und mir fällt grad nichtmal mehr der Name von der letzten Karte ein *g*.
 
Ich bin mal gespannt ob Intel das Projekt wirklich bis zum ende durchzieht, es gab ja schon immer mal welche die behauptet haben ihr neuer Grafikchip wird so gut wie die nächste / ü. nächste Generation der Konkurrenz.. und mir fällt grad nichtmal mehr der Name von der letzten Karte ein *g*.

naja intel hat wohl etwas "angst" vor der brachialen rechenleistung aktueller grafikchips, deren leistung man als GPGPU kanalisieren kann! somit werden "grafikkarten" in den nächsten jahren immer mehr als co-prozessor brauchbar, gerade auch im server und wissenschaftsbereich. wenn intel also nicht langfristig von "multi-funktions-grafikkarten" abgehängt werden will, muss man halt auch auf den zug aufspringen.

ist jetzt natürlich alles etwas überspitzt formuliert ;)
 
Besonders interessant an dieser News finde ich mal wieder, wie beeindruckend es ist zu sehen,
was uns im Bereich der Computer bzw. Personal Computer noch alles so vor der Haustür steht.
Es ist immer wieder schön, wie man sich mit Technik die Zukunft ausmalen kann.
Ich freue mich auf die Vorstellung neuer Produkte. :)
 
ich glaub kaum, dass intel in den nächsten jahren ein ernstzunehmender konkurrenz wird, wenns wirklich um grafik-rendering in aktuellen spielen geht. da fehlt ihnen einfach der ganze schnickschnack und die speziellen optimierung usw.
der larrabee ist meiner meinung nach eindeutig auf die verwendung als gpgpu ausgelegt, da wird er dann aber wohl so richtig einschlagen.
 
NeoXpert schrieb:
da sitzt wohl noch jemand auf einem hohen Ross mh?
ChilliConCarne schrieb:
Eines vorweg: ich bin einer von denen die keine Ahnung haben. BWL interessiert mich nicht.

Du kennst diesen Spruch mit "lesen" und "klarem Vorteil"?
Und dann zähle mir noch bitte die Stellen auf bei denen ich ernsthaft[/b]
über das Denkvermögen aller anderen hergezogen bin.

NeoXpert schrieb:
Dennoch kommen selbst mir als Laie einige Rätsel auf, bei deinem beleidigendem Post.
Das hätte dir zumindest als Kernaussage auffallen sollen. Das gefolgt von Gegenbeispielen zu einer Aussage, mit einer guten Portion Ironie dahinter. Du verstehst? Das hat rein gar nichts mit einem "hohen Ross" zu tun.
Falls einer meiner erbrachten "Gegenerlebnisse" falsch sein sollten, dann sag es bitte.

----------------------------------------------

Zu deiner Ölargumentation:
Du spichst vom Boykott der Nutzung fossiler Brennstoffe. Ok. Jetzt möchte ich sehen wie du einem Speditionsunternehmen erklärst nicht mehr zu tanken. Die Ölpreise könnten ja daraufhin runter gehen.
Auf was du hinaus zielst ist ja letztendlich das Angebot-Nachfrage Prinzip. Aber angenommen so ein Boykott wäre erfolgreich und die Preise sinken... es würde damit irgendwann wieder zu einem höheren Ölverbrauch kommen und die Preise pendeln sich wieder ein.
Ohnehin denke ich, dass in so einem Falle die OPEC (und nicht irgendwelche "Unternehmen") hier an der Preisschraube drehen würde und bei einem geringerem Ölabsatz einfach die Förderung zurückfährt, sodass sich der Preis wieder da einpendelt wo die es haben wollen.

In meinen Augen ist es irgendwie viel zu einfach dahergesagt zu behaupten etwas einfach zu boykottieren trotz mangelnder Alternativen. Das wäre sehr schön wenn das so "einfach" ginge.
 
kisser schrieb:
Pure Spekulation, ich denke nicht, daß man Grafikcores in CPUs integrieren wird, alleine schon wegen der immens hohen Transistorzahl der Grafikcores.
AMDs Fusion z.B. ist nichts anderes. Bei Intel kommt diese Technologie Ende 2008, bei AMD in 2009. Das ist auch mit ein Hauptgrund, warum Grafikcore so modular entwickelt werden in Zukunft (R700, Larabree).
Chips für mobile Geräte != Chips für PCs.
SGX != Mobile Geräte. Die Lizenzen dafür hat Intel aber auch, das nennt sich aber MBX. SGX steht für die Serie5/6 Cores allgemein. Meiner Meinung nach entwickelt Intel diese Chips mit exakt der Technolgie für massiv parallele Nutzung. Somit bräuchte sich Intel auch nicht um Treiber zu kümmern, die kommen für PowerVR Kerne grundsätzlich von PowerVR selbst. Intel wird diese nur veröffentlichen und modifizieren.
Was soll mit Nv sein? Die sind der größte und vorallem der einzige noch unabhängige Grafikchip- und Chipsatzhersteller, denen wird es glänzend gehen (sieht man übrigens jetzt schon jedes Quartal an deren Geschäftszahlen).
Jo und wenn das so bleiben soll, muss NV in beiden Märkten drinhängen. AMDs Produktionskapazitäten steigen, das heisst AMD wird ganz automatisch trotz Unterlegenheit, weiter an Marktanteilen im OEM Bereich gewinnen. Hier hängt NV fast konkurrenzlos drin, das werden sie ganz sicher nicht aufgeben. Überlassen die Intel ihre 3D Technik nimmt das NV die Existenzgrundlage, da Intel dann für seine Systeme selbst fertigen. Damit würde mal mindestens 50% des NV Markteinteils einbrechen. Lizenzgebühren und schon garnicht andere Lizenzen von Intel sind das wert. Zumal NV bessere Lösungen für OEM Integration von Intel CPUs bieten kann als Intel selber (MCP7x für AGTL+).
Die haben Intel Lizenzen zur Nutzung bestimmter Technologien erteilt und umgekehrt, so wie es AMD mit Intel mit AMD64 und SSE gemacht hat. Von Intel kommt 100% sicher keine Grafiklösung von NV.
Gerade weil CPUs aus viel Cache bestehen ist der Transistorcount der Grafikchip sehr beeindruckend.
Oder hältst du einen simplen 1GBit DRAM Chip mit über 1 Milliarde Transistoren für beeindruckender als die 700 Mio. von G80 und R600?

/edit: ok, ich seh gerade daß GeneralHanno sich auch schon dazu geäußert hat.
Sowohl GPUs als auch CPUs bestehen aus einem sehr grossen Teil auch Caches. Das wird sich in Zukunft verstärken, weil die Infrastruktur nicht so schnell mitwächst wie die CPU/GPU Leistung. Das hat eigentlich nichts damit zu tun, ob es sich um eine GPU oder eine CPU handelt. Beide werden mehr und mehr Ebenen des Caches beinhalten.
 
Zuletzt bearbeitet:
GeneralHanno schrieb:
naja intel hat wohl etwas "angst" vor der brachialen rechenleistung aktueller grafikchips, deren leistung man als GPGPU kanalisieren kann! somit werden "grafikkarten" in den nächsten jahren immer mehr als co-prozessor brauchbar, gerade auch im server und wissenschaftsbereich. wenn intel also nicht langfristig von "multi-funktions-grafikkarten" abgehängt werden will, muss man halt auch auf den zug aufspringen.

ist jetzt natürlich alles etwas überspitzt formuliert ;)

Für die R700/G100 Generation hat das Teil meiner Meinung nach sogar eher zuwenig Rechenleistung. Ich denke, dass sowohl ATI als auch NV da deutlich höher hinaus wollen.
 
1 Teraflop bei 150W und 32nm klingt nicht gerade utopisch.
Wenn nvidia jetzt bei über 80nm 200W verbratet, ist das kein besonderer quantensprung beim stromsparen, aber sicherlich ein guter anfang.
Was aber wirklich dabei rauskommt bleibt abzuwarten.
Hoffendlich belebt intel das graka geschäft ein wenig, sodas die preise etwas purzeln.
600€ für eine 8800GTX, die in einem jahr schon wieder veraltet ist, ist doch verrückt.
Dann noch 60€ pro Spiel. Da kauf ich mir lieber einen 300€ rechner für meine office arbeiten und zum spielen eine PS3 um 600€
 
Also ich würde mich schon freuen, da ich von AMD/ATI nichts mehr halte, seitdem die selbs keine mobility-treiber mehr zur Verfügung stellen, und nvidia einen wirklichen Konkurrenten braucht.
 
Duskolo schrieb:
600€ für eine 8800GTX, die in einem jahr schon wieder veraltet ist, ist doch verrückt.
Dann noch 60€ pro Spiel. Da kauf ich mir lieber einen 300€ rechner für meine office arbeiten und zum spielen eine PS3 um 600€


Und dann brauchst du auch wieder 60EUR pro Game...
 
Hauptsache Intel beschreibt die Onboardgrafikeinheiten nicht mehr als Hightech-spielefähig.
Da sind bestimmt tausende Leute drauf reingefallen.
 
Sie sagen aber immer noch, sie wollen Mid-Range Leistung damit erbringen.
In meinen Augen wäre das X1950GT oder Pro Niveau - schaffen die (noch) nicht!

cYa
 
HOT schrieb:
AMDs Fusion z.B. ist nichts anderes. Bei Intel kommt diese Technologie Ende 2008, bei AMD in 2009. Das ist auch mit ein Hauptgrund, warum Grafikcore so modular entwickelt werden in Zukunft (R700, Larabree).

Zukueftige Produkte sind immer spekulativ, es waere nicht das erste Mal, dass sich eine Entwicklung als Sackgasse herausstellt und eingestellt wird. Und wenn AMD so weiter macht wie bisher wird es die 2009 nicht mehr geben, weil sie vorher bankrott sind.

HOT schrieb:
SGX != Mobile Geräte. Die Lizenzen dafür hat Intel aber auch, das nennt sich aber MBX. SGX steht für die Serie5/6 Cores allgemein.

Bislang gibt es AFAIK nur Chips fuer mobile Gerate auf SGX Basis und imo wird das auch so bleiben.


HOT schrieb:
Meiner Meinung nach entwickelt Intel diese Chips mit exakt der Technolgie für massiv parallele Nutzung. Somit bräuchte sich Intel auch nicht um Treiber zu kümmern, die kommen für PowerVR Kerne grundsätzlich von PowerVR selbst. Intel wird diese nur veröffentlichen und modifizieren.

Meiner Meinung nach nutzt Intel dafuer NVidia IP.

HOT schrieb:
Jo und wenn das so bleiben soll, muss NV in beiden Märkten drinhängen. AMDs Produktionskapazitäten steigen, das heisst AMD wird ganz automatisch trotz Unterlegenheit, weiter an Marktanteilen im OEM Bereich gewinnen. Hier hängt NV fast konkurrenzlos drin, das werden sie ganz sicher nicht aufgeben. Überlassen die Intel ihre 3D Technik nimmt das NV die Existenzgrundlage, da Intel dann für seine Systeme selbst fertigen.

Auch mit IP-Lizensen laesst sich gut Geld verdienen, siehe PowerVR. Warum sollte NV also nicht an Intel Lizensen vergeben?


HOT schrieb:
Von Intel kommt 100% sicher keine Grafiklösung von NV.

Abwarten.
 
kisser schrieb:
Zukueftige Produkte sind immer spekulativ, es waere nicht das erste Mal, dass sich eine Entwicklung als Sackgasse herausstellt und eingestellt wird. Und wenn AMD so weiter macht wie bisher wird es die 2009 nicht mehr geben, weil sie vorher bankrott sind.
Jo aber gerade diese Entwicklung macht Sinn, bedenkt man, dass beide Hersteller das KnowHow dazu haben und einen IMC besitzen zu der Zeit. Die Wahrscheinlichkeit, dass das kommt wird ist verdammt hoch.
Bislang gibt es AFAIK nur Chips fuer mobile Gerate auf SGX Basis und imo wird das auch so bleiben.
SGX Kerne sind flexibel einsetzbar. Von Embedded bis HighEnd. Warum sollte Intel also nicht das KnowHow nutzen, wofür man die Lizenz erwarb? Man erwarb die Lizenz nicht umsonst. SGX Kerne sind kompakt und leistungsfähig und sehr gut parallelisierbar. Passt hervorragend zu Intels Larabree.
Meiner Meinung nach nutzt Intel dafuer NVidia IP.
Nur spricht wirklich alles dagegen.
Auch mit IP-Lizensen laesst sich gut Geld verdienen, siehe PowerVR. Warum sollte NV also nicht an Intel Lizensen vergeben?
Abwarten.
Weil NV Chips selber entwickeln und produzieren kann, was PowerVR nicht kann. Im Gegenteil, NV lebt sogar eher davon, Chips zu verkaufen als ihre Technologie ausbluten zu lassen. Imagination Technologies und Nvidia sind zwei völlig verschiedene Unternehmen. Was NV mit Chips verdient, kann Imagetech mit Lizenzen nicht im Ansatz vorweisen. Dafür bietet Imagetech noch ganz andere Geschäftsfelder, GrafikIPs sind nur eines davon. NV würde damit auf verdammt viel Umsatz und Gewinn verzichten, würden sie Intel eine Lizenz für ihre Designs überlassen. Das hat NV traditionell nicht gemacht, das wird auch garantiert nicht passieren. Was hätte Nv davon? Sie könnten weder Grafikchips noch Chipsätze für Intel Plattformen absetzen, das wäre NVs Ende, sollte Intel AMD wieder zurückdrängen.
Da ist meiner Meinung nach der Wunsch der Vater des Gedanken, mehr nicht. Ich find diese Vorstellung ist der absolute Horror und das sollte echt nicht passieren.
 
Zuletzt bearbeitet:
Intel wird auch nicht umsonst ein Abkommen mit NVidia geschlossen haben. Inwiefern dass ihre Abkommen mit PowerVR tangiert weiss ich nicht, ich halte es dennoch fuer denkbar, dass Intel PowerVR nur fuer mobile Chips (PDAs, Handys etc.) und NV fuer den PC-Markt nutzt.

Es ist uebrigens nicht das erste Mal, das NV Lizensen fuer Grafik-IP vergibt (und damit wohl auch Geld verdient), sommit ist der letzte Abschnitt deiner Argumentation hinfaellig:

http://hardware.thgweb.de/2000/09/11/chipsatz_duell_intel_815e_vs_ali_aladdin_tnt2_m1631_/
 
Überhaupt nicht, da Ausnahmen die Regel bestätigen. Acer Labs lizenzierte damals TNT2 Technik, das war aber zu einer Zeit, als NV selbst keine Chipsätze anbot, die Situation ist also überhaupt nicht vergleichbar. Das war eine Möglichkeit, NV Technik zum allerersten Mal in Chipsätze zu integrieren und Quasi ein Vorabtest für eigene IGPs. Das dauerte aber noch eine ganze Weile bis zum NForce und weitere solche Lizenzen gab es seither nicht mehr. Das spricht sogar sehr gegen deine Theorie.
Wenn NV Intel eine Lizenz verpassen würde, könnten die den überaus luktrativen Intel Chipsatzmarkt schlicht vergessen, deswegen wird sowas nicht passieren. Gerade im OEM Markt fasst NV grad Fuss mit überaus erfolgreichen Modellen (MCP6x). Ein solches Vorgehen auf dem Intel Markt ist angekündigt (MCP7x, sogar als SingleChip) und schließt schon allein deshalb deine Vermutung aus.
Ich hab schon 3x geschrieben, dass es sich hier um einen Technologieaustausch, also ein Kooperationsabkommen über Patente handelt und nicht mehr. Das wird viel zu sehr aufgebauscht, genau das ist das Problem.
 
Zuletzt bearbeitet:
HOT schrieb:
Wenn NV Intel eine Lizenz verpassen würde, könnten die den überaus luktrativen Intel Chipsatzmarkt schlicht vergessen,

Ich sehe nicht, warum das eine das andere auschliessen sollte.
Mit einer Lizenz für Intel kann NV an den Intel Chipsätzen (die ohnehin verkauft werden, egal welche Grafik-IP da drin steckt, siehe GMAxxx) auch noch Geld verdienen, zusätzlich zu den eigenen verkauften Chipsätzen. Ich gehe auch davon aus, daß Nv schon weiß, was sie an Intel lizensieren können, ohne sich selbst evtl. zu schaden.

Aber genug der Diskussion, wir haben da gegensätzliche Meinungen, die sich nicht vereinen lassen.
 
Wenn Intel nur eine Lizenz für eine IGP-Generation erhalten würde, als GMA X3000 Nachfolger, würde ich hier zustimmen. Eine Art Aladin TNT2 wäre sicherlich im Bereich des Möglichen. Aber definitiv keine komplette Grafikgeneration. Und ich bezweifle auch ersteres stark, da es dann keinen nennenswerten Vorteil der MCP7x Serie ggü. den Intel IGPs mehr geben würde.
 
All die Monopolfans sollten sich mal Intels Roadmaps aus der "guten" alten Zeit von vor 3-4 Jahren anschauen als sich Intel voller Arroganz AMD noch nicht mal mit Namen genannt hat.

Die Intelwelt sähe ohne Konkurrenz heute so aus: P4 Single Core mit ~5GHz (versprochen waren zwar 10GHz, aber who cares), TDP von mind. 200W, Boxed Wasserkühlung (bei den Topmodellen vielleicht Boxed Stickstoffkühlung) und BTX.
 
Zuletzt bearbeitet:
ich sehe definitiv die schwäche in der treiberoptimierung, man kann sonst wieviel terraflops haben wenn es die software bzw die treiber nicht richtig umsetzen können, Man sieht ja das auch ATI bzw Nvidia probs haben nach jahrzenten mit der optimierung, und Intel mit keiner Erfahrung im HighEnd Bereich seh ich da keine Konkurrenz. LowEnd mag Intel Erfahrung haben, aber benötigt man keine Optimierungen bis zum overload wie das bei highend der fall ist für paar fps mehr.
 
Zurück
Oben