News Larrabee: Fakten zur Intel Highend-Grafikkarte

Hallo Intel Monopol und Galaxiszahlpreise - Tschüss AMD
 
@60
lol, genau DAS ist der irrglaube, dem viele hier immer noch nachhängen. selbst wenn es irgendwann nur noch einen hersteller gibt - egal ob auf dem cpu, gpu oder sonstwas-sektor - den preis bestimmen die kunden selbst. bitte lern(t) erstmal die grundlagen der marktwirtschaft, bevor ihr son stuss schreibt, den ihr irgendwo aufgeschnappt hat und weiterplappert, nur weil er in euer weltbild passt. solange irgendeine firma ihre waren (egal welche branche) zu nem hohen preis loswird .. warum sollte sie ihn senken (simpel ausgedrückt)? man (die KUNDEN) müssen (und KÖNNEN) druck ausüben - EGAL wieviele hersteller es gibt. natürlich ist es einfacher, einfach auf die "großen" zu schimpfen und sich hinter solchen, nicht haltbaren scheinargumenten zu verstecken. das kann jeder 3jährige ...

momentan haben wir zb konkurrenz auf dem cpu und gpu-markt. und TROTZDEM bezahlt man 600€ für highend hardware. laut dieser milchmädchenrechnung müssten die preise doch fallen wie sonstwas. hirn benutzen ist wohl uncool geworden.

@topic
weiter so intel
ihr habt euch lange genug von der wannabe-klitsche amd auf der nase rumtanzen und technologien klauen lassen. ich kanns bald nicht mehr hören ... amd hat nicht eine einzige eigenentwicklung vorzuweisen, welder CnQ, noch HT-Link oder DualCore. Die einzigen Gründe, warum amd so beliebt ist, sind: sie haben werbewirksam fabriken in industrieländern gebaut (wo aber mittlerweile auch stellen abgebaut werden .. und neue entstehen auch in billiglohnländern. das wiederum wird aber zb auch intel als negativ angerechnet, treiben sie doch die armen AMD'ler dazu ...*), sie hatten wirklich gute prozessoren (wenn auch nicht durch eigene entwicklungsarbeit) für ein paar jahre und konnten die (aufgrund der daraus folgenden niedrigen entwicklungskosten) für wenig geld unter die leute werfen und - vielleicht der wirkungsvollste grund - sie sind der "david", der gegen den großen bösen "goliath" zu felde zieht. den muss man natürlich unterstützen!

hauptsache anti. fakten und hintergründe zählen nicht. schön zu sehen, dass simple marketingstrategien immer noch funktionieren. zumindest beim einfachen volk .. welches leider die mehrheit stellt. dieselben faktoren begründen auch, warum die gazette namens bild eine tägliche auflage im millionen-bereich hat.

*der verstand sieht nur das, was er sehen will. und simple gemüter sind leicht zu beeinflussen.
 
Zuletzt bearbeitet:
Hört sich nicht schlecht an mal schauen was Intel noch so treibt man muss aber auch wissen das Nivida und ATI auch nicht schlafen ;)
 
HereticNovalis schrieb:
*bla* *kotz* *würg* ... ich bin der marktwirtschaftsking ... weiß alles besser ... oh mein gott, ich bin nur von Bauer-kiddis umgeben ... *bla* *kotz* *würg*

So so, du hast also Ahnung von Marktwitschaft und stellst das allgemeine Monopolproblem mal schnell allgemein in Frage. Eines vorweg: ich bin einer von denen die keine Ahnung haben. BWL interessiert mich nicht.

Dennoch kommen selbst mir als Laie einige Rätsel auf, bei deinem beleidigendem Post.

Zum Beispiel diese Fahrlässigkeit bei der Fließkommaberechnung der P1 Generation. Ein Intel-Sprecher meinte damals dass sich das vielleicht mit einem falschen Pixel auf der Bildoberfläche äußert. Ganz verschwiegen hat er aber die Probleme wie zB die Basisumrechnung, oder Singularitäten aus der Numerik, die in Funktionentheorie genauer beschrieben werden. Aber hey, du als Guru hast natürlich schwer Ahnung und erstmal alle Mathematiker dieser Welt mit einer allgeimen Lösung für Singularitätsprobleme beeindruckt. Und wer sich daran stört braucht ja keine Intel-CPU zu kaufen. Du warst ja schließlich der einzige der auf Rechner angewießen war. Der Rest der dummen Kiddies konnte sich ja einen Alternativ-Prozzi zur damaligen Zeit suchen. Komisch dass trotz dieser "Flut" von Alternativen Intel nicht die Knie schlotterten.
Aber na ja, da sie ja anscheinend allen Grund hatten ruhig zu bleiben hatt man für die nächsten 25 Mhz mal den doppelten Preis gezahlt. Was einen damals nur gewurmt hat, war die Tatsache dass die Vorgänger unverschämt lange den nahezu gleichen Preis hatten.

Aber der Kunde war ja so UNABHÄNGIG, da hätte er ja nur ein Weilchen von denen nix kaufen brauchen. Die wären ja schon irgendwann runtergegangen. Hätte man ja vor vielen Jahren ja auch mit Opel machen können, als sie sichs leisten konnten lauter schnell-roster zu verkaufen. Wer BRAUCHT schon ein Auto. Die Bahn können wir heute ja auch boykottieren. Die Pendler können ja laufen, oder sich ein Auto kaufen, da es heute ja so viele Anbieter von Mittelklassewagen gibt.

Also wozu Kartellämter? Der Kunde kann sich ja wehren!

Ach Gott, stimmt ja... der einzige der das kann ist HereticNovalls. Wir sind ja alle nur dumme Nachplapperer.

Vor allem das Nachplappern einiger Wirtschaftsforscher die behaupten Monopole seien i.A. nicht so das ware... alles Dummschwätzer! Die gehören gefeuert!

HereticNovalis for Mentor, Doktor, Proffessor und was weiß ich was!

Und für die ganze Klauerei die AMD betrieben hat, nein HereticNovalis hat dort nicht gearbeitet, er weiß es einfach, gehören diese Amateure den Hunden vorgeworfen!

*sülz sülz*

.....

Komm mal von deinem hohen Ross runter.
 
ne komplettlösung von Intel - und arctic cooling soll die kühlung machen - nehm ich sofort ;)
 
kisser schrieb:
Klar doch, AMD hat Entwickler gefeuert und dafür Hellseher eingestellt. :freak:
Dass die nächste Stufe der CPU Entwicklung eine Integration eines Grafikcores beinhaltet, ist auch damals kein Geheimnis gewesen. Genau deshalb kaufte man ATI, man hatte bei AMD selbst genau 0 KnowHow was Grafik angeht. Zudem lizenzierte Intel Die PowerVR SGX Kerne schon bevor AMD ATI kaufte. Das machen die auch nicht mal so zum Spass ;).
Und was ist dann mit NV? Klar, NV opfert sich freiwillig für Intel :D. So ein Blödsinn, vor allem, da Intel selber alle Lizenzen besitzt, um selbst einen Grafikchip mit mehr als nur aktueller Technik zu entwickeln. Meine Güte, das war ein Kooperationsabkommen. Sogar AMD hat Kooperationsabkommen mit Intel. Das heisst rein garnichts.
 
Zuletzt bearbeitet:
Ich finds gut, dass mehr Konkurrenz ins Grakageschäft kommt!! Kann für uns als Verbraucher doch nur positiv sein!!
 
Hmm, ich denke mal ähnliches hat AMD/ATI auch mit seiner X2900 vor die wollen auch eine Full integrated solution machen... Könnte mir vorstellen das die neuen ATI Karten mit zukünftigen AMD CPUs recht gut abgehen...
 
diese intel karte soll es mit g100 und r900 aufnehmen können?
woher kennen die jetzt schon die leistung dieser karten?? gibt ja noch nicht mal r700 und g90 infos.
 
Keine Kunst jetzt schon vorherzusagen, wieviel Rechenleistung die neuen Chips haben. Zudem ist damit der R700 nicht der R800 gemeint. Die nächsten wirklich neuen Architekturen sind R700 und G100. Der G90 ist nur ein Upgrade vom jetzigen G80, genau wie der R650 ein Upgrade des R600 ist. Da hat man bei CB mal wieder Mist verzapft.

G80 - R600
G90 - R650
G100 - R700 - Larabree
 
Zuletzt bearbeitet:
Hovy schrieb:
Hmm, ich denke mal ähnliches hat AMD/ATI auch mit seiner X2900 vor die wollen auch eine Full integrated solution machen... Könnte mir vorstellen das die neuen ATI Karten mit zukünftigen AMD CPUs recht gut abgehen...

Das könnte ich mir auch gut vorstellen..
 
Undergroundking schrieb:
nun ja... haben schon andere firmen milliarden in den sand gesetzt.... daimler mit chrysler zB....ich denke nicht, dass intel mit deren bescheidenen garfikkenntnissen auf einmal in der oberen liga mitspielen können....ne gpu ist eben anders.... alleine, dass die transistorenzahl viel viel höher ist.... glaubt einer intel kann auf einmal jahre von intel und ati so einfach überholen? wohl kaum..... wenn man bedenkt, dass sich ati sogar im moment etwas schwerer tut....nette idee.... aber intel wird viel viel lehrgeld zahlen müssen und dann irgendwann einsehen, dass es nichts gebracht hat.....
Transistoranzahl höher?

Intel Itanium 2 "Montecito": ~ 1.700 Millionen
Intel Xeon MP "Tulsa": ~ 1.300 Millionen
Intel Core 2/ Xeon "Yorkfield": ~ 800 Millionen
ATi Radeon X2900XT: ~ 700 Millionen
nVidia GF8800 GTX: ~ 680 Millionen

...auch wenn das meiste Cache ist - rein vom Transistorcount sind die Grafikchips nicht sehr beeindruckend.

mfg Simon
 
@simon: du nimmst deinem argument selbst den wind aus den segeln ;)

schließlich sind bei diesen server CPUs 90% des siliziums als mega caches verbaut (verschwendet). bei den GPUs sind es über 90% logigeinheiten, die flopps satt bringen ;)
 
Klingt doch interessant. Wenn man das dann (genauso wie die anderen Highend-Grafikkarten) zum Rendern nutzen könnte wäre das doch mal was sinnvolles. So eine Rechenpower muß man doch bestimmt auch für was anderes außer zum spielen nutzen können und so würden sich die Rechenzeiten auf ein Minimum verkürzen, wenn man die Vergleichs-Grafik als Aufhänger nimmt.
 
HOT schrieb:
Dass die nächste Stufe der CPU Entwicklung eine Integration eines Grafikcores beinhaltet, ist auch damals kein Geheimnis gewesen.


Pure Spekulation, ich denke nicht, daß man Grafikcores in CPUs integrieren wird, alleine schon wegen der immens hohen Transistorzahl der Grafikcores.

HOT schrieb:
Genau deshalb kaufte man ATI, man hatte bei AMD selbst genau 0 KnowHow was Grafik angeht. Zudem lizenzierte Intel Die PowerVR SGX Kerne schon bevor AMD ATI kaufte. Das machen die auch nicht mal so zum Spass ;).

Chips für mobile Geräte != Chips für PCs.

HOT schrieb:
Und was ist dann mit NV? Klar, NV opfert sich freiwillig für Intel :D. So ein Blödsinn, vor allem, da Intel selber alle Lizenzen besitzt, um selbst einen Grafikchip mit mehr als nur aktueller Technik zu entwickeln. Meine Güte, das war ein Kooperationsabkommen. Sogar AMD hat Kooperationsabkommen mit Intel. Das heisst rein garnichts.


Was soll mit Nv sein? Die sind der größte und vorallem der einzige noch unabhängige Grafikchip- und Chipsatzhersteller, denen wird es glänzend gehen (sieht man übrigens jetzt schon jedes Quartal an deren Geschäftszahlen).



Simon schrieb:
...auch wenn das meiste Cache ist - rein vom Transistorcount sind die Grafikchips nicht sehr beeindruckend.

mfg Simon


Gerade weil CPUs aus viel Cache bestehen ist der Transistorcount der Grafikchip sehr beeindruckend.
Oder hältst du einen simplen 1GBit DRAM Chip mit über 1 Milliarde Transistoren für beeindruckender als die 700 Mio. von G80 und R600?

/edit: ok, ich seh gerade daß GeneralHanno sich auch schon dazu geäußert hat.
 
Zuletzt bearbeitet:
GeneralHanno schrieb:
@simon: du nimmst deinem argument selbst den wind aus den segeln ;)

schließlich sind bei diesen server CPUs 90% des siliziums als mega caches verbaut (verschwendet). bei den GPUs sind es über 90% logigeinheiten, die flopps satt bringen ;)
Hatte ich ja extra geschrieben.

Allerdings sind die aktuellen GPUs auch nix anderes als 128 bzw 320 komplett die gleichen Logikeinheiten, die einzeln auch im Vergleich zu früher "relativ simpel" aufgebaut sind.
Zumal Intel mit Polaris hier auch schon einiges an Erfahrung gesammelt hat.
So eine 4-fach OoO Logik in den Core 2 CPUs ist auch auch nicht gerade einfach gestrickt.

Transistoranzahl ist nicht wirklich ein Argument. Aber redet nur Larrabee schlecht. ;)

mfg Simon
 
Ich verstehe den übertriebenen Optimismus hier nicht. Bis dahin liegt noch ein sehr langer und knochiger Weg.
 
@HereticNovalis

Widersprich dir nicht selbst und verdrehe die Tatsachen nur dann, wenn du sie auch wriklich kennst:

1. Seit dem es ein Konkurrenzprodukt zur GF8800GTS gibt (->HD2900XT) sind entsprechende Karten im Preis gefallen.
2. Weißt du was ein Monopol ist?
3. Weißt du was Konkurrenz ist?
4. Der Kunde wird in unserem jetztigen "digitalen Zeitalter" gezwungen sein zu kaufen. Dein aufgeführtes Rezept mag zwar auf andere Marktbereiche zutreffen, jedoch nimmt (UND NAHM) der Computermarkt schon IMMER eine besondere Stellung ein. Aber das wirst du bestimmt noch lernen ;-)
 
Ich denke schon, dass Intel genügend Mittel besitzt, um ein konkurrenzfähiges Produkt auf die Beine zu stellen. Fragt sich nur, ob sich dafür genügend Know How vereinigt, schließlich arbeiten bei der Konkurrenz von Intel viele Spezialisten mit jahrelangen Erfahrungen.
Und wie es aussieht gehen sie auch einen anderen Weg mit den vielen cores aber wie schon gesagt wurde: Treiberfrage. Es wird sicher nach Markteinführung noch ein Jahr dauern, bis der Treiber optimal ist.
 
Zurück
Oben