News Nvidias „Fermi“ zur CES 2010?

Status
Für weitere Antworten geschlossen.
interessantes Thema. Also bleibt nix anderes als abwarten und Tee trinken, sehe ich das richtig?

Nein warum sollte ich jemanden von etwas überzeugen wenn ich kaum Ahnung habe von diesem Gebiet. Ich meine als es rein umd Frames ging ist es anders. Aber GPGPU ist ein schweres Thema und kommt auf mehr Faktoren an als wenn ich mich rein im Frame Bereich befinde. Zumindestens ist das vor 1 Jahr noch so gewesen.
 
Und wie groß soll die DIE werden !?

Das ist meiner Meinung nach der falsche schritt
 
lxmichi schrieb:
Und du glaubst de 6k Serie ist in 6 Monaten draußen?

Und wo kaufst du jetzt die 5870?
Denn all zu oft sieht man die ja nicht:D

das wollte ich damit nicht sagen.
nur wenn der fermi verfügbar ist, werden wieder viele sagen, man solle doch noch die paar monate auf die 6k serie warten, die wiederum den fermi schlagen soll.

das ganze ist ein teufelskreis der warterei. man muss sich halt mal entscheiden.
 
epospecht schrieb:
Und wenn der Larrabee aufgrund seiner grundlegenden Architektur nicht konkurrenzfähig ist

du hast schon recht, aber die Architektur ist gerade der Vorteil des Larrabee
 
Für den Endnutzer ist die HD 5x damit nun teurer und mit schlechterer Verfügbarkeit als mit Konkurenz. Habe dann zwar die richtige Entscheidung getroffen nicht zu warten, davon haben andere aber auch nichts.
 
DonGeilo33 schrieb:
Naja wer weiß wieviel GFlops der Fermi haben wird, aber er muss ja erstmal ordentlich aufholen, der GT200 hat gerade mal 1.063 GFLOPs, das ist soviel wie eine 4850...

Herzlichen Glückwunsch, du bist der Erste, der einen GPU mit einer Grafikkarte vergleicht.:freak:

Ansonsten: Die theoretische Leistung sagt nichts über die praktische aus.
Sonst wäre man ja für GPUCP mit einer ATI GraKa besser dran. ;)
 
@ lübke

...
die x86 architektur ist ebenso performant wie die shaderarchitektur bei ati oder nvidia. sie kann arbeiten, die auf die entsprechenden befehlssätze bauen, deutlich schneller bewältigen. bei parallelisierten berechnungen jedoch muss sie massiv hinter der shader-architektur zurückstecken. alles eine frage der anwendung.
und da intel mit unsummen von geld ausgestattet ist, können sie entsprechende standarts "erzwingen".
ich würde den larrabee nicht unterschätzen, auch wenn ich anfangs anders gedacht habe. aber die entwicklung bei nvidia deutet auf einen wandel im grafiksegment hin. also nimmt nvidia intels larrabee sehr ernst.

Aber es ist doch nicht so dass Intel nicht versuchen würde zu parallelisieren. Genau das macht doch der Larrabee mit seinen 64 Chips. Genauso wie es auch ein Quadcore macht. Es ist ja nicht so als wenn man eine überlegene Architektur hätte die viel schneller als der Rest ist. Die Cores des Larrabee werden nicht wesentlich höher takten als die einer modernen Ati oder Nvidia-Karte. Und deswegen versucht es Larrabee mit Parallelisierung. Genauso wie Nvidia oder Ati. Nur das der einzelne Core beim Larrabee durch seine x86 Architektur flexibler, aber damit eben auch nicht mehr so effizient wie eine Shadereinheit ist.

Ich denke generell ist es ein Problem bei Intel dass man sich so sehr auf x86 festgefahren hat. Natürlich, zu Beginn der Entwicklung von Larrabee war die Verheißung groß. Schließlich wollte man eine neue Art des Renderings etablieren (Raytracing) und kein anderer Hersteller hätte in dem Revier wildern können. Nvidia und Ati hatten keine x86 Lizenz, Amd hatte keinerlei Know-How im Grafikbereich. Doch es kam eben anders. Amd kaufte sich das Know How in Form von Ati und Nvidia schwenkt nun mit dem Fermi in den Bereich frei programmierbarer Shader um. Zudem hat sich mit DirectX 11 eine einheitliche Schnittstelle für Grafikberechnungen etabliert und (das war auch nicht unbedingt absehbar) die Energieeffizienz spielt bei heutigen Grafikkarten eine große Rolle.
Und nun steht Intel mit einer "ich kann alles aber nichts richtig" Architektur da die viel Strom schluckt aber nicht an die Leistung der etablierten Firmen heranreicht, und merkt, dass Raytracing in vergleichbarer Qualität eine Leistung benötigt die kein Chip (egal von welchem Hersteller) bisher bieten kann.
 
Zuletzt bearbeitet:
Killermuecke schrieb:
Die offizielle Preiempfehlung für die HD5850 ist vor kurzem von 289$ auf 299$ erhöht worden. Wenn die Verfügbarkeitsprobleme nicht wären, gäbe es die Karten damit schon für gut 210€ (nämlich den Preis, zu dem die nicht verfügbaren Karten gelistet sind). 210€ für eine Karte, die die gtx285 (270€) schlägt, weniger Strom verheizt und dazu noch DX11 kann finde ich alles andere als Abzocke.

Die 8800gtx hat zum Start 500€ gekostet, die 8800gts war bei gut 300€. Da sind 200€ und 300€ zum Start wirklich kein Grund zu meckern.

Die 8800GTS war anfangs ganz schwer unter 350 Euro zu bekommen.

Habe lange gebraucht bis ich eine für 345 Euro lieferbar bekommen habe.

Die 300 Euro Marke fiel mit Sicherheit nicht unter 6 Monate nach Release, eher noch bissel später.
 
@oldsqldma

Ich denke jeder hat den vergleich verstanden.....

Und genau um die Theoretische Leistung die bei GPUCP oft umgesetzt werden kann geht es.
 
epospecht schrieb:
Das besondere am Fermi ist doch dass er nativ C++ versteht und damit theoretisch genauso flexibel wie ein x86 Chip ist (also hat er auch die gleiche Felxibilität wie Larrabee)
Damit wäre doch jeder Raytracer mit wenigen Anpassungen in der Lage den Fermi als Cpu-Ersatz zu benutzen.
Und ab hier ist all die theoretische GPUPU Leistung nur noch Theorie. Ganz einfach weil ein Ati Pendant kein C++ kann.
Natürlich könnte man einen Renderer speziell für eine Ati GPU schreiben und über DirectX 11 ansprechen. Allerdings wäre das

a.) ein großer Aufwand
b.) gäbe es Fälle die schlicht nicht berechnet werden können weil auch ein Compute Shader nicht annähernd so flexibel ist wie einer der nativ c++ versteht.
Was war noch gleich OpenCL? Ach ja. Das war eine allgemeine Programmierplattform mit offenen Standards, die C-ähnlich arbeitet und CPUs und GPUs ansprechen kann.
Warum sollte man als Entwickler eines Renderprogramms also Cuda nutzen und den ATI Markt ausschließen, wenn man auch OpenCL (offener Standard) nutzen kann und somit sowohl Nvidia, als auch ATI GPUs ansprechen kann?

Lübke schrieb:
und da intel mit unsummen von geld ausgestattet ist, können sie entsprechende standarts "erzwingen".
einen standard kann niemand erzwingen. Der wird von der Iso oder DIN oder wem auch immer festgelegt^^
Man kann aber eine Variante etablieren und das machen nicht die Hardware, sondern die Softwareproduzenten. Wenn die Softwareschmieden 90% des Marktes ausschließen müssten um Intel zu gefallen werden die es wohl kaum machen.

Bullet Tooth schrieb:
Schon ist die neue 6870 mit 2400 Shadern und 384 bit SI da.
komisch nur, dass die nächste Generation laut Raodmap von AMD für 2011 angekündigt ist.

c80 schrieb:
du hast schon recht, aber die Architektur ist gerade der Vorteil des Larrabee
was sich noch zeigen müsste. Bisher haben die ja nicht wirklich überzeugt.
 
Neben durchaus kompetenten Postings in diesem Thread ist es echt anstrengend die ganzen Fanboypost von beiden Lagern lesen zu müssen (dieses Mal natürlich mehr ATI-Freunde, da NVidia hier vermeintlicherweise den kürzeren zieht). Die Leute der "Gewinnerpartei" feiern sich hier gegenseitig, das is doch dumm. Was soll das ?

Schadenfreude in Bezug auf Marktanteile von Grafikartenherstellern :freak:
Verrückt. Das versteh ich nicht, Ihr wollt doch alle immer Performance, Performance, Performance. Außerdem wollt Ihr das zu einem möglichst niedrigen Preis. Dies ist nur mit einem gesunden Konkurrenzverhältnis gegeben, so wie es seit Jahren zwischen NV und ATI herrscht. Es gibt kein "X ist generell besser als Y" beide Parteien werden sich im Laufe der Zeit wie auch in der Vergangenheit immer wieder gegenseitig übertreffen.

Wenn ich sowas höre wie: "Höhö, die naps kriegens nicht hin" oder "ATI wird dann aber mit hd 88217312 ultra XXL+++ so übel rocken !!!111eins", Jungs, das mag für den Moment so sein, nur gibt es darauf auch wieder Reaktionen der anderen Partei, einer wird IMMER eine Zeit lang die bessere Technik/PL-Verhältnis bieten können als der andere, was man auch neidlos anerkennen muss. Absolute NV oder ATI Fanboys werden trotzdem nur Grafikkarten "Ihres" Lagers kaufen, was Quatsch ist, wenn man vom Gegenlager eine bessere Technik zum selben Preis geboten bekommt.

Den Vogel abschießen tun dann noch diese Spekulationen zwecks "Lager X wird sich garantiert aus der Branche zurückziehen". Das ist doch sowas von an den Haaren herbeigezogen, als ob die Verliererpartei NICHTS mehr verkauft, wenn unter den Freaks (die vielleicht 20% der Käuferschaft ausmachen) der vermeintliche Techniksieger feststeht. Selbst wenn es so wäre, wäre DIES dann absolut KEIN Grund zur Freude selbst für ATi-Fans nicht (in diesem Fall).

Also unterlasst doch bitte Eure haltlosen Spekulationen, da stehen einem ja die Haare zu Berge :rolleyes:
 
Zuletzt bearbeitet:
War das beim G80 nicht auch so? Der kam doch erst so im Februar auf den Markt, korrigiert mich wenn ich falsch liege. Bin nicht sonderlich überrascht über den Termin da das meiner Erinnerung nach schon immer so abgelaufen ist. Entweder Februar oder August.
 
Gute Nachrichten für ATI! Jetzt müssen sie unbedingt den Markt fluten mit Cypress-GPUs. Aber TSMC bekommts ja nicht auf die Reihe, der Saftladen.

Mister79 schrieb:
Tja vielleicht ist NV gar nicht dabei sich gegen ATI zu rüsten . Vielleicht ist denen ATI auch Scheiß egal. Vielleicht wollen die einfach sich gegen Intel rüsten und etwas dem Laberree oder wie man den schreibt entgegensetzen. Vielleicht überlassen Sie ATI gerne mal das Feld. Ich meine der 300 geht in eine ganz andre Richtung als ATI. NV und Intel gehen eigentlich den gleichen Weg. Nur NV mit GPUChips für die Grafik und Intel mit CPUs für die Grafik. Ich denke das sich der Markt in Richtiung Intel verschieben wird und NV das erkannt hat und daran arbeitet. Wenn es so kommt, dann wird ATI noch ganz alt aussehen den die 6er Reihe geht weiter den Weg den sie jetzt auch gehen und das wäre der falsche. Naja wir werden es sehen.

Wenn das Wörtchen "wenn" nicht wär...
 
Zuletzt bearbeitet:
[AC]Jogibär schrieb:
War das beim G80 nicht auch so? Der kam doch erst so im Februar auf den Markt, korrigiert mich wenn ich falsch liege. Bin nicht sonderlich überrascht über den Termin da das meiner Erinnerung nach schon immer so abgelaufen ist...


nein, der kam im november 2006. Und G200 kam im juni 2008.
 
Auf jedem Fall dürften die Nerven sowohl bei Nvidia (siehe Fake Präsentation des CEO Herrn Huang) als auch bei Intel (Rauswurf des Projektverantwortlichen von Larrabee Herrn Gelsinger) ziemlich blank liegen.

Kann wohl in beiden Fällen nicht von ruhig weiterentwickeln gesprochen werden.
 
Zuletzt bearbeitet:
War das beim G80 nicht auch so? Der kam doch erst so im Februar auf den Markt,
Ne, G80 war genau das gleiche was Fermi für uns heute ist, nur das der extrem dicke Chip pünklich im November aufgeschlagen ist. In Masse für 650€ aufwärts. Im Februar ist dann der Preis gefallen auf ca. 450€ und die Ultra für 700€(OC GTX) wurde nachgeschoben.

Mal schaun was an den Gerüchten dran ist. Währ nicht schlecht für ATI, die HD 5800er haben es verdient an die Spitze geschafft. Die schlechte Lieferbarkeit wird bestimmt noch bis zum Dezember so bleiben, also hat ATI dann effektiv 2-3 Monate wirklich freie Bahn...
 
H€553 schrieb:
Sofern Nvidia überhaupt schon in der Massenproduktion ist. Außerdem weiß ich nciht, was dartan klug sein soll eine Grafikkarte absichtlich nach dem Weihnachtsgeschäft als Paperlaunch erscheinen zu lassen.
Und du scheinst keine Ahnung zu haben, wie die Preisbildung per Angebot und Nachfrage funktioniert. Denn nur daraus entsteht ein Wert für Grafikkarten.

Diese Grafikkarten sind für den Massenmarkt bestimmt und es ist kein Produkt was wegen seiner Besonderheit in kleinen Stückzahlen geliefert wird. Da gilt einfach Angebot/Nachfrage nicht. Schließlich gibt es Angebote die um teilweise 100€ günstiger sind, die allerdings nicht geliefert werden und ich bin nicht einer derjenigen der wegen Lieferprobleme seitens der Hersteller gut und gern 100€ für eine Grafikkarte mehr ausgibt.
Außerdem ist das mit dem Weihnachtsgeschäft schwachsinnig. Der Anstieg von solchen Produkten wie Grafikkarten, Prozessoren etc. werden davon kaum beeinflusst.
Wenns um Computerspiele, DVDs und Kaffeeautomaten gehen würde, könnte ich dir recht geben...

ram2k schrieb:
Das ist doch wohl ein Witz oder? Ich weiss ja nicht ob du dir schonmal eine gute Gamerkarte genkauft hast aber ich nehme mal an ja und was hast du da bezahlt? Nur weil AMD den Kunden eine gute P/L geboten hat zu Anfang muss es ja nicht heissen, dass man seine Hardware weiter so billig verkauft wenn es null Konkurrenz gibt!

edit: Der höhere Preis ist aber auch den Händlern zu verdanken und ein kleiner Teil AMD.

Ja, ich habe schon des öffteren auf Gamerkarten gesetzt und eigentlich immer auf ATI - meine letzte war eine 4870, davor eine X1950XTX um knappe 350€.
Ich habe kein Problem damit das ATI mehr für seine Karten verlangt, ich habe aber ein Problem das Händler wegen der knappen Menge an Lieferungen gleich 50-100€ aufschlagen.

Wenn ihr sowas ned versteht dann bleibt mir nur das kopfschütteln...
 
c80 schrieb:
Intel wird Larrabee erst rausbringen wenn die Leistung stimmt. Intel hat Geld ohne Ende und eigene Fabs. Keine Chance für ATI und Nvidia. Wart's ab!

Ja, nur dumm das man Know-How nicht kaufen kann. :rolleyes:
 
elastic schrieb:
das wollte ich damit nicht sagen.
nur wenn der fermi verfügbar ist, werden wieder viele sagen, man solle doch noch die paar monate auf die 6k serie warten, die wiederum den fermi schlagen soll.

das ganze ist ein teufelskreis der warterei. man muss sich halt mal entscheiden.

So wie du es sagst. Man muss sich mal entscheiden und im Endeffekt hängt ja sowieso alles nur von den Geldmitteln ab. Wer genügend Kohle hat kann sich nun eine 5870 kaufen und wenn der 300er schneller sein sollte, kann er sich diesen ja kaufen.

Wenn man mit der Warterei beginnt, nimmt diese leider kein Ende.


Würde beide Hersteller immer neue Grafikkarten Zeitgleich herausbringen würde es immer einen klaren Sieger geben und im Falle zweier schlechten Serien hintereinander würde das, dass aus für einen Hersteller bedeuten.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben