News Nvidia: GT300, DirectX11 und 55 nm

@ blackiwid
Du nutzt ATI unter Linux? Wie ist denn da aktuell der Stand der Dinge? Ehrlich gesagt ist die Tatsache, dass meine ausrangierten Zockerkarten immer in den Linuxrechner wandern, ein Grund, warum ich NV-Karten gekauft habe, da deren Linux-Treiber besser ist als der von ATI (aber nicht frei, das stimmt, und das ist ein Makel). Mit Fangirl-Gehabe hat das auch nichts zu tun; wie gesagt: Mir ist die Firma im Grunde egal ;)
 
OC_Master schrieb:
Ähm wie sieht es denn bei der Leistungsaufnahme von der 2xxxer zur 3xxxer Reihe aus???
Wie war's vom G80 zum G92?

Microarchitekt schrieb:
Die Transistoranzahl dürfte auf über geschätzte 2,1 Milliarden steigen.
Bezweifle ich, da Nvidia gesagt hat, dass der GT200 der letzte große Chip sein wird.
Genauso der Link, dass die HD5000 1200 Shader haben wird. Im selben Artikel ist auch von 480 Shader bei der HD4870 die Rede...
 
aha,die g92er sind betrug,aber die atikarten sind natürlich alle toll.
Man beachte besonders die 3650, da gibts ja den riesenunterschied zur 2600.

Hmlol man beachte den Shrink von 65 auf 55µ. Stromverbrauch, Leistungsuafnahme und Kühlung unterscheiden sich deutlich. Außerdem ist der Preis gut.

Was man von einer 65µ 8800GTS zur ehemaligen GTS nicht anhaftet...
 
Unyu schrieb:
Das die 8800GT und GTS nicht von Anfang an 9800 hießen, war ein Fehler, ja das hat allmählich jeder verstanden.

es war eben kein fehler,sondern volle Absicht, das ist ja das Problem.


gruß
 
Kihel schrieb:
@ blackiwid
Du nutzt ATI unter Linux? Wie ist denn da aktuell der Stand der Dinge?

ja muss man gesondert betrachten, alles bis zur x1000 reihe wird jetzt praktisch komplett unterstützt mit allen features, aiglx xv etc. Ab der nächsten ubuntu ^^.
Inclusive allen integrierten chipstätzen, bei den 690g boards kann man sogar beide digitalen ausgänge gleichzeitig nutzen wenn vorhanden das geht nicht mal unter windows ^^.

Aber bei der hd2/3/4 generation wird es noch eine weile dauern bis der knoten platzt. schätze so 6 Monate, kein xv kein aiglx kein 3d kein exa.
Aber da sind auch die ersten arbeiten am 3d part vorahnden. xv wird auch erst kommen wenn 3d funtzt, da das über die 3d einheiten in der generation läuft.
Tippe darauf das alle fehlenden features mit einem schlag kommen wenn 3d mal läuft.

Wenn du jetzt eine karte kaufst die du später (>6 monate) in deinen linux-pc stecken willst dann dürftest auf der richtigen seite sein.

Außer spielen ich weiß nicht in wiefern die 3d geschwindigkeit an die von den geschlossenen treibern ran kommt.

Die geschlossenen Treiber sind aber auch besser geworden aber dann kannst ja gleich nvidia kaufen wenn du das benutzen wolltest ^^.

Achja die offenen sind sehr stabil und gibt eigentlich keine probleme außer eben bei der neuesten generation hd2/3/4xxx generation fehlen halt noch einnige features wie weiter oben genauer erklärt.
 
AffenJack schrieb:
aha,die g92er sind betrug,aber die atikarten sind natürlich alle toll.
Man beachte besonders die 3650, da gibts ja den riesenunterschied zur 2600.
Bei beiden war die neue Serie einfaches Marketing und nix mehr, das ist zwar net toll, aber große unterschiede seh ich da nicht

Lies nochmal meinen Beitrag. Dann gib Dir bitte Mühe Ihn zu verstehen. Ob Du es verstanden hast, wirst Du daran sehen, dass Du merkst, dass ich nicht das gesagt habe, was Du mir vorwirfst. Also nochmal ran an meinen Beitrag.
 
Zuletzt bearbeitet:
@ blackiwid
Na, das liest sich ja durchaus gut. Beim nächsten Graka-Kauf könnte ATI dann ja wirklich ne Überlegung wert sein.:)
 
Sgt.Speirs schrieb:
Bezweifle ich, da Nvidia gesagt hat, dass der GT200 der letzte große Chip sein wird.
Genauso der Link, dass die HD5000 1200 Shader haben wird. Im selben Artikel ist auch von 480 Shader bei der HD4870 die Rede...


Hatte ich bei meinem Beitrag vergessen zu erwähnen. Ich bin da auch eher der Meinung, dass dieses Gerücht über einen GT300 wohl eher in den Bereich 'Kommt nie auf den Markt' gehört. Dies soll aber nicht heißen, dass bei Nvidia nicht doch über einen GT300 nachgedacht wurde. Konzepte zur Weiterentwicklung der Architektur wurden wahrscheinlich schon gemacht. Nur als man dann den GT200 hatte, dürfte ziemliche Ernüchterung eingekehrt sein. Wie du schon richtig anführst, hat Nvidia in der Vergangenheit den GT200 als letzten Dinosaurier bezeichnet. Daher auch mein Hinweis auf Stromaufnahme, Wärme und Kühlung. Ich denke Nvidia wird diesen Weg nicht mehr weiter verfolgen. Auch aus Kostengründen dürfte dieser Entwicklungspfad nicht mehr verfolgt werden. Der GT200 ist sehr teuer in der Herstellung und man bekommt anscheinend nicht genug geeignete Chips aus dem Wafer. Gegenüber ATI wäre man damit immer in einem Hintertreffen bei den Endkundenpreisen. Die Strategie des GT200 wäre sicherlich aufgegangen, wenn er mindestens doppelt so schnell gewesen wäre wie die schnellste Ein-Chip-Karte von ATI. Dann hätte sich die Weiterentwicklung zum GT300 eventuell gelohnt. So müssen sie jetzt bei Nvidia möglichst schnell eine Lösung entwerfen, die vergleichbar dem RV770 oder RV870 ist.


Wobei der RV870 in der möglichen HD5xx0-Serie durchaus 1200 Shader haben könnte. Beim RV770 konnte ATI die Anzahl immerhin schon auf 800 Shader hochschrauben.
 
Ich glaub net das dieses Jahr noch ne Directx11 Karte auf den Markt kommt.
Directx 11 soll ja für Vista und Windows 7 kommen und wird im August vorgestellt.
Wann es denn aber fertig wird, keine Ahnung, bin kein Hellseher ^^
 
ww2warlord schrieb:
@ Affenjack, das Teil ist übertaktet...

jup, sonst würden beide sogar ziemlich gleichschnell sein.
Dann wäre zwar auch der stromverbrauch nen stück niedriger, aber rechtfertigt dass dann sone namensänderung?denn deutlich würde der unterschied noch nicht werden.

Bloodie24 schrieb:
Lies nochmal meinen Beitrag. Dann gib Dir bitte Mühe Ihn zu verstehen. Ob Du es verstanden hast, wirst Du daran sehen, dass Du merkst, dass ich nicht das gesagt habe, was Du mir vorwirfst. Also nochmal ran an meinen Beitrag.

Ok,sry ich habs in deinen beitrag ewas hineininterpretiert weil der tenor der meisten user hier ist nv betrügt und ist böse, während ati die nette firma ist, die nur gutes für uns will
 
ww2warlord schrieb:
Hmlol man beachte den Shrink von 65 auf 55µ. Stromverbrauch, Leistungsuafnahme und Kühlung unterscheiden sich deutlich. Außerdem ist der Preis gut.

Was man von einer 65µ 8800GTS zur ehemaligen GTS nicht anhaftet...
Bitte was? Die Leistungsaufnahme ist natürlich auch zurückgegangen. Von der gestiegenen Leistung gar nicht zu sprechen.

Weiß gar nicht, wieso hier manche so auf Nvidia rumhacken. Wenn man keine Konkurrenz hat, kann man nunmal die Preise einigermaßen bestimmen. Vor geraumer Zeit war noch AMD/ATI der Sündenbock...

Zum GT200: Eigentlich ist die Karte ziemlich gelungen. Der einzige Nachteil ist, dass sie so teuer bei der Herstellung ist.
 
Gott das ist ja ein geflame hier.Fakt ist das beide Hersteller gute Karten bauen.Der Unterschied liegt aber in der Software den Nvidia scheint nach wie vor nicht in der Lage zu sein gravierende Bugs aus ihren Treibern zu entfernen grade unter Vista ist das echt auffällig.Fakt ist wer Vista einsetzt sollte besser zu einer Ati greifen den deren Vista Treiber sind trotz gegenteiliger Behauptungen der Fanboys hier im Forum deutlich besser als die von Nvidia.
 
xxxx schrieb:
Fakt ist wer Vista einsetzt sollte besser zu einer Ati greifen den deren Vista Treiber sind trotz gegenteiliger Behauptungen der Fanboys hier im Forum deutlich besser als die von Nvidia.

Bei Vista nur ATI? was ein Blech... Für mich ist ein Treiber gut, wenn ich damit meine Anwendungen sauber und flüssig spielen kann. Und das kann ich mit den Treibern.. Warum sollen die anderen nun besser sein?

Das beide Hersteller gute Karten haben, kann ich absolut bestätigen. Ich hatte auch schon mal an anderer Stelle geschrieben, wer in meinem Rechner steckt, ob Nvidia oder ATI, is mir egal... Hauptsache Speed!


SPAWNI
 
ich wollt nochmal kurz was zu cuda schreiben.

M$ ist dafür bekannt, keine anderen "götter" neben sich zu dulden.

falls etwas mit zu erwartender markrelevanz entwickelt wird, integriert es M$ in windows um konkurrenz loszuwerden.

das klappt manchmal, manchmal tun sie sich damit schwer.

jedernfalls hat sich M$ mit dx11 wohl cuda vorgenommen, oder besser gesagt, sie machen eine M$ alternative.
mit dx11 wird der direkt zugriff auf die gpu möglich. man braucht also kein cuda von nvidia mehr.

und nun sollte sich jeder fragen, wie die programmierer reagieren werden.
es ist kaum zu glauben, dass dann noch cuda als "nvidiaexlusiv" verwendet wird, sondern es ist stark zu erwarten, dass die programmierer sich an den M$ standard halten werden, da hier alle gpus benutzt werden können. und nicht nur welche der firma nvidia.

es hat wohl einen grund, warum nvidia amd cuda umsonst angeboten hat und amd dankend abgeleht hat.

M$ setzt den neuen standard und nvidias soloexperiment wird relativ bedeutungslos werden.

ich glaube kaum, dass sich nvidia gegen nen M$ standard, der für alle gpus nutzbar sein wird, durchsetzen kann.

http://www.pcgames.de/aid,647007/Erste_Details_zu_DirectX_11_im_August_2008/

auch wenns provokant ist, aber mit einigen nachdenken kann man zu dem schluß kommen, dass cuda jetzt schon tot ist, bevor es überhaupt mal marktbedeutung erreicht.

M$ mag es eben nicht, wenn man denen ins "handwerk" pfuscht.
 
Kihel schrieb:
@ blackiwid
Na, das liest sich ja durchaus gut. Beim nächsten Graka-Kauf könnte ATI dann ja wirklich ne Überlegung wert sein.:)

Ja muss da noch eine einschränkung machen, powerplay tut mit den offenen treibern auch nicht, hoffe das sie das als erstes fixen, hatte übrigends selbst mit dem geschlossenen treiber und dem oc modell von gecube (3870) kein glück. Habe aber gegenteiliges über den treiber gehört, daher denke ich das es an dem overclock-modell lag. Allerdings lief das mit dem normalen catalyst treiber unter windows sehr wohl. hatte dann so 45W mehr verbrauch unter linux.
Allerdings haben die nvidia karten ja keinen solchen modus, von daher wäre das wohl kein nachteil gegenüber nvidia.

Microarchitekt schrieb:
Wobei der RV870 in der möglichen HD5xx0-Serie durchaus 1200 Shader haben könnte. Beim RV770 konnte ATI die Anzahl immerhin schon auf 800 Shader hochschrauben.

Die gerüchteküche spricht von 1800 shadern nicht nur 1200. von der 3 auf 4er generation hat sich die shaderanzahl ja auch mehr als verdoppelt daher halte ich diese zahl auch für realistischer.

Sgt.Speirs schrieb:
Weiß gar nicht, wieso hier manche so auf Nvidia rumhacken. Wenn man keine Konkurrenz hat, kann man nunmal die Preise einigermaßen bestimmen. Vor geraumer Zeit war noch AMD/ATI der Sündenbock...

Zum GT200: Eigentlich ist die Karte ziemlich gelungen. Der einzige Nachteil ist, dass sie so teuer bei der Herstellung ist.

Ja stimme dir ja eigentlich ein bischen zu, ich meine für nvidai ist die karte ein flopp, aber für uns käufer ist sie bei den preisnachlässen bald eine alternative. Wobei man da nochmal genauer schauen muss, sie ist ja vorallem so gefloppt weil sie nochmal 150,- teurer war (die gtx280) und zu dem preis war sie ein totales nogo.

Aber um dir mal nahe zu bringen warum hier einige vielleicht mich einbezogen amd-fanboys (ich mochte ati nie aber mochte amd auch immer ^^) sehr arg über nvidia herziehen, sie (wir) mussten uns jetzt auch ein jahr lang anhören das amd ja bald konkurs gehen würde und das amd doch so scheisse sei und was weiß ich nicht, das platzt jetzt nach diesem befreihungsschlag natürlich raus und da kann man die schadenfreude einfach nicht mehr verbergen.
 
@spawngold nur leider ist das bei weitem nicht bei jedem möglich ich zum Beispiel hatte extreme Probleme die sich nur durch einen Austausch des Rams gegen eine andere Marke beheben ließen.Dazu noch die Tatsache das die Vista Treiber bis zuletzt meinen Fernseher nicht korrekt erkannt haben (bei Ati ging es nur mit dem Hotfix Treiber nicht der 8.7 Beta hat ihn dann korrekt erkannt) die Xp Treiber aber schon von diversen Abstürzen/Bildfehlern grad in Dx10 Anwendungen ganz zu schweigen.
 
Zuletzt bearbeitet:
Ich habe von den letzten Seiten das Schlimmste aussortiert. Es kann nicht sein, was sich einige hier rausnehmen. Und wir werden das hier nicht dulden. Weitere Flames, Beleidigungen und überflüssiges Gespamme, gerade von den üblichen Verdächtigen, zieht mit einiger Wahrscheinlichkeit empfindliche Strafen nach sich. Schlimm genug, dass jeder Thread über Grafikkarten mittlerweile derart affig ausartet.
 
AffenJack schrieb:
@ Desoxyribo
dafür kann mans nur auf windows anwenden, während cuda auch auf andern betriebssystemen läuft, welche in der wissenschaft öfter verwendet werden als windows

die miesten basieren auf Windows2000/XP, das sehe ic selber hier an der ETH Zürich, eine der wichtigsten und besten unis und in allen laboren usw wird entweder XP oder Windows2000 verwendet, diese geraten aber in die jahre drum glaube ich das die dann auf Windows 7 umgerüstet werden, denn die ETH hat schon gesagt dass die gesamte technische abteilung spätestens 2010 neue computer & server erhalten wird, Microsoft hat Windows7 für 2009 angekündigt, aber so wie wir alle microsoft kennen wirds 2010. Desweiteren wird Microsoft sicherlich auch darüber nachgedacht haben und diesen teil vom DirectX11 auch auf anderen betriebssystemen. Aber lassen wir uns überraschen.

Greetz
 
Zurück
Oben