News Nvidia: GT300, DirectX11 und 55 nm

naja, Nvidia bewirkt mit ihrer arroganten und kundenunfreundlichen marketinstrategie net grad wohlwollen...

bestes beispiel die GF9 abzocke mit angelicher 90% leistungssteigerung, oder die megaabzocke des GTX reihe,die versucht wurde exorbitant überteuert zu verkaufen, wie man am preisverfall gut sehen kann. dazu kommen diverse aussagen gegen intel und vor allem ATI, und die großkotzerei.


gruß
 
Wieder so ein gutes Beispiel.
Du weißt so gut wie ich, das die GF9 exakt so teuer, wie die GF8 war. (gibt ja bisher nur 3 GF9 + die GX2, andere GF9 kommen in 2 Tagen)
Genauso gut kann man die HD3 als Abzocke hinstellen. Sind doch alles Müll, diese Behauptungen.
Oder die GTX? Ja nennt sich Preisverfall. Aber manch einer efreut sich eben, wenn IHV-1 die neuen Namen schnell durchpeitscht, während IHV-2 1/2 Jahr dafür braucht, während IHV-2 schon längst beim durchpeitschen der wieder neuen Namen sitzt.
Wer es nicht abwarten konnte und geglaubt hat, das die GTX nicht im Preis fällt ist selbst schuld. Alle anderen, die zugegriffen haben, weil sie sie brauchten stört dieser Preisverfall kein Stück weit.

Da macht das Wörtchen "arrogant", "kundenunfreundlich" einfach null Sinn und dient allein dem Zweck des bashens.
 
Zuletzt bearbeitet:
Also wegen Arroganz gibt es ne ganze Menge zu hören.

In der Verganenheit meinte Nvidia, dass niemand außer den Briten mehr über ATi reden würde und auch fragte, wem ATi noch kümmert.

Dann kommen diese dämlichen Flamewars mit Intel.

Darüber hinaus versucht Nvidia oft den Kunden zu verarschen. Geilste Abzocke ist die Umbenenneung der 8800GT in 9800GT. Wobei der Name einen Geschwindigkeitsschub bringen sollte, dies aber nicht macht. Ich denke, dass ist schonmal ein wichtiges Kriterium beim Kauf der Hardware.
 
Unyu schrieb:
Du weißt so gut wie ich, das die GF9 exakt so teuer, wie die GF8 war.

Lies Dir das CB Fazit zum Test der 9800 GTX durch. Preis-Leistung wesentlich schlechter als bei der 88er Serie. Die ganze 9er Serie ist nur rausgekommen, um den weniger belesenen Kunden eine neue Generation vorzutäuschen und das Geld aus der Tasche zu ziehen.

Die HD 3xxx unterscheid sich stark von der 2xxx Serie. Leistungsaufnahme, Speicherinterface.... da ist eine neue Produktreihe gerechtfertigt.
 
G80 war mit der 9800GTX schon lange EOL, im Laden gabs nur noch Reste.
Die 9800GTX war minimal teurer als diese Reste. (nein am 1. Tag nach Launch nicht, da sind die Preise immer etwas zu hoch)
Unterschied wie von dir (Bloodie24) bei der HD3 aufgezält: SI, Verbrauch, Hybrid Power, VP2, PCIe 2.0

Die 9600GT war weitaus besser als die 8600GTS (Preis/Leistung).
Die 9600GSO war exakt so teuer wie die 8800GS.

Anhand dieser 3 Karten will man jetzt sagen: IHV-1 darf das, IHV-2 nicht?
IHV-1 darf einen Dieshrink einem neuen Namen geben, IHV-2 nicht?

Das führ wohl zu nix.

ww2warlord schrieb:
In der Verganenheit meinte Nvidia, dass niemand außer den Briten mehr über ATi reden würde und auch fragte, wem ATi noch kümmert.
Stimmt, das ist normales Konkurrenzdenken.
Man muss seinen Gegner kleinreden.
 
Zuletzt bearbeitet:
unyu,du kannst die HD3 serie net als billigen refresh der HD2 serie sehn... die GF9 serie war ein billiger refresh der GF8 serie (mit ausnahme der 9600).

und sie ist wirklcih nur erschienen, unter neuem namen, um kunden zu verarschen, die keine ahnung haben,und das sind 90%. und alles weiter was ich sagte kannst du auch nicht widerlegen,wo hab ich also müll geschrieben?


gruß
 
Wenn Hardware nicht das hält, was sie verspricht, kauft man sie nicht. Wenn eine Firma wirklich Kundenverarschung betreibt, kann man sich mit diesem Mittel prima helfen. Übrigens ist es ja nicht so, als ob NV bei jeder neuen Reihe nur den Namen ändert und die Kunden abzocken will...
Ich würde mir einfach wünschen, dass die Leute mal auf dem Teppich bleiben und nicht gleich so tun, als müsste man mit NV den Teufel persönlich austreiben, und zwar mit dem heiligen AMD. Das ist imho doch etwas übertrieben. Letztendlich wollen alle nur unser Bestes - und das ist unser Geld. Und wenn euch etwas nicht zusagt, dann kauft es doch einfach nicht.
 
Zuletzt bearbeitet:
Schinzie
Ich weiß nicht, wo du die 90% rausgekramt hast, deshalb kann ich dazu nichts schreiben.

Die HD3 ist kein Refresh. Was dann?
 
Ich weiß ja nicht, was dieser angebliche GT300 soll. Nach der Meldung ist dies wohl nur ein weiteres aufbohren des GT200. Von 240 Shader-Einheiten auf 384 oder in der Region. Selbst mit 45 nm oder später 40 nm Fertigung dürfte der Chip wieder bei der Grösse im Bereich des GT200 liegen. Die Transistoranzahl dürfte auf über geschätzte 2,1 Milliarden steigen. Wie will man dabei die Stromversorgung auf dem Chip sicher stellen? Noch mehr Kontakte für die Stromversorgung auf der Platine? Eine Verbesserung der Wärmeabgabe und damit eine bessere und leisere Kühlung kann man dann wohl auch vergessen.

Bei 45 oder 40 nm solltest ihr bedenken, dass dies eine Reduktion von rund 11 Prozent ist. Durch die kleineren Zahlen im Verhältnis zu 120 oder 90 nm Verfahren und deren Reduktion, kommen einem die nominellen Zahlen irgendwie nicht besonders vor beim Fortschritt der Fertigungstechnik. Und die 18 Prozent von 55 nm auf 45 nm werden beide sicherlich ausnutzen, wenn die Technik schon bereit steht. Da noch mal bis mindestens erstes Quartal 2009 warten, um dann direkt von 55 nm auf 40 nm zu wechseln, könnte sich auch als Fehler heraus stellen. Wer kann sagen, dass TSMC bis dahin das 40 nm Verfahren im Griff hat?
 
@ Unyu du rechtfertigst aber auch alles, was Nvidia so treibt oder?

Auha nein - meinen Beitrag hast du unkommentiert gelassen oder ignorierst du mich schon?

Jep ist so, zum Glück ist da die 3870 auch gleich eine rissen Kundenverarschung da die auch nicht schneller ist als eine 2900XT ROLFT

Lächerlich, total lächerlich. Der RV670 ist mehr, als nur ein simpler Die-Shrink zur R600-Architektur... du solltest dir mal die Tests und die Excourse zur Architektur durchlesen bevor du hirnverbrandten Stuss von dir gibst...
 
kein billiger refresh sagte ich.

die 90% waren in den printmedien zu lesen, nicht nur von XFX. ob nun die exklusivpartner von Nvidia diese verarsche betreiben oder nvidia selbst,die das anscheinend fördern ist mir wurst.

gruß
 
digger66a schrieb:
Wie kommts du denn darauf?
tsmc produziert bereits seit mitte 2007 in 45nm

Zwischen "produziert bereits sowas in der Größe" und "ist in der Lage hundertausende von 45/40nm Graphikchips (die so ziemlich das aufwändigste sind das man bauen kann) pro Monat kostengünstig zu produzieren" liegen meist Jahre. Derzeit werden nur Sun-Chips von TSMC in 45nm gebaut, und das erst seit kurzem, die VIA-Chips (Nano) kommen zB frühestens zweites Quartal 2009 - und das sind beides sehr viel simplere Designs.
 
Microarchitekt schrieb:
Die Transistoranzahl dürfte auf über geschätzte 2,1 Milliarden steigen.
Aber nur, wenn der GPGPU Teil auch entsprechend wächst.
Das macht dann ~ 441mm² bei 2,1 Milliarden Transistoren in 45nm.

Oder man kümmert sich nicht ganz so um GPGPU, dann wirds noch kleiner. Oder noch weniger, wenn man dank AF-Tricks TMUs sparen kann. (das währe wohl das Schlimmste, aber es wird leider so kommen)

Schinzie schrieb:
die 90% waren in den printmedien zu lesen
Dann kannst du mir ja sicher ein Bild zeigen.
 
Zuletzt bearbeitet:
hört auf mit DrectX11 zu argumentieren. nVidia wird solange wie möglich bei DirectX10 bleiben um CUDA zu retten, da bei DirectX11 eine direktanbindung zur GPU besteht was den tot von CUDA zur folge hat.

@Unyu: witzbold:)

Greetz
 
Unyu schrieb:
G80 war mit der 9800GTX schon lange EOL, im Laden gabs nur noch Reste.
Die 9800GTX war minimal teurer als diese Reste. (nein am 1. Tag nach Launch nicht, da sind die Preise immer etwas zu hoch)

Die G80 war vielleicht am auslaufen,aber die G92er gibts immer noch und der Unterscheid war marginal und dabei eine neue Generation vorzutäuschen riecht nach Betrug am unwissenden Kunden. Aber wir wissen ja, dass Du niemals objektiv sein wirst, was Nvidia angeht, also lassen wirs dabei.

Unyu schrieb:
Dann kannst du mir ja sicher ein Bild zeigen.

Dass 90% keine Ahnung haben, sieht man daran, wieviele Leute Komplett-PCs kaufen und wieviele sich selbst den PC zusammenstellen. Ansonsten mach mal eine kleine Umfrage unter Bekannten, Arbeitskollegen. Ich arbeite im technischen Support und was meinst Du wieviel Prozent dabei auf die Frage, womit Sie ins Internet gehen sagen: "Google" .
 
Zuletzt bearbeitet:
@Unyu

Ähm wie sieht es denn bei der Leistungsaufnahme von der 2xxxer zur 3xxxer Reihe aus???
Die Leistung war zwar nicht der Hammer aber immerhin besser mit AA und AF.
Naja Schinzie hat recht. Die 9er Serie bis auf die 9600GT war ein Flopp. Kein Leistungszuwachs und am Anfang teurer.

Also Unyu wo ist dein Problem?

Mfg OC_Master
 
FreeZer_ schrieb:
@blackiwid

Den ersten Zweikerner gabs von Intel, nicht von AMD

Was das P/L betrifft, ist Intel doch top. Für 35€ nen E2180 den man locker auf 2x 2.8GHz kriegt, oft auch auf 3GHz

ich hab nicht behauptet das der erste 2 kerner von amd war, ich hab nur drauf hin gewießen das die dualcores von amd am anfang mal kurze zeit recht teuer waren (>200,-). und wollte damit mein eigenes argument bischen relativieren das amd immer nur gute preis- leistung bietet.

Kihel schrieb:
@ blackiwid
Danke für die Antwort. Also lag ich mit meinem "AMD/ATI ist kleiner" doch nicht ganz so falsch - zumindest was die Marktanteile angeht...
Sicher ist das Verhalten von AMD, so wie du es beschreibst, in diesen Punkten besser als das von Intel und NV, das stimmt schon. Ich persönlich gehe aber bei meiner Wahl immer danach, was am besten zu meinen Bedürfnissen passt, und das ist eine ganzheitliche Betrachtung. Und es kann von Kauf zu Kauf etwas anderes sein. Ich bin auf überhaupt keine Firma von vornherein festegelegt.

gern geschehen, mach ich änlich, aber ich höre auch zustätzlich auf meine erfahrung, damals wurde kurze zeit auch die p4 sehr gelobt, (oder hab ich mir das damals nur eingebildet ^^) hab mir auf jeden fall so ein ding mal gekauft, seit dem bin ich von tollen leistungsversprechen von intel geheilt ^^. hab damals wasserkühlung angeschaft und anderen mist. Weil ich dachte das in zukunft alle pcs solche heizkraftwerke sein werden.

Und wenn man genau hinschaut und eben den pc höchstens zum spielen benutzt reicht halt ein amd meistens auch aus und wenn man dann mal die mainboards noch mit in vergleich einbezieht dann sind amd systeme meistens besser und billiger und haben besseren idle-stromverbrauch. (rede hier vom x2, der phenom ist sicher auch interessant wenn man den pc nicht rund um die uhr an lässt, aber da werde ich schon noch auf den shrink warten deneb oder wie der heißt)

Bei grafikkarten hab ich ja schon ein paar gründe genannt, mach das nicht aus irgendwelchen fanboy-gründen. Bevor amd verkündet hat das sie die spezificationen der karten freigeben wollen, war ich bei grafikkarten nvidia fan-"boy". Da die geschlossenen treiber von ati damals total unbrauchbar waren und heute naja halbwegs ok aber auch nicht wirklich der brüller sind.

Wobei es mir da eher um freiheit geht. Ich will mir nicht von amd oder nvidia vorschreiben lassen wann ich meinen xserver oder meinen kernel updaten darf.
Und ich will auch nicht ein jahr lang drauf warten müssen bis feature-xy mal von einer der firmen unterstützt wird.
Außerdem will ich dann auch nicht plötzlich feature-xy nicht mehr für meine karte kriegen weil sie ein paar jahre alt ist und der hersteller dann vielleicht nur noch das feature für die neuen karten programmiert.

Zu guter letzt, was für die meisten wohl der punkt ist haben die neuen karten schon ab 38xx, aber noch mehr mit der 48xx generation, einfach deutlich besseres preis-/leistungsverhältnis und dazu (wenn powerplay mal funtzt) weniger stromaufnahme. Leistung reichen beide wohl, höchstens für crysis, aber das spiel fand ich eh nicht so der brüller.

ww2warlord schrieb:
Also wegen Arroganz gibt es ne ganze Menge zu hören.

In der Verganenheit meinte Nvidia, dass niemand außer den Briten mehr über ATi reden würde und auch fragte, wem ATi noch kümmert.

Dann kommen diese dämlichen Flamewars mit Intel.

Darüber hinaus versucht Nvidia oft den Kunden zu verarschen. Geilste Abzocke ist die Umbenenneung der 8800GT in 9800GT. Wobei der Name einen Geschwindigkeitsschub bringen sollte, dies aber nicht macht. Ich denke, dass ist schonmal ein wichtiges Kriterium beim Kauf der Hardware.

Danke das du nochmal ein paar Argumente von mir Aufgreifst oder unabhängig von mir nochmal sauber aufschreibst, hab es vielleicht nicht ganz so schön formuliert und es ist unter den vielen rechtschreibfehlern (versuch mich zu bessern ^^) untergegangen.

Dural schrieb:
Jep ist so, zum Glück ist da die 3870 auch gleich eine rissen Kundenverarschung da die auch nicht schneller ist als eine 2900XT ROLFT

schau dir mal nen benchmark an und schau bei qualitätseinstellungen ob dort die 3870 schneller ist oder nicht.

Unyu schrieb:
Schinzie
Ich weiß nicht, wo du die 90% rausgekramt hast, deshalb kann ich dazu nichts schreiben.

Die HD3 ist kein Refresh. Was dann?

Ja ist ein refresh, ein shrink rechtfertigt sehr wohl eine neue versionsnummer. wobei ja nicht nur 1:1 geshrinkt wurde sondern auch mehr shader etc powerplay etc.

Das war ja bei der gf6 -> gf7 das selbe. Aber ohne ein shrink und ohne architectureänderung was hat sich dann überhaupt geändert außer der name und 10mhz mehr?
 
Zuletzt bearbeitet:
Die 9800GTX ist kommplett anders als die 8800GTX. Ja auch ein Shrink! Also ist doch ok, siehe HD3.
Das die 8800GT und GTS nicht von Anfang an 9800 hießen, war ein Fehler, ja das hat allmählich jeder verstanden.
 
Desoxyribo schrieb:
hört auf mit DrectX11 zu argumentieren. nVidia wird solange wie möglich bei DirectX10 bleiben um CUDA zu retten, da bei DirectX11 eine direktanbindung zur GPU besteht was den tot von CUDA zur folge hat.
Greetz

hmm da musst du ja mehr über dx11 wissen als jeder andere hier, wenn du das meinst.
denn noch ist überhaupt nicht klar was mit dx11 möglich sein wird.
Wahrscheinlich wird Physix etc über dx11 laufen, aber Cuda ist dann noch lange nicht tot.
Denn ich glaube nicht, dass verschiedene wissenschaftliche Programme etc über dx laufen werden. Das wird alles weiter über Cuda laufen.
NV wird schnellstmöglich auf dx11 wechseln und bei ati wirds dann sicher auch nicht solange dauern.Würde Ende 2009/anfang 2010 auf jeden fall dx11-karten erwarten.


Bloodie24 schrieb:
Die G80 war vielleicht am auslaufen,aber die G92er gibts immer noch und der Unterscheid war marginal und dabei eine neue Generation vorzutäuschen riecht nach Betrug am unwissenden Kunden. Aber wir wissen ja, dass Du niemals objektiv sein wirst, was Nvidia angeht, also lassen wirs dabei.

aha,die g92er sind betrug,aber die atikarten sind natürlich alle toll.
Man beachte besonders die 3650, da gibts ja den riesenunterschied zur 2600.
Bei beiden war die neue Serie einfaches Marketing und nix mehr, das ist zwar net toll, aber große unterschiede seh ich da nicht

Ich bin zwar auch eher ati zugeneigt, aber euer nv-bashing geht einem mittlerweile echt aufn sack, in jedem thread das gleiche theater.
Da sind ja immo sogar außnahmsweise die nv-fanboys angenehmer.
 
Zuletzt bearbeitet:
AffenJack schrieb:
hmm da musst du ja mehr über dx11 wissen als jeder andere hier, wenn du das meinst.
denn noch ist überhaupt nicht klar was mit dx11 möglich sein wird.
Wahrscheinlich wird Physix etc über dx11 laufen, aber Cuda ist dann noch lange nicht tot.
Denn ich glaube nicht, dass verschiedene wissenschaftliche Programme etc über dx laufen werden. Das wird alles weiter über Cuda laufen.
NV wird schnellstmöglich auf dx11 wechseln und bei ati wirds dann sicher auch nicht solange dauern.Würde Ende 2009/anfang 2010 auf jeden fall dx11-karten erwarten.

stand glaube ich letztens in ner news, weiss nich obs hier war oder in einem anderen forum. Microsoft integriert bei DirectX11 eine direktanbindung an die GPU, also das gleiche prinzip wie CUDA, aber es ist sowohl auf nVidia karten als auch auf ATI karten möglich. ATI hat ja CUDA dankend abgelehnt, obwohl nVidia es ihnen sehr günstig angeboten hat. Wenn jetzt programme mit CUDA programmiert werden, muss man davon ausgehen das die anwender eine nVidia karte haben, das schränkt also die potenziellen kunden schonmal ein. Wenn man hingegen mit Microsofts pendant programmiert, muss man erstens keine neue programmiersprache erlernen, sofern man schon für windows programmieren kann und zweitens kann es auf jedem beliebigem GPU angewendet werden, also ist der kunde nicht gezwungen für eine anwendung eine spezifische karte zu kaufen.

dann kommt noch das problem mit dem programmieren selber: CUDA ist zwar ähnlich, aber nicht gleich wie C++, das unterschätzen hier viele. Microsoft bleibt dagegen bei seinem standart. Und allein schon der name Microsoft hat eine stellung das die meisten unternehmen eher zu microsoft tendieren werden und nicht zu nVidia.

Greetz
 
Zurück
Oben