News AMD bei TSMC weiterhin nur zweite Garde?

Fantom schrieb:
ATI hat von Nvidia nichts zu befürchten weil das Geld mit Mittelklassekarten gemacht wird und NV wird da die nächsten Monate nichts rausbringen.
Du hast das News-Posting gelesen?

"Angeblich" hat sich NVidia GIGANTISCHE Mengen an Wafern für die Mittelklassechips reserviert (die dann in 2 Monaten kommen -> GF104/106).

Da AMD keine Grafikkarten produzieren kann (weil die "angeblich" zu spät bestellt haben), wird es in 2 Monaten fast ausschließlich NVidia-Grafikkarten geben (das erscheint mir auch aktuell schon so).

Da es insgesamt eine riesen Wirtschaftserholung gibt, WIRD der Endkunde irgendeine Grafikkarte kaufen. Im Zweifel ganz einfach die einzigste, die zu bekommen ist. Der Melung nach, werden das "angeblich" fast nur NVidia-Karten sein.

-------------------------------

Und damit siehts dann aus wie schon öfters. ATI hatte die besseren Ingenieure, aber NVidia die besseren BWLer. NVidia baut einfach 5x mehr schlechte Produkte, wie AMD gute und macht alleine wegen der ENORMEN Menge (Fixkostendeckung) ENORME Gewinne.

AMD = technologischer Gewinner
NVidia = Wirtschaftlicher Gewinner

Was nützt es, die besten Grafikchips zu erfinden, wenn man es versäumt, diese auch in Produktion zu geben?
 
Ich seh keinen wirklichen Nachteil für AMD. Ob die jetzt viele Grafikkarten verkaufen für wenig Geld oder weniger Grafikkarten für viel Geld, das dürfte denen Egal sein. Dumm läuft es eigentlich hauptsächlich für den Endkunden, der sich für aktuelle Grafikkarten dumm und dämlich zahlen muss. Mir ist das ganze zu teuer im mom. zu Zeiten der HD48XX Serie, bekam man für wenig Geld richtig geile Karten.

P.S. Jetzt nochmal eine kleine Verschwörungstheorie ... AMD und nVidia haben wieder eine Preisabsprache wie schonmal vor ein paar Jahren abgehalten. Die Preise möchte man absichtlich oben halten, dank geringer Verfügbarkeit zahlt der Kunde den hohen Preis für die Karten und soooooo wenige GPUs verkauft AMD / ATI garnicht. Da geht schon was.
 
Eusterw schrieb:
Und damit siehts dann aus wie schon öfters. ATI hatte die besseren Ingenieure, aber NVidia die besseren BWLer. NVidia baut einfach 5x mehr schlechte Produkte, wie AMD gute und macht alleine wegen der ENORMEN Menge (Fixkostendeckung) ENORME Gewinne.

AMD = technologischer Gewinner
NVidia = Wirtschaftlicher Gewinner

Was nützt es, die besten Grafikchips zu erfinden, wenn man es versäumt, diese auch in Produktion zu geben?

Naja das ist so eigentlich nicht richtig, technologisch ist der Nvidia Chip deutlich überlegen, die Karte kann theoretisch so viele tolle sachen die leider keine Sau braucht :p
AMD hat seine 4xxx Serie, die grundsolide Leistung bringt überarbeitet und verbessert.

Jetzt kommt aber der Punkt das TSMC mit dem 40nm Prozess total überfordert ist, und damit die Nvidia Karte zu heiß, zu laut und zu teuer wird. Und somit die AMD Produkte einfach sinnvoller sind.

Egal ob man Nvidia oder AMD Fanboy ist, man muss einfach einsehn das die AMD Karten aktuell überlegen sind. Ich kann mir aber gut vorstellen das sich das mit der 2. Generation des G100 wieder ändert.

Nvidia wollte mit dem G100 einfach zuviel auf einmal...!
 
@Eusterw: Für die HD4670 habe ich ca. 70€ bezahlt. Genau wie für die HD5670. Auch die anderen Karten darunter gliedern sich in ähnliche Bereiche ein, wie die Vorgänger. Der Engpass ist hauptsächlich bei den High-End Karten bzw Performance Karten zu beobachten.
 
Ja leider das ist das Problem, wenn ich bedenke meine 4870X2 hab ich für 360€ bekommen und die 5970 ist leider nicht unter 547€ zu bekommen, gut das die X2 noch momentan alles bändigen kann, was ich Spiele, und biss Crysis 2 tut sich hoffentlich was mit den Preisen sonnst bleibt die x2 noch viel länger.
 
Wums schrieb:
Egal ob man Nvidia oder AMD Fanboy ist, man muss einfach einsehn das die AMD Karten aktuell überlegen sind. Ich kann mir aber gut vorstellen das sich das mit der 2. Generation des G100 wieder ändert.

Bei allem unter einer HD 5850 ist das logisch, weil nVidia einfach nichts anzubieten hat in den unteren Preissegmenten. Bzgl. HD 5850 / HD 5870 fasse ich das aber als schlechten Scherz auf. Wer im Moment statt einer GTX 470 eine HD 5870 kauft, verzichtet auf:

- PhysX (freue mich schon aufs Gejammere, wenn einige bald feststellen dürfen, dass Mafia II nicht mit vollen Details laufen wird)
- flimmer-, banding, Bugwellen- und cheatfreies HQ-AF (hier ist die AF-Cheaterei umfangreich dokumentiert: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482069)
- 1280 statt 1024 MB VRAM
- SGSSAA in DX 10 und 11
- eine haushoch überlegene Geometrie- und damit Tesselationsleistung

Dafür zahlt man dann auch noch 60 € mehr (GTX 470: lieferbar ab 295 €, HD 5870: ab 355 €). Wirklich grandiose Überlegenheit. Aber hey, die HD 5870 verbraucht im Idle (also zu 90 % Nutzzeit) ja 10 Watt weniger. Nach 50 Jahren Nutzung hat man dann ja evtl. sogar den Mehrpreis beim Einkauf wieder wett gemacht.
 
@Feyn

Der wirtschaftliche Erfolg gibt AMD/ATI Recht. Noch immer ist die Verfügbarkeit des Cypress sehr schlecht (u.a. aus den im Artikel genannten Gründen), somit sind die vergleichsweise hohen Preise also gerechtfertigt.

Die Fermis hingegen liegen trotz z.T. niedrigeren Preisen wie Blei in den Regalen der Händler.

Bleibt zu hoffen, dass sich Nvidia nicht an den bei TSMC reservierten Kapazitäten "verschluckt".
 
@Feyn: war geniales SGSSAA nicht ein Feature der HD5k Serie?
der VRam unterschied wirkt sich nicht in der Realität aus, da die HD 5k Serie damit sehr effizient umgeht

der Vollständigkeit halber verzichtet man auch auf
- einen Tinitus, da die HD 5870 ganze 8dB leiser ist unter Last, als die GTX 470 (Test)
- eine horrende Stromrechnung (10W im Idle und 71W unter Last Mehrverbrauch im Vergleich zur HD5870)
-10% weniger Leistung, wenn Tesselation nicht sehr stark integriert ist (was quasi nie sein wird, da die Softwareschmieden wollen, dass die Titel auf möglichst vielen Grafikkarten gut laufen
- Treiber, die die Lüftersteuerung so durcheinander bringen und dafür sorgen, dass die Grafikkarten kaputt gehen

wenn man eine Grafikkarte schlecht machen will, dann schafft man das auch.
Das gesamtpaket ist momentan bei AMD besser
 
Zuletzt bearbeitet:
Die Karten von AMD sind ja auch nicht schlecht. Gerade im Bereich, wo am meisten verkauft wird, irgendwo im Bereich 50 bis 150 €, hat nVidia auch nach wie vor nichts zu bieten. Ändert aber an den genannten Fakten nichts. Wenn ich 300 € und mehr für eine Gamerkarte ausgebe, dann will ich bei Mafia II alle Regler nach rechts schieben dürfen und keine Kompromisse eingehen müssen und ich will mich auch nicht über eine niedrigere AF-Qualität aufregen müssen, als theoretisch möglich wäre. Alle anderen Vorteile, die ich oben nannte, nehme ich natürlich auch gerne mit.
 
@Feyn

Mal ehrlich, wer kauft sich denn ne 470 im Referenzdesign? Da kann ich mir auch nen Rasenmäher in den Rechner stellen, und die mit besserem kühler kosten mehr als 300...

Das Ati Filteroptimierungen stinken is klar, aber es stört scheinbar nicht viele!

Alle anderen genannten Punkte sind unerheblich, bis du die Vorteile nutzen kannst hast du längst ne 580GTX gekauft!
 
computer11 schrieb:
Ich seh keinen wirklichen Nachteil für AMD. Ob die jetzt viele Grafikkarten verkaufen für wenig Geld oder weniger Grafikkarten für viel Geld, das dürfte denen Egal sein.

Hä? Wie jetzt? Wenn sich die Hersteller/Händler untereinander Preisdruck machen weil sehr viele Karten auf dem Markt sind verdient AMD/ATI auch nicht weniger aber die Karten werden deutlich billiger. Der Marktpreis der Karten liegt über der UVP von AMD/ATI, das sagt schon alles.
 
Also ich habe meine 480 heute bekommen keine lieferprobleme. Und LAUT hmm auauau ne 295er rev.1 ist lauter und die paar Watt hat man doch über oder ?. Ich find es nur schade das ATI da nicht mehr druck machen kann, ich denke NV wird TSMC da auch gut erpressen.
 
Das ist natürlich traurig für AMD, aber wie so viele hier sagen ist es wohl die beste Möglichkeit, Global Foundries so schnell wie möglich auf diesem Markt zu etablieren und bei ihnen fertigen zu lassen.

AMD musste schon soviele Einbußen aufgrund der Probleme bei TSMC hinnehmen, so dass dieser Schritt zumindest bei mir das Fass zum Überlaufen bringen würde. Schließlich war AMD der "Depp", der für TSMC der Testpilot für den 40nm Prozess war.... Dass AMD jetzt auch noch gegenüber dem Konkurrent Nvidia benachteiligt wird, macht deutlich, wie sehr GF als starke Konkurrenz zu TSMC gebraucht wird.
Konkurrenz belebt nämlich bekanntermaßen das Geschäft und ganz ehrlich, schlechter als TSMC in den letzten Monaten kann es GF kaum machen, ich drück ihnen jedenfalls die Daumen....
 
Feyn schrieb:
- PhysX (freue mich schon aufs Gejammere, wenn einige bald feststellen dürfen, dass Mafia II nicht mit vollen Details laufen wird)
bitte gib mir deine glaskugel. ich will auch mal vorhersehen können. anscheinend bist du ja ein entwickler bei 2k czech oder aber du bist jemand, der schon ne fertige version von mafia 2 besitzt, damit du es auch wissen kannst. ich tendiere eher zu keinem von beidem, sondern von subjektiven geblubber.
Feyn schrieb:
- flimmer-, banding, Bugwellen- und cheatfreies HQ-AF (hier ist die AF-Cheaterei umfangreich dokumentiert: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482069)
ohja, jetz kommt das banding wieder. zu viel pcgh gelesen? komischerweise sieht niemand anderes banding. hm naja, vllt kaschiert dies mein monitor auch. oder meine augen sind einfach zu schlecht um das zu erkennen. oder ich bin es seither gewohnt. oder aber, da hat jemand nen clown zum frühstück gegessen. ich sehe auch nur ne hand voll leute in dem thread, die vom banding sprechen. zwei davon sind pcghler, die sowieso ein wenig... naja "ein wenig" pro nv sind. auch wenn sies nicht sein sollten und immer beteuern, der eindruck bleibt im text bestehen. genauso wie manche tests. im kommentarthread, wo diese "entdeckung" regelrecht gefeiert wurde und den nv fanboys richtig in die arme fiel, wurde dort auch heftigst diskutiert. aber das is ein anderes thema und gibts im forum hier schon. wird wohl bald wirklich ein fall von galileo mystery.
Feyn schrieb:
- 1280 statt 1024 MB VRAM
wie man in der vergangenheit gesehen hat, geht amd weit effizienter mit dem speicher um. dazu gibts aber auch tests zu genüge - einfach mal googlen. man hat bei der gtx zwar mehr, aber dieser ist (mal überschlagen) schneller voll als bei amd.
Feyn schrieb:
- SGSSAA in DX 10 und 11
was laut spezifikation nicht erlaubt ist -> "cheaterei" seitens nv (um es mit deinen worten auszudrücken). ergo könnte man sagen, dass nv nicht standardkonforme treiber besitzt. der satz is aber genauso wenig sinnvoll, wie dein ganzer post.
Feyn schrieb:
Dafür zahlt man dann auch noch 60 € mehr (GTX 470: lieferbar ab 295 €, HD 5870: ab 355 €). Wirklich grandiose Überlegenheit. Aber hey, die HD 5870 verbraucht im Idle (also zu 90 % Nutzzeit) ja 10 Watt weniger. Nach 50 Jahren Nutzung hat man dann ja evtl. sogar den Mehrpreis beim Einkauf wieder wett gemacht.
hm, mal sehen was du vernachlässigst...
  • höherer preis (hast du genannt)
  • 10 w mehr im idle (hast du ja genannt)
  • 10 % mehr fps (bei 1920x1200 4xaa)
  • 70w mehr unter load
  • ~ 7 db lauter
  • 13 °C wärmer
ich seh wirklich keine grandiose überlegenheit, ehrlich nicht - wirklich! der preis is das einzige, was aber auch daran liegt, dass kaum 5870er auf lager sind bzw. die händler aktuell die preise diktieren. und runter gehen wird amd mit dem preis sicherlich nicht, denn die karten gehen weg wie warme semmeln und verdient somit sehr gut daran. die konkurrenz is dieses mal lachhaft, also kann der preis schön oben bleiben, solange nv keinen preiskampf starten will (was sie bei den kosten eines fermis wohl auch nicht wagen werden).

fazit dieses posts: könnt ihr nich einfach mal die kla**e halten bei solch extrem subjektiv geprägten kommentaren? es nervt jedes mal aufs neue und einer muss immer mal wieder auf die kacke haun...
 
Die Nvidias will doch keiner haben. Hab schon mal ne Grafikkarte gehabt die mit über 90°C lief, da läuft die jetzt bei diesem Wetter mit 100°. Nein Danke, die sagen zwar es wäre kein Problem aber irgendwann hat man dann doch bunte Streifen! Und so denken andere eben auch. Nichts hat den verkauf der ATI 5000er Serie so angekurbelt wie die Erscheinung von Fermi, und das weiss Nvidia auch.

Diese Meldung ist wahrscheinlich wieder Nvidias Propaganda, wie die Lage im Moment aussieht weiss Nvidia am besten. Die mußten letztes Jahr schon die GT200 Chips einstellen weil sie nicht rentabel waren und Fermi braucht 28nm um gut zu sein. In Wahrheit verdient Nvidia im Gamingsektor das meiste Geld immernoch mit dem G92, und die müssen viele Kunden haben weil die Gewinne enorm sind.

Ich kaufe erst wieder eine Grafikkarte wenn richtige Dx11 Karten rauskommen, die Dx11 auch berechenen können und nicht nur unterstützen. 500 euro für eine Grafikkarte mit der ich noch nicht mal Metro oder Crysis Warhead in höhster Einstellung spielen kann, da habe ich lieber eine 5770.
 
Zuletzt bearbeitet:
AMD kann zwar auf Grund des Engpasses nicht mehr verkaufen aber Nvidia kann mit dem mehr an Chips auch nix anfangen. Denn die Thermis will auch keiner haben. So what...
 
wie man in der vergangenheit gesehen hat, geht amd weit effizienter mit dem speicher um. dazu gibts aber auch tests zu genüge - einfach mal googlen. man hat bei der gtx zwar mehr, aber dieser ist (mal überschlagen) schneller voll als bei amd.
Die Zeiten sind vorbei, mit Fermi hat NV auch das Speichermangement überarbeitet, mit Erfolg. Eine Fermi geht nun min. so gut mit Vram um wie eine HD 5000. Beispiel: Metro 2033 DX 11 -> GTX 470 bricht nicht wegen Vram Mangels ein sondern wegen der Rohleistung > eine HD 5870 1GB bricht wegen akuten Vram Mangels extrem ein, eine 2GB HD 5870 ist wiederum schneller wie eine GTX 470 in einem Spiel das massiv auf Tessellation setzt:
http://www.pcgameshardware.de/aid,7...t-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/
http://www.pcgameshardware.de/aid,7...1-Techdemos-von-AMD/Grafikkarte/Test/?page=13
Darum fällt bei mir auch eine HD 5870 1GB durch, einfach ein paar hundert MB Vram zu wenig an Bord. 1,2GB währen perfekt gewesen...
 
Eigentlich ist das eine riesen Schweinerei, ich hoffe AMD bekommt bald bei Global Foundries genug Kapazitäten, dann wird TMSC schon schaun, wo sie bleiben.

gruß
 
@Schinzie: was ist eine riesen schweinerei? dir ist schon klar dass amd die kapazitäten bekommen hat, die sie letzte jahr gebucht haben und nvidia ebenso?

hätte amd mehr kapazitäten gebucht, hätten sie mehr bekommen. aber nach aussage von amd(!) (damals im zusammenhang mit den lieferengpässen bei der hd5800) haben sie aufgrund der wirtschaftskriese (und imho auch aufgrund der erwartungshaltung an fermi) die kapazitäten zu knapp kalkuliert.
wem gibst du jetzt die schuld daran? von wem ist das ne schweinerei?

und hätte tsmc noch freie kapazitäten, würden sie diese amd wohl kaum vorenthalten, wie hier scheinbar manche meinen.
 
Ein modernes Unternehmen muss die Kapazitäten, und die damit verbundenen Abrechnungen dynamisch regeln, nach Bedarf aufteilen. Nvidia braucht und will gar nicht so viele Kapazitäten, und wenn, dann nur aus taktischen Gründen um AMD zu schaden.

Nun ja, wenn beide Zahlen, kann es TSMC ja wurst sein, dem Markt tut das aber nicht gut.


gruß
 
Zurück
Oben