News Grafikkarten mit 28-nm-GPUs erst Ende 2011?

... wirklich jetzt? Seid ihr tatsächlich davon überzeugt, dass AMD die neue Serie als „ATI Radeon HD 6000“ vermarkten will? :o

Wow, toll - und dann wird immer wieder bemängelt, dass deren Marketingabteilung nicht kreativ genug sei ... :D
 
Zuletzt bearbeitet:
Schade, ich dachte TSMC rückt noch nen Stück an Intel ran. Die können Konkurrenz gebrauchen^^

Aber so wie es aussieht ist Intel eher auf 22nm als TSMC auf 28nm. Vom Rest der der Industrie mal ganz zu schweigen...
 
Es ist ein Fehler zu denken, dass durch einen dichteren Chip, dieser schneller arbeitet. 32nm Cpus haben gegenüber 65nm Cpus keinen 50%Vorteil wie es die Zahlen jedoch suggerieren.

Im GPU-Bereich wird die Entwicklung wohl bald ähnlich wie im CPU-Bereich vonstatten gehen. Es wird auf mehr-Kern GPUs gesetzt werden. Mal sehen wer als erstes auf den Zug aufspringt.
 
Schaffe89 schrieb:
Gut Ding braucht Weile.
Schlecht für Nvidia, da sie ihren Monsterchip nie kleiner gefertigt kriegen.
So viele Nachteile scheint der Monsterchip gar nicht zu haben. Man bekommt GF100/GF104 in Massen gleich vom Start weg, die Yields sind sehr gut geworden, was man anhand der verfügbaren Mengen auch glauben darf. Solange NV NR.1 bei TSMC ist, scheint so ein "Monsterchip" gar nicht mal so schlimm zu sein. Die Preise sowohl bei GF 100 und GF 104 sind auch OK und wie bei GT 200 scheint auch hier sehr viel Luft nach unten zu sein, NV macht letztendlich immer noch ordentlich Gewinn. Einziger Nachteil der mir einfällt ist der Stromverbrauch, der allerdings zimlich heftig ausfällt bei Fermi.

Wenn man dagegen ATI anschaut, seit Ewigkeiten schlecht lieferbar, warte schon seit März auf mein Notebook mit HD 5870, kann nur wegen ATI nicht geliefert werden. 10 andere Notebooks des gleichen Typs sind massig verfügbar, natürlich alle mit NV, wären die nicht so teuer hätte ich schon längst zugeschlagen.
http://geizhals.at/deutschland/a540121.html
Der Gewinn im letzten Quartal ist auch gesunken, da fragt man sich schon, passen die Yields nicht wegen der extremen Packdichte, ist ATI nur NR. 2 bei TSMC? Hat AMD kein Geld für Massenbestellungen wie NV es gemacht hat. Irgend was läuft da gehörig schief, nicht liefern können und Gewinnrückgang in einer Zeit in dem die Halbleiterbranche boomt...



Aber dann ne 40nm kaufen und 10 monate später gibts schon 28nm, was wirklich nochmal n gutes stück kleiner ist ... ich weiß nicht...
Hängt euch nicht an der Strukturbreite auf, G80 war auch in 90nm und war 1000 mal besser als die 80nm R600. Oder die 8800GT war auch in 65nm und wiederum viel besser als HD 3870 im 55nm. Strukturbreite spielt also nicht immer eine so wichtige Rolle wie bei den CPUs. Die Frage ist, taugt die neue NI Architektur was, wenn die floppt wie GF100, dann hilft 28nm auch nix mehr. Wie immer 50/50 Chance das es nix wird.


man ey, ich warte doch nur noch auf 28nm mit HKMG. Endlich mal richtig sparsame und leise Karten mit genug Perf. für mich (so 4870 Niveau)
Wieso endlich mal? Recht viel besser als HD 5000 gehts doch fast nicht, wenn da die HD 6000 bald noch was drauf legt sollte man wunschlos glücklich sein. Die neue Architektur abwarten ist eher ein hohes Risiko, vorallem wenn die erst Ende 2011 kommt, dann dauerts wieder min. bis Ende 2012 bis der ordentlich läuft, oder ATI genug bestellen kann/darf.

Ob Intel noch einen Versuch mit Larrabee startet, dieses mal in 22nm ?
So heftig wie der gefloppt ist(da ist Fermi die über GPU dagegen) müssten die komplett von vorn starten, dh. ca. 5 Jahre Entwicklungszeit, bis dahin sind wir bei 11nm und kleiner...

Im GPU-Bereich wird die Entwicklung wohl bald ähnlich wie im CPU-Bereich vonstatten gehen. Es wird auf mehr-Kern GPUs gesetzt werden. Mal sehen wer als erstes auf den Zug aufspringt.
Du meinst das auch jeder in den Genuss von Microrucklern kommt? Ne mal ne kleine Quizfrage für dich, wieviele Kerne hat eine 88GTX/GTX 280/GTX 480? Und ja GPUs waren schon Jahre vor den CPUs mehrkernig aufgebaut.
 
Zuletzt bearbeitet:
kalude schrieb:
Es ist ein Fehler zu denken, dass durch einen dichteren Chip, dieser schneller arbeitet. 32nm Cpus haben gegenüber 65nm Cpus keinen 50%Vorteil wie es die Zahlen jedoch suggerieren.

Im GPU-Bereich wird die Entwicklung wohl bald ähnlich wie im CPU-Bereich vonstatten gehen. Es wird auf mehr-Kern GPUs gesetzt werden. Mal sehen wer als erstes auf den Zug aufspringt.

Größter ROFL des Tages.

Meine nächste GPU und CPU werden beide definitiv unter 30nm haben. Außerdem erwarte ich ein performantes System <200W. Das sollte in den nächsten Jahren möglich sein.
 
@Kasmopaya, jopi24johannes

Ihr wisst schon wie ich das gemeint habe. Das Problem mit den Mikroruklern liegt doch darin, dass die Synchronisation zwischen den GPUs nicht so einfach ist und man eine asynchrone Framerate erhält, weil der Verbindungs-Controller nicht vorher weiß wie lange die Berechnung des Frames dauern wird.

Das Problem ist aussserdem, dass bei heutigen Mehrkern-Grafikkarten beinahe alles doppelt montiert wird um beide GPUs anzusteuern. Das kostet nur zusätzlichen Strom und kostbare Reaktionszeit. Eine Multi-GPU könnte doch aber so ausgelegt sein, dass sie z.b. nur einen Speicherkontroller, einen Businterface und nur eine Stromversorgung braucht.

@jopi24johannes

träum weiter ;-) Besonders im Grafikkarten-Bereich brauchen die Karten mit jeder Generation immer mehr Strom - wohlgemerkt wenn man immer die High-End, Mid und Low der unterschiedlichen Generationen miteinander vergleicht. Eine aktuelle 5770 hat ungefähr die Leistung einer alten 4870, die ja damals als High-End-Karte galt, bei rund 30% weniger Leistungsaufnahme. Doch eine heutige High-End-Karte braucht meistens ca. 200Watt und damit ca. 30% mehr Leistungsaufnahme als eine High-End-Karte der vorherigen Generation. Das kommt dadurch weil man in den letzten Jahren im Grunde nichts an der Architektur einer Grafikkarte verändert hat und nur einfach mehr von Allem auf eine PCB packt, was natürlich in einem höreren Stromverbrauch mündet.

Es kommt natürlich darauf an was man unter einem performanten System versteht. Doch in den letzten Jahren wurden die High-End-Rechner eindeutig immer stromhungriger, was sich durch die Entwicklung von immer stärkeren Netzteilen widerspiegelt.
 
Zuletzt bearbeitet:
Das taiwanische Unternehmen hatte allerdings mit dem 40-nm-Prozess zu kämpfen, ...........

Ich glaube damit ist das taiwanesische Unternehmen gemeint, oder?!
 
@Kasmopaya

So und nun Steigst du in dein Fermi-Raumschiff und fliegst bitte zum Planeten Nvidia...
 
kalude schrieb:
Es ist ein Fehler zu denken, dass durch einen dichteren Chip, dieser schneller arbeitet. 32nm Cpus haben gegenüber 65nm Cpus keinen 50%Vorteil wie es die Zahlen jedoch suggerieren.

Im GPU-Bereich wird die Entwicklung wohl bald ähnlich wie im CPU-Bereich vonstatten gehen. Es wird auf mehr-Kern GPUs gesetzt werden. Mal sehen wer als erstes auf den Zug aufspringt.
1) Die kleinere Fertigung ermöglicht aber wesentlich mehr Transistoren etc auf dem gleichen Raum. Zudem sinkt der Strombedarf.
Man kann durchaus davon ausgehen, dass man von 32nm gegenüber 65nm einen 50% Vorteil und mehr hat. Immerhin wär der 32nm Chip bei gleicher Transistorenanzahl usw. nur ca. ein viertel so groß. Und wenn man mal die jetzigen 40nm Chips mit den 65nm Chips vergleicht (wesentlich geringerer Unterschied), dann sind das auch weit mehr als 100% Vorteil.

2) GPUs sind bereits sehr parallel aufgebaut. Da kommt keine CPU hinterher. Es ist durchaus zwar möglich, dass es mittelfristig zu mehr Multi-GPU Karten kommt, aber das nicht auf Grund der parallelisierungsmöglichkeiten, sondern nur, weil man dort auf kleinere Chips setzen kann und trotzdem massiv eistung erhält.
Es gab ja auch Gerüchte, dass die HD5000 Serie stark auf Multi GPUs setzt.


Schade, dass die 28nm GPUs so lange auf sich warten lassen. Aber ich hab eh nciht so viel Zeit zum spielen und so viel Geld zum Kaufen erst recht nicht^^
 
Vor 10 Jahren waren wir glaub ich noch bei 110nm. Nicht schlecht ;)
 
Die Preise sowohl bei GF 100 und GF 104 sind auch OK und wie bei GT 200 scheint auch hier sehr viel Luft nach unten zu sein,
Wenn ich mich richtig errinne war das überhaupt keine Luft nach unten(Außer vielleicht bei der Umstellung des PCBs). Immerhin gabs dann nur eine Preissenkung auf Pump um nur gegen ATI konkurrieren zu können.
 
Kasmopaya schrieb:
Wenn man dagegen ATI anschaut, seit Ewigkeiten schlecht lieferbar, warte schon seit März auf mein Notebook mit HD 5870, kann nur wegen ATI nicht geliefert werden. 10 andere Notebooks des gleichen Typs sind massig verfügbar, natürlich alle mit NV, wären die nicht so teuer hätte ich schon längst zugeschlagen.

Komisch ein Kumpel hat letzte Woche ein ASUS Notebook mit Core i5 und ATI Mobility Radeon 5870 bestellt und gestern bekommen!

Super Teil, sein altes MSI GX623 hat er eingetauscht (und etwas draufgezahlt) da es immer Freezer gab!
 
Zuletzt bearbeitet:
Eine Multi-GPU könnte doch aber so ausgelegt sein, dass sie z.b. nur einen Speicherkontroller, einen Businterface und nur eine Stromversorgung braucht.
Das doppelte Mehrkern geblubber macht nur überhaupt keinen Sinn. Willst du irgend wie 2x 512Kerne auf ein DIE packen, oder hoffst du das die Microruckler irgend wie magisch verschwinden wenn man 2xHD5000 auf einen DIE packt? CF Profile bräuchte man immer noch. Die allgemeine Performance per Watt würde sinken aufgrund der Skalierung. GPUs kann mein einfach nicht so einfach mit CPUs vergleichen! Die sind erheblich komplexer und können nicht so einfach irgend wo hin gepappt werden. Siehe AMD APU, hat ja lange genug gedauert, oder Intels versuch überhaupt eine einigermaßen effiziente GPU auf die Beine zu stellen, trotz unendlicher finanzieller Mittel.
So und nun Steigst du in dein Fermi-Raumschiff und fliegst bitte zum Planeten Nvidia...
Nö, wird eine HD 6870 2GB MK-13, aber das verwirrt dich jetzt wieder. Effizienz Flops ala Fermi/Phenom I kommen bei mir grundsätzlich nicht in die Tüte.
Wenn ich mich richtig errinne war das überhaupt keine Luft nach unten(Außer vielleicht bei der Umstellung des PCBs). Immerhin gabs dann nur eine Preissenkung auf Pump um nur gegen ATI konkurrieren zu können.
NV hat massig Gewinn gemacht, Verlust haben sie nicht gemacht unterm Strich sogar mehr Gewinn als mit einer vergleichbaren HD 4870/90 pro Karte. Gabs mal eine Liste der Hardwarekosten, Quartalszahlen haben das dann auch eindeutig gezeigt. GT200 hat dann letztendlich den längeren Atem gehabt genüber der HD 4000. Die hätten aber die GTX 260 auf 200€ lassen müssen, vielleicht wären dann die Karten nicht so schnell ausverkauft gewesen und hätten länger gehalten bis Fermi Start, die waren ja Monate vorher schon weg.


Komisch ein Kumpel hat letzte Woche ein ASUS Notebook
Bei mir gehts um eine ATI FirePro M7820(5870) Karte aus dem Profibereich, NV Quadros massig verfügbar nur ATI nicht, 1 Monat Lieferzeit, daher kein Preiskampf der Händler möglich, so wie bei deinem verlinkten Asus.
 
Zuletzt bearbeitet:
Lost_Byte schrieb:
1) Die kleinere Fertigung ermöglicht aber wesentlich mehr Transistoren etc auf dem gleichen Raum. Zudem sinkt der Strombedarf.
Man kann durchaus davon ausgehen, dass man von 32nm gegenüber 65nm einen 50% Vorteil und mehr hat. Immerhin wär der 32nm Chip bei gleicher Transistorenanzahl usw. nur ca. ein viertel so groß. Und wenn man mal die jetzigen 40nm Chips mit den 65nm Chips vergleicht (wesentlich geringerer Unterschied), dann sind das auch weit mehr als 100% Vorteil.

2) GPUs sind bereits sehr parallel aufgebaut. Da kommt keine CPU hinterher. Es ist durchaus zwar möglich, dass es mittelfristig zu mehr Multi-GPU Karten kommt, aber das nicht auf Grund der parallelisierungsmöglichkeiten, sondern nur, weil man dort auf kleinere Chips setzen kann und trotzdem massiv eistung erhält.
Es gab ja auch Gerüchte, dass die HD5000 Serie stark auf Multi GPUs setzt.


Schade, dass die 28nm GPUs so lange auf sich warten lassen. Aber ich hab eh nciht so viel Zeit zum spielen und so viel Geld zum Kaufen erst recht nicht^^

Natürlich kommt es darauf an was man unter Vorteil versteht. Die heutigen 45nm CPUs haben gegenüber den älteren 65nm CPUs eine ganz andere Architektur und bedienen sich einer anderen Technologie. Der Speicherkontroller wurde z.B. integriert und bringt schon dadurch einen großen Vorteil. Bei den Grafikkarten hingegen tut sich relativ wenig ausserhalb der GPU. Es sei denn, dass ich irgendwas nicht mitbekommen haben sollte in den letzten Jahren. Mal abgesehen von der Architektur der GPU und den kleineren Transistoren scheinen in den letzten Jahren keine großen Neuerungen im Grafikkarte-Bereich passiert zu sein, denn eine PCB ist immernoch so aufgebaut wie schon seit Beginn der Grafikkarten: Hier GPU, da Businterface, da Speicherkontroller, da Output, da Stromversorgung... fertig.
 
@Kasmopaya
Zwischendurch haben sie jedoch auch Verluste gemacht, wenn ich mich nicht irre.
 
Vor 10 Jahren waren wir glaub ich noch bei 110nm. Nicht schlecht
Da braucht man nichtmal 10 Jahre zurückgehen. Es reichen schon 5, wenn GPU-Z das bei meinem Notebook richtig ausliest. Denn die dort verbaute X600 von ATi ist in 130nm ;)
 
floh00 schrieb:
Ist auch besser, wenn die vorhandene Technologie verbessert wird, bevor an einer neuen gearbeitet wird.

ReDeYeDRaVeN schrieb:
Lieber Zeit lassen als wieder so extreme Engpässe zu Modellreihenstarts abzuziehen. Gut Ding will Weile haben.

sehe ich auch so..wie ihr beiden.
 
cadaver112 schrieb:
Kann garnicht verstehen wie viele momentan von GTX 260/280/285
auf die jetztige Serie umsteigen..

Also ich sehr derzeit keine Veranlassung meine GTX285 (von EVGA) gegen irgend eine "neue"
auszutauschen.
Die 10 % bis max. 30 % mehr bei der 5870 oder der ca. 30-50 % schnellere GTX 480
sehe ich bei DEN Preisen nicht ein. Das lohnt sich nicht.

Rein von der Rechenleistung würde mich die GTX480 interessieren, aber bei den Preisen, dem Stromhunger und der Hitze? .... nö !
(GTX470 ist mir "zu langsam")
Ich hab ein hochwertiges 500W Netzteil drin, und werde sicherlich nicht wegen einer graka ein noch größeres einbauen.

So lange ich Bad Company 2 und evtl. Battlefield 3 (wenn es denn dann mal kommt)
spielen kann, wozu wechseln ?

Vielleicht den Refresh der GTX480... ?

Normaler Weise wechsel ich immer bei VERDOPPELUNG der Grafikleistung.
GF4 Ti 4200 --> Radeon 9800pro --> Radeon X 1900 XT --> 9800GTX --> GTX 285

Aber eine Verdoppelung von GTX285 auf GTX480 ist nicht "drin", also wird die übersprungen.

Hätte nie gedacht wie lange meine GTX285 drin bleiben "müsse".... ^^ :freak:
 
Wo hast du das denn her? Larabee "würde" (wenn er denn jemals gebaut wird) sicherlich erst in zig Jahren auch nur ansatzweise etwas bringen. Bei den heutigen Softwarearchitekturen im Spielemarkt ist Larabee untauglich.
 
@mastermc51 richtig so.

solange du mit deiner karte jedes game super zocken kannst..ist das auch ok wenn die graka behältst.. würde ich mir auch keine gts 480-470 kaufen
warum auch... nur um 10-15 fps mehr zu haben, und dafür mehr lautstärke und mehr Stromverbrauch.
 
Zurück
Oben