News Legt AMDs Sea-Islands-GPU nur um 15 Prozent zu?

war ja von einer 5870 auf eine 6970 recht ähnlich! mehr als 15 % waren das ja meist auch nie.

denke das erst die übernächste generation wieder einen 40-50% Sprung gibt so wie bei den aktuellen Chips.
 
Jep, aber die 6970 lag auch keine 15% vor der 5870, von daher passt das ins Schema. Es ist eben nur der Refresh und kein Shrink oder gar neue Architektur. Ich hab da nicht viel mehr erwartet.

Spannend wird's eher bei nVidia ob die ihren ominösen GK110 wirklich auf die Reihe bekommen und was der dann leistet (und verbraucht)
 
Aber ist doch für die ok, die sich jetzt eine Radeon 7 kaufen und dann nicht weinen müssen, dass die Radeon 8 doch so viel mehr leistet als ihre alte Grafikkarte.
 
Eigentlich enttäuschen mich zur Zeit alle IT Hersteller:
Intel war nicht willens mit Ivy-Bridge die Performance deutlich zu steigern. Mit Haswell wird sich vermutlich auch nichts ändern.
AMD ist nicht in der Lage konkurrenzfähige CPU's zu liefern.
Apple hätte kein Event für das neue iPhone abhalten müssen. Ich sehe kaum Neues.
Microsoft entwickelt an den Usern vorbei.
Wen wundert's wenn die Firmen Gewinnwarnungen ausgeben müssen. Mich nicht.
 
Jetzt mal ernsthaft, wer kauft sich denn noch Grafikkarten für 250€+ wenn die Karte von der letzten Generation zur kommenden dann auch nur so 15%+15% schneller ist?
Neue Features kommen auch nicht dazu.
Ich will jetzt irgendwann mal mehr Leistung haben, aber ich sehe nicht ein, meine 200€ Grafikkarte, die irgendwo auf dem Niveau eine 480/560Ti448/570 liegt durch eine nur dürftig schnellere Karte für einen deutlich höheren Preis auszutauschen.
Sowohl AMD als auch Nvidia müssen hier mal endlich wieder einen echten Schritt nach vorne bringen, wie damals bei DX11.
 
tobi14 schrieb:
15% mehr -> genial, so kann man wirklich einmal beim wettrüsten als User bei der vorgänger generation bleiben ohne ein schlechtes gewissen zu bekommen man würde was verpassen :D

yep. ist eigentlich eine ordentliche verbesserung, wenn auch kein großer sprung.

nur, allein enthusiasten kaufen sich wegen 15% mehr eine neue graka. vor allem stört es mich, dass der aufpreis für diese leistung wesentlich höher als 15% liegen wird.

na toll, bin bei der hd 5870 geblieben in der hoffnung, dass die 8k reihe zu weihnachten mit 30% mehr leistung kommt, und dann das.
 
Die Überschrift ist lächerlich, suggeriert sie doch, dass eine andere Erwartungshaltung bzgl. einer möglichen Leistungssteigerung existiert hätte, die nun nicht erfüllt würde.

Wie aber die meisten Kommentare hier zeigen, finden diejenigen, die sich ein wenig mit der Materie auskennen, 15% ganz in Ordnung.

Streicht einfach das "nur" heraus und gut ist. Ansonsten wirkt die Sache nämlich ein wenig zu offensichtlich auf Krawall gebürstet.
 
Herdware schrieb:
So wie ich das sehe, hat Nvidia in Sachen Die-Größe, Verbrauch usw. diesmal mehr "Luft nach oben", als jemals zuvor in den letzten 6 Jahren.

Man liegt im Moment auf einem Niveau mit AMD. Interessant wird es ob AMD ihre Die-Größe beibehält oder sich mehr an Nvidia orientiert. GK104 ist 38% größer als nen Pitcairn und der ominöse GK110 wird ja auch >30% größer als nen Tahiti ausfallen, wenn er mal kommen sollte.

Die-Größe skaliert ja ganz gut mit der Leistung. Siehe Cape Verde (123mm²) vs. Pitcairn (212mm²). Pitcairn liefert bei 72% mehr Die-Fläche 77% mehr Leistung.
 
bigot schrieb:
Wenn die 30% Steigerung anfangs auf die HD 7970 bezogen waren, und die 15% sich aktuell an der HD 7970 GHz orientieren, passt doch alles halbwegs.

Edit: Dann hätten wir 26,5% Steigerung gegenüber der ursprünglichen HD 7970... 3,5% mehr oder weniger, wen juckt das wirklich? Für ein Drama reicht das mMn nicht aus.

Ich denke auch, dass die 30% auf die non-GHz Edition bezogen war. 15% mehr ist für einen Refresh voll ok. Nvidia wird auch nicht mehr schaffen mit GK114.
 
15% bringen halt nicht viel weil sich dann fast keiner eine neue kaufen wird...
da müssen schon 30% oder mehr her, dass sich user die neue zulegen
 
Nicht jeder hat eine Karte der aktuellen Generation. Ich hab "noch" eine GTX 580 weil mir der Unterschied zur 680 zu gering war... zumindest für den preis den es gekostet hätte. Die 780 könnte dagegen wieder interessant werden.
 
15% bei konsolenportüblichen 500 fps sind ja eh ne steigerung von 75fps ist doch super :D .

Also ich weis nicht was alle immer haben :confused_alt:
Auch 15% solange das eher eine minimum Steigerung ist und nicht zu sehr nach unten streut ist doch ganz ok wenn die tdp gleichbleibt !
 
Wenn man sich anschaut was zum Beispiel Fudzilla zum Thema Oland-GPUs schreibt, fragt man sich ohnehin wo diese völlig überzogenen Erwartungen herkommen.

Da schreiben die also, dass ein größerer Die mit der selben Fertigung mit einer geringeren TDP auskommen soll. Wie soll das denn bitteschön funktionieren? Die einzige mögliche Lösung wäre wenn sie entweder was am Design der Ausführungseinheiten ändern oder die Bauweise/Funktion der aufbelichteten Transistoren verbessern würden. Problem ist nur: bei einem einfachen Refresh macht sich die Arbeit niemand. Da würde man gleich neu entwickeln.

Noch besser finde ich dass die neue Chipgeneration angeblich günstiger werden soll als die jetzige. Und das ist ja wohl totaler Schwachsinn! Erstens würde das sämtlichen Marketing-Gesetzen widersprechen, und zweitens - siehe oben - soll der Die größer werden. Und ein größerer Die == mehr Fertigungsverluste == schlechtere Chipausbeute == höherer Preis.

Für mich klingt das so als ob die bis jetzt veröffentlichten Details ohnehin nur Wunschdenken waren und jetzt sind alle enttäuscht dass die Wirklichkeit nicht hinterherkommt.
 
In meinem Rechner stekcht noch immer eine HD5750 und ich komme ganz gut mit der Karte aus. Daher würde es mich nicht sonderlich stören, wenn die Leistung nicht großartig weiter steigt.

Mir wärs eh lieber, wenn sich der Stromverbrauch auch von performanteren Karten nochmal ein Stück nach unten bewegen würde. Das ist dieser Tage eigentlich viel wichtiger als immer mehr Rohleistung, die man in den meisten Fällen doch eh nicht wirklich benötigt.
 
Begehmann schrieb:
Die einzige mögliche Lösung wäre wenn sie entweder was am Design der Ausführungseinheiten ändern oder die Bauweise/Funktion der aufbelichteten Transistoren verbessern würden. Problem ist nur: bei einem einfachen Refresh macht sich die Arbeit niemand.

Niemand außer Nvidia, bei GF100 -> GF110. ;)
 
Die Entwicklung in der IT-Branche, speziell was Anzeigegeräte und Prozessoren angeht, ist für mich sehr uninteressant geworden in den letzten Jahren.

Ein passendes Gespräch hatten wir zufälligerweise gerade im Büro, in dem ich behauptete (und weiterhin der Meinung bin), dass uns in den nächsten Jahren im Bereich der GPU/CPU-Entwicklung nichts wirklich Bahnbrechendes erwarten wird.

Wir sind aktuell an einem Punkt angelangt, an dem wir physikalische Grenzen abstecken und die Forschung sich schwer tut, neue Wege zu finden, um eine positive Entwicklung weiter voranzutreiben.

Die einzig wirklich als realistisch zu betrachtende These lautet für mich: APU/APPU/MPU/MPPU (und wie auch immer man sie nennen mag), also "All Purpose Processors" - praktisch Chips, die keinen Unterschied mehr darin sehen, ob nun ein gängiger x86-Code, oder aber ein spezieller Grafikcode oder sonstige RISC/CISC-Aufgaben ausgeführt werden.

Die Techniken von CPU und GPU werden in den nächsten Jahren verschmelzen und beide Platzhirsche forschen ja schon eine ganze Weile daran herum.

Damit meine ich nicht die integrierten Grafikkerne in aktuellen Prozessoren, sondern Stichword Larrabee - also auch GPGPUs.

Aber nicht nur der Hardwaremarkt stagniert langsam, auch das Softwareangebot für Spieler ist doch irgendwo etwas abgeflaut die letzten Jahre.
Selten sieht man nochmal Genreperlen, noch seltener werden neue Genres erschlossen und überhaupt mit erwähnenswerten Titeln betreten (Ausnahmen gibt's immer wieder - z.B. Minecraft - was aber gewiss keine Hardwareneuheiten erfordert).

Grafisch hat sich seit dem ersten Crysis immer noch nichts getan, wer das Gegenteil behauptet, lügt. Es wurden höchstens gleichwertige Titel geliefert, die deutlich optimierter und besser programmiert wurden.

Was also soll geschehen? Was erwartet der Spieler vom Hardwaremarkt der Zukunft und was ist tatsächlich realistisch?

Meine Güte, vielleicht sollte ich mal Kolumnen schreiben :D

PS:
Weitet das Thema mal auf Anzeigegeräte (also Bildschirme im PC- und Unterhaltungsbereich) aus - also für euch, nicht hier den Thread zumüllen natürlich. Da sieht es ganz genauso aus. Ausser, dass die Geräte immer größer und verhältnismässig günstiger werden und VIELLEICHT noch das brillenlose 3D etwas auf Vordermann gebracht wird, wird sich da in den nächsten... sagen wir mal... 20 Jahren... nichts Neues ergeben! Von Projektion IN DEN RAUM HINEIN sind wir wahrscheinlich sogar noch länger entfernt.

Cya, Mäxl
 
Ich bin kein Chipentwickler aber ich bin der meinung das 15% Steigerung ein guter Wert sind. Man ist bereits nah an der Grenze des aktuell machbaren, da wird es umso schwieriger noch etwas zu zulegen. Noch kleinere Strukturen und es treten bald Quanteneffekte auf die zukünftig berücksichtigt werden müssen und es den Ingenieuren noch schwerer machen.
 
Zurück
Oben