News Erste Gerüchte zur AMD „Radeon R9 300“-Serie

Ich habe auch schon Gerüchte zur GTX880 gelesen interessant finde ich die Angaben nach denen die nVidia Lösung nur einen 256bit breiten Speicherbus haben soll.
http://www.pcgameshardware.de/Nvidi...880-Leak-Spezifikationen-Maxwell-GPU-1116952/

256SI, 4GB ja nicht zu viel Vram verbauen, aber hauptsache 600-700€ dafür haben wollen, schaut übel aus, das gleiche wie klein Kepler 1.0. War aber zu erwarten, Star Citzien und Witcher III sind sowieso noch weit entfernt, da kann man dann die Titan Version vom Maxwell mitnehmen, bzw. wohl die erst mal kastrierte Titan Version von Maxwell Ende 2015/2016.



Also ich finde das dieses ständige alljährliche neue Grafikkarten raus hauen so langsam mal aufhören sollte.
Sagst du, Big Maxwell soll meinetwegen so schnell wie möglich kommen.

Man darf gespannt sein, die R9 300er müssten eine neue Architektur haben, mal schaun ob sie auch so zaubern wie Maxwell der in Sachen Effizienz schon mal gut vorgelegt hat.
 
Ich finde es auch nervig was hier spekuliert wird. Die 20nm Fertigung steht noch in den Sternen. Soweit ich weiß gibt es nicht mal ein einziges lauffähiges Modell. Und dann wird hier schon über Takt und Leistung spekuliert?

Leute, wartet erstmal ab!
 
Definitiv interessante Gerüchte, aber wie die meisten hier würde ich jetzt nicht zu viel darauf setzen. ;) Warten wir mal ab, wann die 20nm-Fertigung überhaupt richtig ankommt. Obwohl die großen Maxwells und die AMD Pirates Islands noch in weiter Ferne sind, freue ich mich total darauf. Und das obwohl ich mit meiner 7950 Boost extrem zufrieden bin. :D

@Kasmopaya: Ich bin ja auch mal gespannt, wie Maxwell dann Leistungs/Verbrauchs-mäßig skaliert. Bei der 750 Ti hat man ja in 28nm-Fertigung schick vorgelegt, aber ob Maxwell auch bei höheren Taktraten usw zB stromsparend ist? Man darf gespannt sein. :)

Gruß
Pandemic
 
Airblade85 schrieb:
Also ich finde das dieses ständige alljährliche neue Grafikkarten raus hauen so langsam mal aufhören sollte...

Die Zeiten sind doch leider schon lange vorbei. Seit 2011/Anfang 2012 haben beide GPU-Hersteller den Jahrestakt zwischen den Generationen komplett aufgegeben. Tahiti und GK104 sind jetzt schon ca. 2,5 Jahre alt und können leicht noch ein halbes Jahr älter werden. Deshalb kann ich auch nur schwer glauben, dass der Nachfolger für Hawaii schon Ende des Jahres kommen soll.

Im Augenblick haben wir also eher einen 3-Jahres Abstand. Allzuviel langsamer sollte die GPU-Entwicklung meiner Meinung nach bitte nicht mehr werden.
 
Was ich mich frage ist, ob AMD nicht auch wie NV in Zukunft auf größere Chips setzten wird, zwar nicht gleich so große aber größere bisher. Der Grund ist, weil AMD selbst ja auch im professionellen Markt Fuß fassen möchte. Was ich auch nicht als unrealistisch halte ist, dass AMD ihre Preise im Desktop-Markt an jene von NV anpassen könnte.
NV Karten sind selbst wenn sie gleich "stark" sind meist teurer. Bei vielen Kunden, die sich eine Grafikkarte dann kaufen, nehmen dann unbewusst oft die teure Karte, weil viele oft teuer mit besser assoziieren, wenn es um Technik geht. Das ist wie wenn man in England in ein Restaurant war, das essen vorzüglich war, aber der Preis nicht dementsprechend hoch ist, sondern "leistbar".

Ist jetzt etwas übertrieben ausgedrückt, aber AMD möchte Geld verdienen und man sieht mit Preis-Leistung kommt man nicht in jeder Situation gut weg. Oft hat Status/Markeeine wichtigere Rolle und viele stecken bei Technik gern noch mal tiefer in die Tasche, wenn man um paar Euro etwas "besseres" haben könnte, auch wenn es oft nur der Markenname ist oder so eine Performance gar nicht braucht.

Also ich für mein Teil würde es als realistisch ansehen wenn die schnellste Ausbaustufe als erstes auf den Markt kommt. Denn wie man bereits öfters gelesen hat ist 20nm noch nicht so ausgereift. Somit hätte man nach unten dann für längere Zeit immer noch die R9 290X,, 280X ect. Schritt für Schritt, je nach Kapazität dann die ältere Klasse ablösen.

Was die Compute-Performance angeht. Ich glaube kaum dass sich AMD davon trennen wird, zu mindestens bis zur höheren Mittelklasse. Darunter dürften vllt die gpgpu nicht mehr so eine große Rolle spielen. Also ich glaub nicht dass es diese zwei Klassen wie bei NV geben wird, wobei eigentlich nur ein Chip ein GPGPU Monster ist.
Da AMD aber eben "Mantle" hat und durchaus ein paar Spiele entwickelt werden sollen oder per Patch nachgereicht werden könnte, könnten wir vllt sogar dank Mantle auch mal gpgpu Effekte mehr und mehr in Games vorfinden. Ich betone "vllt".
Ich persönlich sehe Mantle eher als Zweck zum Ziel, denn jeder Erfolg den Mantle erzielt könnte Microsoft mit DX dazu zwingen etwas vergleichbares zu realisieren, wobei GPGPU natürlich Engine abhängig ist. Aber eventuell ist die Integration von GPGPU für zum Beispiel Wetter einfacher in ein Spiel zu integrieren, wenn man sich zuerst mal auf eine "Architektur" konzentrieren kann. Ob Mantle nach Direct X12 weiter besteht ist für mich persönlich zweitrangig wenn man neuere Standards mit Mantle bis dahin durchgesetzt hat.

Persönlich bin ich momentan eigentlich mehr auf mögliche neue Features, als auf Anzahl der Shader gespannt. Die neue Generation sowohl NV als auch AMD werden schon irgendwie schneller sein, at least bei der Rohleistung.
 
Zuletzt bearbeitet:
pipip schrieb:
Also ich für mein Teil würde es als realistisch ansehen wenn die schnellste Ausbaustufe als erstes auf den Markt kommt.

Ich nicht. Macht man heutzutage nicht. Beim tape-out lässt Du erstmal die ganzen kleinen Chips vom Stapel wenn Du in einer neuen Fertigung fabrizierst, da Du dann bei Fehlern weniger vom Wafer (weil kleinere Chips) wegwerfen musst. Zumal die kleineren Leistungsstufen dann auch gern mal teidleaktiviert und mit weniger Takt auf den Markt kommen.

Beispiel: nVidia hat den GK110 zuerst in einer popeligen consumer-Karte auf den markt geworfen mit sehr geringem Takt (waren glaub 860 MHz) und vor allem mit einem merklichen Anteil an deaktivierter Chipfläche - diese Riesenchips kamen in besserer Qualität einfach nicht aus der Lithographie, aber man konnte dennoch halbwegs brauchbare Stückzahlen auf einen Markt werfen welcher bereit war die Preise zu bezahlen. Bei dem Preis der Titan dürfte das eine Risikoproduktion gewesen sein welche zumindest kostendeckend lief - und das ist sehr positiv zu sehen, da der Anlauf der Produktion idR fix als Verlust eingeplant ist.

@topic: Die Zahlen sind aber hübsch gewürfelt... wenn mand avon ausgeht dass sich an der Architektur wenig ändert und die Taktraten aufgrund des frischen prozesses wirklich nur bei 900 MHz liegen, muss die 370X genauso viele shader aufweisen wie Tahiti jetzt. Also ~2000. Denn die 370X wird zum Marktstart wieder eine UVP von 250 - 270€ haben, was auch passt im Vergleich zum Vorgänger. Aber dann muss die Leistung auf Niveau des jetzigen Tahiti liegen.
Die 380X seh ich in etwa auf dem Niveau einer 290X und mit einer UVP von ~400€, mit gutem Kühler gern auch ~420 - 440€. Hawaii wird dementsprechend vorher abverkauft.

Wenn eine 390X kommt, da die 380X kaum merklich schneller sein wird als Hawaii, dann nur die kleine Ausbaustufe. Die 380X wird sich über das featureset und Stromverbrauch/Hitze gegenüber der 290X im Verkauf behaupten, kaum über die Mehrleistung.
 
Man muss schon sagen die Gerüchteküche lässt nichts anbrennen ^^ Gibt ja immer gleich wieder Stoff wenn das was es gibt in allen Version und ect. auf den Markt ist. Mal sehen viel leicht gibt es ja mal neue GDDR Speicher
 
TenDance
Ich nicht. Macht man heutzutage nicht. Beim tape-out lässt Du erstmal die ganzen kleinen Chips vom Stapel wenn Du in einer neuen Fertigung fabrizierst, da Du dann bei Fehlern weniger vom Wafer (weil kleinere Chips) wegwerfen musst. Zumal die kleineren Leistungsstufen dann auch gern mal teidleaktiviert und mit weniger Takt auf den Markt kommen.

Schon klar, aber ich bin gespannt wer dir dann eine R9 270X Nachfolger kaufen würde, wenn dieser langsamer ist als die R9 290X die eventuell dann gar nicht teurer ist.
Die Preise würden dann durcheinander kommen und es gäbe dann noch mehr Verwirrung als dass man jetzt schon hat. Das ist auch der Grund wieso die 20 nm Grafikkarten nach hinten verschieben. Immerhin aus einer großen GPU kann man auch mehre "Grafikkarte" Varianten machen. Siehe NV und später einige wieder einstellen und durch andere ersetzten.

nVidia hat den GK110 zuerst in einer popeligen consumer-Karte auf den markt geworfen mit sehr geringem Takt (waren glaub 860 MHz) und vor allem mit einem merklichen Anteil an deaktivierter Chipfläche - diese Riesenchips kamen in besserer Qualität einfach nicht aus der Lithographie, aber man konnte dennoch halbwegs brauchbare Stückzahlen auf einen Markt werfen welcher bereit war die Preise zu bezahlen.
Wird sich für NV trotzdem ausgezahlt haben, denn können sie beim professionellen Markt wesentlich mehr für die GPU verlangen, auch für die "kastrierten" Varianten.
Wie ich schon sagte, für AMD ist so ein Schritt deshalb interessant, weil man beim professionellen Markt ebenso Fuß fassen möchte.

Da aber schon einige gesagt haben, die Hawai ist nicht alt, sie reicht für die jetztige Situation für die Mehrheit aus, hat AMD die Chance ein neues Flaagschiff aufzustellen und auch einmal dafür wie NV einen sattlichen Preis zu verlangen. Wieso soll AMD im Vergleich immer alles "verramschen".
 
Zuletzt bearbeitet:
bu.llet schrieb:
Eine Karte mit der Leistung und dem Speicher einer 280X, also für Full-HD in allen Belangen ausreichend, mit schlankem Stromverbrauch wäre mal was!

Nicht wenn du aktuelle Spiele auf Anschlag (Mit AA) mit 60FPS+ spielen willst. Da reicht nicht mal immer eine 290X, siehe z.B. Crysis 3. Und so gut aussehende und genauso fressende Games wie C3 werden sich in Zukunft häufen, siehe Star Citizen. Da brauchst du schon ne dual 290, selbst für 1080p.
 
Krautmaster schrieb:
-> (28*28) / (20*20) ergibt nen Faktor von 1.96. Bei selber PackageDichte zu Fertigung kann man also knapp das doppelte auf die DIE packen.

Bis jetzt konnte man bei GPUs so rechnen. 20nm ist der erste Node wo es nicht mehr geht.

40nm SRAM cell size: 0,242µm²
28nm SRAM cell size: 0,127µm²
20nm SRAM cell size: >0,08µm²

Mehr als Faktor 1,6 wird im Idealfall nicht drinnen sein, eher weniger.

Beim Gerücht zum Bermuda XTX mit 4224 Shadern hätten wir als Faktor 1,5. Was wesentlich plausibler als der Faktor 2,13 beim Maxwell Big-Chip wäre.
 
Zuletzt bearbeitet:
Gerüchte...

Irgendwie muss man ja Aktivität auf die Seite und ins Forum bringen, wie soll man sonst die Werbung sonst sehen/laden? :king:

PS:
Ich hab irgendwo gelesen, daß AMD sich mit den KonsolenGPU-Einnahmen Intels 14nm Prozess lizensieren lassen will für die nächsten Grafikkarten, aber das ist wie mit der Bibel oder sonst einem Fantasybuch: nicht alles was geschrieben steht ist auch wahr...
 
Zuletzt bearbeitet:
u. bis dann erst mal spiele in dx12 rauskommen ,wird's eh ende 2015^^
 
Alles andere als 20nm ist zumindest für mich vollkommen uninteressant und wird nicht gekauft. Selbst wenn meine GTX770 kaputt geht, dann überbrücke ich mit einer HD7770, die hier noch rum liegt.
Selbst mit 20nm muss es ja erst einmal ein Kaufargument geben. Wenn es da keine gut spürbare Mehrleistung bei (ganz wichtig) weniger Stromverbrauch heraus kommt, dann wird meine GTX770 uralt.

Finde es aber auch extrem langweilig, wenn man jetzt schon über etwas spekuliert, was noch in den Sternen steht. So langsam sollte man doch gelernt haben, dass die Marketing Abteilungen beider Firmen bis zum letzten Tag warten, um die tatsächlichen Spezifikationen zu nennen.

Und täglich grüßt das Murmeltier!
 
Super.

Mit der Leistung einer 390X - das wäre ein ordentlicher Sprung von meiner 7950 OC.

Dann weis ich ja, was ins neue System kommt - aber erst nach Weihnachten und bei guter Verfügbarkeit.
 
Wow
Ich wollte meine Tahiti schon in Rente schicken aber die paar Monate hält die noch locker
durch.
Wenn die Karten wirklich nur annähernd diese Specs haben zahlt sich das warten ja wirklich aus.
Vor allem weil meine 7970 immer noch alles super flüssig darstellt.
 
Morphy2k schrieb:
Nicht wenn du aktuelle Spiele auf Anschlag (Mit AA) mit 60FPS+ spielen willst. Da reicht nicht mal immer eine 290X, siehe z.B. Crysis 3. Und so gut aussehende und genauso fressende Games wie C3 werden sich in Zukunft häufen, siehe Star Citizen. Da brauchst du schon ne dual 290, selbst für 1080p.

Die Sache ist doch, die Spiele sehen nicht besser aus, brauchen aber immer mehr Leistung. Mit Crysis 3 hast du da ein Paradebeispiel gebracht. Sieht schlechter aus als Crysis 1, läuft aber grottig, weil die ganze Performance mit irgend welchem Post Processing verbraten wird, was sich optisch kaum auswirkt.
Genau so das ganze Gequatsche von 4k Gaming, dann kann ich auch Quake 3 spielen, läuft bestens in 4k. Aber sieht es dadurch besser aus?
 
Hmmm, also ich hatte eigentlich eher mit einem Refresh im Herbst gerechnet, denn bereits mit der nächsten Generation. Vor allem noch nicht mit Pirate Island, sprich 20nm Fertigung. Schade, habe mir gerade die R9 290 gekauft, häte ich doch warten sollen. Nun, auch gut, dann fallen die Preise eben, und vor allem: nVidia hat weiter gute (bessere :D) Konkurrenz. :)
 
Zurück
Oben