News ATis RV790-Chip mit schnellerem Speicher?

kisser schrieb:
Kann man so nicht sagen.
Die Herstellungskosten haengen wesentlich davon ab, wieviel Prozessschritte notwendig sind um aus einem nackten Wafer einen Wafer voller DIES herzustellen.
Gehen wir einfach mal davon aus, es läuft so gut wie bei der HD4xxx-Reihe, dann ist das schonmal eine nette Kosteneinsparung, bei gleichem Speicher mit lediglich höherem Takt, zumindest hoffe ich das AMD die Produktion so gut in den Griff bekommt, denn soviel Leistung für so kleines gabs selten, höchstens im CPU-Bereich damals mit Athlon XP/X2 :)

kisser schrieb:
Das Gegenteil ist der Fall, je kleiner der Chip, umso schwieriger ist er zu kuehlen, weil die Abwaerme auf immer kleinerer Flaeche abgefuehrt werden muss, also die W/mm*mm steigen.
Das stimmt schon, aber durch gute Bauweise + Kühllösung ist das noch weit davon entfernt das die kleinen Chips zu warm werden, die HD4xxx-Reihe bekommt man auch locker <50°C auch unter Last, aber wahrscheinlich nicht jedermanns Sache mit Standardkühler, wird ja relativ laut.

Kissers Logik nach verbraucht die GPU im Idle mehr als unter Last
und im 2D Betrieb mehr als im 3D
Ich versteh leider nicht wie du das aus den Beiträgen entnehmen konntest, er hat lediglich geschrieben, dass mehr Transistoren auch mehr Strom zum Schalten brauchen, was einfach logisch ist. Die Leistungsaufnahme im 2D-Betrieb ist da eher nach der Problematik ob und welche Teile der GPU bequem und ohne Fehler zu produzieren abgeschaltet werden können, was bei der HD4xxx-Reihe ja leider nicht von Erfolg gekrönt war.

Das die Taktrate des Chips groß steigen wird halte ich für Wunschdenken. Wenn man bedenkt das die 3 1/2 Generationen alte X1000er Serie schon mit 650 MHz lief (OC ~700) und diese noch in 90nm hergestellt wurde.
Ohne jetzt Belege zu haben würde ich mal behaupten, dass man auch im GPU-Bereich nicht einfach Taktraten vergleichen darf und eine X1xxxx-Karte bei gleichem Takt langsamer wäre als eine HD4xxx-Karte. Wenn ich da falschliege bitte Quelle oder entsprechend schlüssige Begründung ;)

@ALL
Ich stimme ja auch nicht mit allen Aussagen hier überein und schreibe eigentlich auch recht selten mal was, aber nur weil jemand entweder schlecht formuliert hat oder man die Meinung nicht mag muss man doch längst nicht Worte verdrehen bzw. falsche Schlussfolgerungen anstellen.
 
Zuletzt bearbeitet:
Also wie ichs mir dachte, eine kleinere Fertigung aber im Prinzip eine HD4870 mit höherem Speichertakt.

Gibts da schon kleine Vorabtests, kann mir kaum vorstellen, dass das bischen Ram-Takt einen spürbaren Performanceschub gibt.
 
TeHaR schrieb:
Das die Taktrate des Chips groß steigen wird halte ich für Wunschdenken. Wenn man bedenkt das die 3 1/2 Generationen alte X1000er Serie schon mit 650 MHz lief (OC ~700) und diese noch in 90nm hergestellt wurde. Die aktuelle 55nm läuft auf 750MHz beim Topmodel. Das sind gerade mal 100MHz mehr. Man muss wohl wie bei den CPUs einsehen das bei ~750 MHz (+ max 2-3% je Generation) schluss ist, und man über Effektivität und Parallelität gehen muss.

Wir können uns glücklich schätzen wenn die 4970 mit 48TUs, 960Shadern und 4GHz DDR5 kommt. Der Chiptakt aber wird mit 750, bei Glück 775 nicht viel besser werden.

GPUs bestehen hauptsächlich aus Logiktransistoren, der Cache Anteil ist im Gegensatz zu CPUs minimal. Das führt zum einen zu einer deutlich höheren Leistungsaufnahme (bei gleicher Transistorzahl wie eine CPU), zum anderen entstehen so wesentlich mehr kritische Hotspots die die maximale Taktfrequenz einschränken. Damit ist die Optimierung einer GPU auf hohe Taktraten wesentlich komplexer als das bei einer CPU der Fall ist.

Dann wäre da noch die mit dem unterstütztem Techlevel zwangsläufig steigende Komplexität der GPUs (was die Transistorzahl bei quasi jeder Generation erhöht). Der grundlegende Unterschied zu CPUs liegt aber in der (fast beliebig) vorhandenen Möglichkeit der Parallelisierung. Anstatt ein Design mit enormen Aufwand auf hohe Taktraten zu optimieren ist es bei den kurzen Zyklen der Graphikchipproduktion sinnvoller die Anzahl der einzelnen Einheiten zu vergrößern.
 
f1delity schrieb:
Also wie ichs mir dachte, eine kleinere Fertigung aber im Prinzip eine HD4870 mit höherem Speichertakt.

Gibts da schon kleine Vorabtests, kann mir kaum vorstellen, dass das bischen Ram-Takt einen spürbaren Performanceschub gibt.

Der Chip wird breiter :D

...1280Sp's munkelt man, also ein doppelter RV740 ^^

RV740 ->640SP, 32TMU's, 128bit SI, 512mb, GDDR5

Ein RV770 in 40nm wäre zu klein um ein 256bit SI aufnehmen zu können, man brauch schon über 200mm²
 
kisser schrieb:
Ach, du studierst noch? Typischer studentischer Besserwisser? Ich habe seit fast zehn Jahren mein E-Technik Diplom.

Hmm, okay. Mit 18 Jahren hat man bestenfalls Abi, dann hat man mindestens ne Regelstudienzeit von 10 Semestern bei Elektrotechnik (im Schnitt werden 12-14 gesagt, weil es mit einer der schwersten Studiengänge in Deutschland ist).

So, dann bist du mindestens 33 und prügelst dich hier immernoch mit "Studenten" rum, obwohl es dir bei nem Gehalt von mindestens 50.000€ im Jahr (wenn man wirklich sein Diplom hat) reicht sich einfach jede scheiß GraKa auf dem Markt zu kaufen...

Na Prost, wenn ich 33 bin werd ich wohl arbeiten und mich nicht mehr über die "GraKa-Gerüchteküche" streiten...

Edit: Das war dann auch mein letzter Post zu diesem Thema. Will ja nicht den Rest der User, die hier auch teils sinnvoll diskutieren stören.
 
Zuletzt bearbeitet:
Ohne jetzt Belege zu haben würde ich mal behaupten, dass man auch im GPU-Bereich nicht einfach Taktraten vergleichen darf und eine X1xxxx-Karte bei gleichem Takt langsamer wäre als eine HD4xxx-Karte. Wenn ich da falschliege bitte Quelle oder entsprechend schlüssige Begründung ;)

Hab ich irgendwo etwas über Performance geschrieben? Nein. Es geht nur um den Takt und nicht Takt/Leistung. Viele sagen nur immer das mit kleineren Fertigungen der Takt steigen kann/muss. Was so überhaupt nicht stimmt.
 
Jake_Dunn schrieb:
Der Chip wird breiter :D

...1280Sp's munkelt man, also ein doppelter RV740 ^^

RV740 ->640SP, 32TMU's, 128bit SI, 512mb, GDDR5

Ein RV770 in 40nm wäre zu klein um ein 256bit SI aufnehmen zu können, man brauch schon über 200mm²
Ich weiß zwar nicht wo du die Infos herhast, aber auf sowas hoffe ich, sonst würde sich die HD5xxx-Reihe nicht lohnen und meine nächste GPU wäre dann wohl zwangsläufig eine HD4870X2 oder GTX295.

TeHaR schrieb:
Hab ich irgendwo etwas über Performance geschrieben? Nein. Es geht nur um den Takt und nicht Takt/Leistung. Viele sagen nur immer das mit kleineren Fertigungen der Takt steigen kann/muss. Was so überhaupt nicht stimmt.
Naja, okay, dann hab ichs falsch aufgefasst, aber solange die Leistung steigt ist mir der Takt relativ egal, CPU hängen ja auch seit Jahren bei ~3GHz rum :evillol:
 
kisser schrieb:
loco28 schrieb:
- Und nicht zu vergessen dass sowohl in 3D und vor allem in 2D die Stromaufnahme deutlich gesinkt werden kann.


Die Erfahrung zeigt, dass das nicht so ist, weil immer mehr Transistoren auf den Chips sitzen und die brauchen nunmal Strom beim Umschalten.

Daraus entnahm ich meine Behauptung
 
Die Behauptung aus #52?
Irgendwie hat das Zitat rein gar nichts damit zu tun. Erklär mal deine wirren Gedankengänge.

BTW:
Killermuecke schrieb:
@Kisser wenn eine GPU geshrinkt wird kann man das sehr wohl optisch erkennen das beste beispiel ist der shrink vom G92 zum G92b
guckst du https://pics.computerbase.de/2/2/0/6/8/6-1080.3342965109.jpg
Wo hat er gegenteiliges behauptet? Irgendwie komm ich bei deinen Aussagen nicht mehr mit.
 
Zuletzt bearbeitet:
Und ein halbes Jahr später kommen dann die ersten DX 11 Karten, da lohnt es sich eh nicht umzusteigen für Leute die schon eine HD4870 bzw. 4850 haben
 
Nö, aber für 3K Besitzer wie mich. Entweder werden die neuen leistungsfähiger oder wesentlich günstiger als die 48x0 Reihe. Mir wäre beides Recht, vor allem wenn die neuen wieder ein funktionsfähiges Powerplay haben.
Alles andere ist aktuell eh nur Spekulation, allerdings wage ich zu bezweifeln, dass AMD sich noch mal so abhängen lässt wie beim R600.
 
das mit dem "abhängen" lassen kann immer wieder mal passieren und zwar beiden seiten (siehe gf5).
keiner weis was nv grade im hintergrund entwickelt wärend die alte g80 architektur mit jedem shrink weiter ausgereizt wird. die entwicklung der 8800gtx hat ja auch vier jahre gedauert. gleiches gilt für ati. der r600 war ein flopp aber selbst die 4870 basiert noch auf der gpu. vllt haben die ingenieure bei ati nebenher ein völlig anderes projekt am laufen, weil die r600 architektur der g80 unterlegen ist. da die entwicklung einer völlig neuen architektur aber jahre dauert, wird die r600-architektur soweit optimier wie eben möglich um zumindest über preiskampf möglichst hohe marktanteile zu behalten (oder wie zur überraschung aller derzeit sogar zu gewinnen!) und wenn nv noch mit dem gt300 rumkrebst haut ati eine völlig neue hammerarchitektur wie damals die 8800gtx auf den markt und deklassiert nv. es wird in zukunft sicher immer wieder überraschungen geben, die das gleichgewicht zwischen den beiden erschüttern und immer wieder wird sich der unterlegene an den anderen heranarbeiten.
 
@Lübke
Es geht momentan aber das Gerücht um, dass eben jener von dir beschriebener GT300 Chip eine komplette Neuentwicklung sein soll. So wie damals von GF7 zu 8800er Reihe! Und ATi wird erst nach der HD5000er Reihe auf ihre neue Architektur setzen. Von daher wirds gefährlich Prognosen in diese Richtung abzugeben!;)
 
Egal ob da nun was dran ist oder nicht - irgendwie hab' ich das Gefühl,
dass es grad bei beiden Herstellern ziemlich hakt. Echte Fortschritte sehen anders aus.
Guckt euch mal die Produktpaletten der letzten 2-3 Jahre an!
Insgesamt betrachtet find ich das ziemlich grottig. Vor allem im High-End bereich isses
richtig mies. Was man da für ein Prozentchen Leistung mehr bezahlen soll ist wirklich unglaublich.

Klar, die meisten hier finden es normal/angemessen für eine Grafikkarte das Doppelte
oder gar Dreifache vom Prozessor zu bezahlen... Ich aber definitiv nicht!
 
kisser schrieb:
Der Rest? Das sind dann immer noch ueber 700 Mio Verlust und das liegt nicht an der momentan schlechten Nachfrage.
Wer redet denn von Nachfrage? Wenn du weisst, woher die geringeren Umsätze konkret kommen, dann nur her damit. Ansonsten würde ich dir empfehlen, du hältst dich mit deinen Besserwisser Anekdoten zurück. Fakt ist, dass andere Unternehmen ebenso betroffen sind. Schau dir zB Intel an. Deren Abschreibungen mal aussen vorgelassen, ist der Umsatz trotzdem ein ganzes Stück zurückgegangen. Und wenn du dir mal diverse grosse Unternehmen anschaust, sieht es auch nicht besser aus. Aufwachen sollte lieber mal der, der nicht glaubt, dass dies globale Ursachen hat. Und Fakt ist auch, dadurch, dass der RV770 deutlich wirtschaftlicher als nVidias Chip ist, sind die Einbuszen nicht so gross.

kisser schrieb:
Das Gegenteil ist der Fall, je kleiner der Chip, umso schwieriger ist er zu kuehlen, weil die Abwaerme auf immer kleinerer Flaeche abgefuehrt werden muss, also die W/mm*mm steigen.
Das ist pure Theorie und würde voraussetzen, dass die Transistoren gleich bleiben. Das ist in der Praxis aber nicht der Fall. Erst recht nicht bei einem Full Node Shrink.
 
Zuletzt bearbeitet:
@Dude-01: ich hab keine prognose abgegeben sondern beide szenarien aufgezeigt ;) und damit will ich ganau das sagen: eine prognose abzugeben ist vollkommen unmöglich, da beide richtungen gleichwahrscheinlich sind.
im übrigen hab ich gelesen, dass der rv870 eine völlig neue architektur sein soll ;) womit wir wieder am anfang wären^^

@skcusBC <-: ati macht doch große fortschritte und nvidia braucht im moment nichts schnelleres rauszuhauen. die gtx280 und gtx285 sind doch außer konkurrenz. warum sollten sie die architektur nicht noch eine zeitlang verkaufen? wäre doch unklug eine architektur abzuschaffen, solange damit noch geld zu verdienen ist...
 
@Lübke: Ursprünglich war geplant das der R800 eine neue Architektur auf Basis von MCM. AMD hat das aber nach hinten verschoben und so wird der R800 die selbe Architektur haben wie der R600 und R700. MCM wird voraussichtlich erst mir dem R900 kommen.
Was nV angeht bin ich nicht deiner Meinung. Genau dieser Gedanke hat nV is die Lage gebracht in der sie jetzt sind. Sie haben die G80 Architektur über strapaziert und im G90 nur aufgegossen da man der Meinung war mehr brauchts nicht für ATI. Der G200 wurde designed als absolute überlegene und teuer zu verkaufende HighEnd Chip da man glaubte der GeForce 9 Modelle reichen als Gegenspieler zu ATI. Und dann kam HD4870 die nV als Konkurrenz zur 9800 sah und war zum Preis eben dieser aber Konkurrent zur GTX260. Hätte statt die G80 aufzugiesen um damit Geld zu scheffeln gleich auf eine schnellere Entwicklung einer neuen Architektur und feinere Herstellung verfahren gesteckt würde das heute anders aussehen auf dem GPU Markt.
Aber uns Kunden soll's freuen, ATI hat mit seiner "small is beautyfull" strategie dafür gesorgt das wir HighEnd Karten ab 200€ Kaufen können. Vergleiche das mal mit früher da ging dieses Segment ab 350€ los.
 
Zurück
Oben