News Ist ATis RV790 mehr als ein übertakteter RV770?

y33H@ schrieb:
Eine 4870 fiept auch :rolleyes:

cYa
Da hilft nur eine großes Spezial: "Großer Grafikkarten Fieptest 2009" inklusive Hörproben.

Sonst glaubt dir eh niemand, egal wie oft du es wiederholst.

lalanunu schrieb:
oh man? wo hast denn die zahlen her? da kannst auch gleich 100% sagen. :rolleyes:
es waren von ca 20% die rede...
Aus Testberichten.
Mit 20% wird das nichts mit der GTX 285.

Wahrscheinlich sinds 10% wegen dem Takt und 10%/30% wegen der VRAM Größe. Geheimnis gelüftet.
 
Zuletzt bearbeitet:
mich würde ja mehr interessieren wann die ersten 40nm karten kommen. Aber gut wenn die leistungsaufnahme bei den karten auch ohne shrink deutlich besser würde wäre sie natürlich auch interessant. aber rein preis/leistungstechnisch werden die 40nm karten sicher deutlich interessanter sein. und auch noch reichen bis man sich dann ein shrink einer dx11 karte holen kann.

So viel tolle spiele gibts ja eh kaum wobei mittlerweile gibts wieder ein paar spiele wo meine x800 zu schwach ist die mich aber trotzdem interessieren (oder wegen shader3.0 nicht laufen) z.B. dieses mirrors edge und gta4 (wobei da zählt ja woh jede leistung wobei dafür ein quadcore fast noch wichtiger ist ^^)
und noch burnout paradise (find die serie irgendwie am coolsten ^^) optisch

OT:

@AlphaGoku:

lol hab einfach überlesen das ihr die sparlampen gegen alte glühbirnen ausgewechselt habt da ich diesen weg ausgeschlossen habe. ^^ daher hab ichs unterbewusst andersrum gelesen.

Das ist mir aber schon fast sympatisch wie man ja aus meinem beitrag raus lesen konnte. Allerdings find ich für den flur oder sonstwo die dinger schon ok andererseits sind die dort ja eh selten an (bei mir zumindest) daher ist der spareffekt wieder vernachlässigbar.

Aber in wohnräumen wo man es auch gemütlich haben will find ich die dinger nicht so gut. für arbeitsräume ok da ist so blaues kaltes licht sogar leistungsfördernd aber in ner chilloutecke nein danke.

Wie gesagt leds werden das wohl mittelfristig richten und sind schon alleine wegen verzicht auf quecksilber oder sowas besser oder gleich ne oled-wand wo man dann auch gleich noch nen strand oder irgend nen ausblick nach wahl einblenden könnte ^^

http://www.3sat.de/3sat.php?http://www.3sat.de/nano/news/106854/index.html <- so klar ist der vorteil wohl dann doch nicht ^^
 
radoxx schrieb:
Auf einem DIE sind jetzt bereits schon hunderte Kerne ;)

Du meinst einen Wafer :)

Ich meinte damit auch 2 GPU Dice in einen Package gepackt werden.
Also wie es beim Pentium D und Core2Quad der fall war
 
smith0815 schrieb:
All diese Wünsche sind technisch kein Problem, es fehlt dem Treiberteam allein der Wille.

Meine Rede. Ich habe vor kurzem erst meine 4870 X2 durch eine GTX 280 ersetzt, da erstere zwar reichlich Leistung hatte, aber was nutzt mir das, wenn das AF bei eingeschaltetem Catalyst A.I. kopfschmerzerregend vor sich hinflimmert.
Selbst wenn man A.I. (und damit leider auch Crossfire) deaktiviert, ist das AF nicht mit nVidia in der HQ-Einstellung zu vergleichen.

Wenn es ATi endlich mal gelingt A.I. von Crossfire zu entkoppeln, eine vernünftige AF-Qualität zu bieten (bei der Radeon X1000-Reihe ging's ja auch) und vielleicht noch SSAA zu ermöglichen, dann wäre eine (hypothetische) 4890 X2 ganz oben auf meiner Wunschliste.

Denn leistungsmäßig stellt mich die GTX 280 nicht völlig zufrieden, für zwei Karten habe ich keinen Platz und der GTX 295 fehlen die 128 MB VRAM (im Vergleich zur GTX 280/285) dann doch, wenn's drauf ankommt. Und die Mehrleistung gegenüber der 4870 X2 nehme ich auch gerne mit.
 
Wenn diese Karte noch in 55nm gefertigt ist, wie will man die denn noch Kühlen oder auch übertakten?

AlphaGoku schrieb:
Ein deutsches Kriegsschiff, das bei Libonon patroulliert verbraucht im Monat eine Million Liter Diesel, da können Tausende von euch sparen und werden es trotzdem nicht auszugleichen können.
 
Zuletzt bearbeitet:
sdooM schrieb:
Weniger Leistungsaufnahme im 2D würde die Karte für mich erst interessant machen. So recht möchte ich aber daran nicht glauben.

Das haben se bei der HD4830 auch hinbekommen, welche Standardmäßig mit 160MHz und reduziertem Speicher ankommt, sobald man allerdings mal das Overdrive versucht kommt der Standard 2D Takt nur noch auf 300MHz :(

Irgendwie nicht ganz einleuchtend aber naja zumindest klappts da besser als bei HD4850 und Co. ;)
 
Richtig interessant wird die HD 4890 bei Crysis. Hier könnte die Karte mit dem 9.2 sogar weit über einer GTX 285 liegen.

Im wirklich wichtigen spielbaren Bereich von 30FPS scheint der Treiber dann wieder nix zu bringen...
https://www.computerbase.de/artikel...lyst-9-2.971/seite-7#abschnitt_crysis_warhead

An den extrem guten Idle Stromverbrauch der 55nm GT200 Modelle werden sie nicht ran kommen mit dem Stromhungrigen GDDR5

MfG Kasmo
 
Unyu schrieb:
Aus Testberichten.
Mit 20% wird das nichts mit der GTX 285.

Welche zuverlässige Quelle sagt das es was mit der GTX285 werden soll ? :rolleyes:

...ausser Fudzilla und CB die wieder eine Müll-News bringen und solchen Stuss auch noch pushen :stock:
 
Jo Haut euch die köpfe ein .... ich hab zeit und warte bis AMD Offiziel sagt das die die und ei Taktraten hat und soviele shaderprozessoren oder sonst was ....
 
@Adam Gontier

Bist du immer so ein Klugschei*er?
Ich denke es ist ersichtlich dass das vertippt war...
Jetzt stalk ich nach deinen Verschreibern...

Eine wäre doch absolut unnötig und nicht rentabel.
Die alte X2 ist auf Augenhöhe mit Gtx295, es besteht kein Bedarf
 
@AlphaGoku: Vielleicht ein späte Antwort, aber brainwashed ist hier niemand. Vielleicht solltest du dich über Kelvinwerte von Energiesparlampen informieren, dann kannst du eine gleich warm und intensiv leuchtene Sparlampe finden, die aus 60-70W gerade 7-11W macht. Und auch wenn das für sich alleine keinen großen Euro ergibt, ist es die Maße, die sich intensiv auswirkt.

Letztlich will ich aber gar nicht dich überzeugen, sonder vielmehr deine Argumente als Ignorant darstellen - denn deine Argumentation ist eine sinnfreie Bremse für das immer mehr etablierende Energiebewusstsein - welches niemanden (!) schadet, aber allen nützt.
 
Zuletzt bearbeitet:
AlphaGoku schrieb:
Sagmal seid ihr jetzt alle brainwashed?
Wen interessieren die 20 Watt extra...
Also es gibt Leute die wollen einen lesien Rechner haben. Schon mal geschaut wie riesig die Vielfalt der Alternativkühler für eine 4870 ist? Wenn die Karte 20W mehr Wärme entwickelt wird das nicht einfacher, gerade bei den Spannungswandlern.

Pickebuh schrieb:
Sorry, aber der Kindergarten ist 3 Blocks weiter.
 
R O G E R schrieb:
radoxx schrieb:
Auf einem DIE sind jetzt bereits schon hunderte Kerne
Du meinst einen Wafer :)

Ich meinte damit auch 2 GPU Dice in einen Package gepackt werden.
Also wie es beim Pentium D und Core2Quad der fall war
Aktuelle Grafikkarten à la HD4870 haben 800 separate Streamprozessoren und sind deshalb schon um einiges weiter Dual-CPUs ;)
 
AlphaGoku schrieb:
Sagmal seid ihr jetzt alle brainwashed?
Wen interessieren die 20 Watt extra, eine gute Lampe braucht schon ihre 70 Watt.
Falsch, eine gute Lampe verbraucht nicht mehr wie 15Watt!
Ein deutsches Kriegsschiff, das bei Libonon patroulliert verbraucht im Monat eine Million Liter Diesel, da können Tausende von euch sparen und werden es trotzdem nicht auszugleichen können.


eine 9 Watt Warmlichtenergiesparlamge entspricht einer 40 watt lampe. du Sparst also 78% an Stromkosten fürs Licht, was bei Nachtmenschen mal gut 4-6std täglich läuft.

Das wären pro Lampe 56,6 kwh pro jahr, PRO LAMPE. 12 Euro pro Lampe jährlich einsparen, bei 10 Lampen wären schon mal 120 Euro jährlich. Dazu kommt noch, dass wahrscheinlcih in der Deckenbeleuchtung 70 Watt lampen zu einsatz kommen, rechne das mal hoch. Und wenn du sagst, dass das immer no nix ist, bist du erstens ein Umweltvernichter und achtest nicht auf dein Geld, sorry... Vom Wirkungsgrad brauchen wir erst gar nicht zu reden.

Kasmopaya schrieb:
An den extrem guten Idle Stromverbrauch der 55nm GT200 Modelle werden sie nicht ran kommen mit dem Stromhungrigen GDDR5

MfG Kasmo

Wenn ich micht irre, stand mal in irgendeiner News, dass sie weiterentwickelten GDDR5 Speicher verwenden, der eben nicht mehr so Stromhungig ist,bzw nicht so sensibel auf Taktwechsel reagiert, kann aber au sein,dass ich mich irre. Allerdings hängt der hohe Stromverbrauch bei RV770 großteils vom GDDR5 speicher hab, den RV770 deshalb schlecht zu reden ist wohl a weng daneben.



gruß
 
Zuletzt bearbeitet:
Ich vermute, dass PowerPlay verbessert wurde (nicht mehr gleiche Voltage und Speichertakt)

An alle die meinen ATI Karten können nicht wenig verbrauchen....
Mein System verbraucht im 2D Betrieb mit C&Q + HD4870 @ 120/200/0.7V rund 80W, wenn ich den Takt bei 500/900/1.263V lasse verbraucht dieses etwa 115W.
Hab es mit OnBoard Graka probiert und Verbrauch war nur 2W drüber!!! (Graka kurz ausgebaut)


Naja mit dem RV790 wird HD4870 billiger und der Nachfolger wird den Platz einnehmen.
Für Verbraucher ist das gut :)
 
Ich denke mal, dass es so sein wird:

ATi wird die Taktraten insgesamt, wie schon bekannt, ein gutes Stück erhöhen - dies bringt denke ich um die 10% mehr Performance (siehe GTX 280 -> GTX 285).

Die weiteren 10% werden von zusätzlichen Shadereinheiten kommen; der RV770 soll ja so einige mehr haben, die aber deaktiviert sind.

Also lohnt sich der RV 790 hauptsächlich für nicht Radeon 4870 bzw. GTX 2xx Besitzer.


Ich finde es ja schade, dass ATi nicht schon auf 40 nm und Taktraten bis zu 1 GHz Core setzt - dann hätten sie zumindest bis zum GT212 (oder wenn dieser wegen der aktuellen Situation bei nV doch nicht kommt -> tausende GPUs, zumeist G92(b) haben die Grünen in Bestand) oder GT300 die schnellste Single GPU am Markt.
 
@Edgecrusher86

Wenn du die News verfolgt hättest, würdest du wissen, dass es keine zusätzliche Einheiten hat ;)

40nm Prozess ist noch nicht fehlerfrei und wird deswegen etwas später kommen.
40nm Prozess wird auch bei nvidia erst später kommen. (zuerst bei low range Karten)
 
Edgecrusher86 schrieb:
Ich finde es ja schade, dass ATi nicht schon auf 40 nm und Taktraten bis zu 1 GHz Core setzt

Das würde ein Redesign des Chips erforderlich machen und somit einen ganzen Rattenschwanz an Entwicklungsarbeit nach sich ziehen. Und dann besteht noch das Risiko, dass der RV790 in 40 nm schlechte Yield-Raten erzielen könnte. Also lieber erstmal risikoarm die 55-nm-Fortschritte bei TSMC mitnehmen.
Bin mal gespannt, was für Verbesserungen man genau vornimmt. Nachher sinds wahrscheinlich einfach nur Treiberoptimierungen. ;)
Speicherseitig bin ich auch mal gespannt. Auf der Mobility Radeon HD 4860 setzt AMD bereits 5-Gbps-GDDR5-Speicher ein, die Radeon HD 4870 arbeitet ja bekanntermaßen noch mit 3,6-Gbps-Chips. Die schnelleren Chips sind wohl energieeffizienter bei gleichen Taktraten. Und Übertakter haben auch ihren Spass mit überdimensionierten Speicherchips, da die Radeon HD 4890 ja anscheinend nur mit ~1000 MHz Speichertakt arbeiten soll (5-Gbps-Chips sind für bis zu 1250 MHz spezifiziert).
 
Zurück
Oben