News ATi Radeon HD 4890 schon im April?

man gruffi...
erzähl doch nicht so einen quark.
ob nu sapphire, asus, msi oder powercolor...alles referenzdesign, wo es definitiv nur sehr geringe unterschiede gibt. sind sicher keine billig-heimer.

bei selbstkreierten designs haste recht, aber das betrachten wir hier wohl kaum.
und cb wird sicher kein chinesischen nachbau für seine tests verwendet haben.

wir reden hier übrigens zu 90% über idle...nicht last, wo sich die ohnehin graka am seltensten befindet ;)
da hat ein furmark nix mit am hut. da verbraucht eine 4870 das doppelte einer 285gtx ;)

du kannst da bei ati nix schönreden, so sehr du es versuchst. und nochmal: ich habe auch eine 4870, aber sparsamer per bios und nicht per software wäre definitiv eine tolle sache "punkt"

mfg
 
Zuletzt bearbeitet:
Bei den kleineren Fertigungsmethoden wärs bestimmt besser im Stromverbrauch,allerdings Taktet sie ja bei 850mhz.Kurz gesagt,ich denke mal das gibt sich nicht viel mit der HD4870.......vielleicht ein bischen,kleines bischen weniger Verbrauch..:evillol:
 
Ganz generell, weiß Einer wo das Problem ist die so runterzudrosseln? Die Technologie ist ja da.
Muss eine Mindestspannung anliegen, oder ein Mindestfluss an Strom?
Auf der einen Seite denke ich, so schwer kann das doch nicht sein, die auf wenig Watt runterzutakten und bei Nöten wieder hochzutakten.
Auf der anderen Seite wiederum, wenns so einfach wäre, hätten die das schon längst gemacht...
Woran scheiterts?

Cu
Lasyx
 
es scheitert am GDDR5 und an den SpaWas..

die SpaWas mögen keine häufige belastungsänderung
der speicher mag den extremen wechsel vom takt nicht.

zum einen gibt es bildfehler und es kann unter umständen bis zum totalausfall deer karte kommen.
seit ich knapp dran vorbeigeschrammt bin lass ich den ganzen underclocking mist bei der 4870.


@TOPIC:
da ham se schon recht, 20% leistungssteigerung bei 13/13/8% taktsteigerung? never


hatte vor tagen aber mal nen nettes bild in der google bildersuche:

hier maln link dazu:
https://www.computerbase.de/forum/t...erclocking-thread.434785/page-70#post-5539929



die dort genannte 4970 konnte sehr gut mit meiner 4870 @ 999/1100 mithalten, was GPix, GTex angeht
 
Zuletzt bearbeitet:
Da du schon xbitlabs verlinkt hast, hättest du auch dies verlinken können: http://www.xbitlabs.com/articles/vid...c_5.html#sect0
Sieht doch bei weitem nicht so schlimm aus, wie du es dargestellt hast....
Das ist nicht relevant. nVidia braucht erst eine Überarbeitung des Designs, um wieder einigermassen konkurrenzfähig zu werden. Was glaubst du wohl, hätte man aus dem RV770 noch machen können, wenn die Notwendigkeit bestanden hätte? G200 und RV770 erschienen zur gleichen Zeit. Insofern macht ein technologischer Vergleich dort Sinn. Der G200b bleibt da aussen vor.
Und was soll ich denn "schlimm dargestellt" haben? Alle meine Aussagen haben auch mit diesem verlinkten Artikel Bestand.

Und zu Furmark, der Bremstreiber ist erst nach HD48xx Start erschienen, die Umbennung der exe kann demnach keine Verletzung der Herstellervorgaben sein.
Doch, genau das ist es. Einfach mal Lizenzvereinbarungen etwas genauer lesen. ;)

die.foenfrisur schrieb:
wir reden hier übrigens zu 90% über idle...nicht last, wo sich die ohnehin graka am seltensten befindet ;)
da hat ein furmark nix mit am hut. da verbraucht eine 4870 das doppelte einer 285gtx ;)
Dann redest du aber schlichtweg am Thema vorbei. Schliesslich ging es um die Güte der GPU und nicht um Bugs.
 
Zuletzt bearbeitet:
...hm , habe interessiert alles durchgelesen . ich bin ein absoluter Ati fan und habe schon einige der karten gehabt . ich glaube , daß Ati die temperaturen unten halten kann , wenn die endlich anfangen vernünftige kühler zu bauen , sicherlich habt Ihr euch schon den süßen kühler der 4870er mal von unten angesehen - das ding ist ja wirklich süß ! außen riesen kappe aber innen 5 kühlrippen :D . HIS hat es mit der IceQ4 auch geschaff die temps zu reduzieren . jetzt stellt euch mal vor , man hätte den originalkühler der 4870er auf eine GTX260 drauf gesetzt - :lol:- drama baby -die hätte dann auch locker 70-80°C .

die sollen einfach mal anfangen größere kühler zu bauen ! fertig ! dann klappt es auch mit den temps.

und was die 40nm angeht , ich persönlich glaube daß die erst bei der HD 5xxx zum einsatz kommen , wie die anderen kollegen schon sagten - diese 4890er aktion wird mit der 260 - 260² geschichte vergleichbar sein . Ati hat in den letzten monaten super gekontert und nVidia
viele kunden abgeworben - war ein steiler aufgagng - nun dauert es noch etwas bis die 40nm überzeugend genug sind für eine neue reihe , also muß sich auch ATI etwas einfallen lassen um konkurenzfähig zu sein - wäre sonst schade um den erfolg der letzten monate. alles marketing-strategie ;) nach dem motto , jetzt blos nicht locker lassen ;)

aber das ist nur meine persönliche meinung
 
Zuletzt bearbeitet:
JA - die Mehrleistung zur 4870 sowie gegenüber der Konkurrenz ist ein lobenswerter Zug

JAIN - die im referenzdesign nicht optimale geräuschentwicklung (vor allem der 4870er) wurde ja bei einigen herstellern zufrieden stellend gelöst, z.B. bei Palit (siehe Sig). dies wird wie immer nicht von anfang auch bei der neuen 4890 möglich sein (ATI wird anfangs keine Eigenentwicklungen der Hersteller zulassen sondern auf dem Referenzdesign bestehen, kennt man ja), aber leise version werden (später) kommen

NEIN - die Verlustleistung wird weiter steigen und somit auch der Kühlaufwand, falls nicht überraschenderweise doch in 40nm produziert werden sollte (was eher unwahrscheinlich ist nach der meldung von TSMC, mit dem 40nm-Prozess noch schwierigkeiten zu haben). da die bisher für die 4000er angekündigten stromsparmaßnahmen nicht richtig funktionieren, ist leider mit keiner besserung zu rechnen - schade aber wir werden uns überraschen lassen müssen.

allgemein wäre aber ein ganz banaler fix im treiber möglich, der den RAM-Takt im desktopbetrieb wie jetzt schon den GPU-Takt auf ein minimum reduziert. das spart energie und senkt die temps - im selbstversuch bleibt bei mir die karte ca. 6°C kühler mit minimiertem takt (475 anstatt 950 MHz).
 
Also wenn wirklich 25 - 30% (VR-Zone) Mehrleistung zur 4870 vorhanden sein soll, müssen zusätzliche Shadereinheiten oder Verbesserungen der aktuellen Streamprozessoren integriert worden sein. Mit 960 SPs, 48 TMUs, 850 MHz Chiptakt und 975 MHz Speichertakt liegt man wohl bei etwa 25%...Anders geht es wohl kaum.
Außerdem passt das zu ATIs derzeitigem Kampf um die eigenen Marktanteile weiter zu vergrößern. Dann noch zu dieser hervorragenden Preisgestaltung von bis zu 249 Dollar. Mit dieser Kombination sehe ich nvidia unter Zugzwang..

Aber erstmal abwarten, leider ist noch alles Spekulation..



MFG MR2
 
Zuletzt bearbeitet:
Ich bin mal ganz ehrlich und sage die Karte lohnt sich nur wenn sie bereits in 40nm gefertigt wird, dadurch deutlich weniger Saft braucht und gescheite Stromsparmechanismen für Idle eingebaut wurden. Dazu dann nen gescheiten und vorallem leisen Kühler und ich kaufe die Karte.
Aber ehrlich gesagt zweifle ich einfach daran das die Karte so attraktiv wird. Vermutlich wird aus dem 4870 Chip alles was geht raus gepresst um am Ball mit Nvidia zu bleiben. Für mich wär das nicht so tragisch weil mir meine 8800Gt auch noch bis zum GT300 od. RV870 reichen wird und die wird sicher nicht gegen einen Staubsauger getauscht, meine ist nämlich Flüsterleise.
Mfg
 
SamSemilia schrieb:
warum mehr sparen? Schonmal nachgedacht was fürn unterschied es macht alle Glühbirnen auszutauschen?
nehmen wir mal 4 Glühbirnen pro Raum in einer 4 Zimmer wohnung als grundidee... Alle 60W gegen 18 W Birnen tauschen macht einen riesenunterschied ...

Ja ja die Energiesparlampen....aber warum sollte ich Birnen verwenden die 18 Watt verbrauchen wo es inzwischen doch LED Leuchten gibt die nur zwischen 2 - 5 Watt verbrauchen bei wesentlich weniger Nachteilen, wie es die Energiesparlampen mit sich bringen.....tjo die Antwort wird wohl nur Brüssel (oder die Herstellerlobby der Energiesparlampen) wissen ;)
 
Wieso reden hier eigentlich alle von lauten 4870ern? Meine Sapphire HD4870 ist nicht rauszuhören und neben meinem Passivkühler für die CPU hab ich sonst nur ein mit niedriger Drehzahl laufenden Noiseblocker Gehäuselüfter und ein Enermax Pro82+. Letzteres ist wirklich das, was ich höre.
Ok wenn jemand auch noch ein Passives Netzteil hat, dann wird die 4870 wohl laut, aber ansonsten kann ich dem Vorwurf nicht zustimmen. Mal davon abgesehen, dass die GTX 260 und GTX 280 lauter sind ^^
 
bibt es eigentlich schon infos über einen RV870???

würde mich mal intersiren

@topic ich hoffe das die karte nicht alzu laut wird das sie sonst kaum käufer findet..


mfg
 
Es gibt noch nicht einmal Infos zu diesem ominösen RV790, wie soll es da schon Infos zum RV870 geben (falls der überhaupt so heißen wird).
 
@ plastikmann, dann tausch dein netzteil aus... die modu und pro serie ist die leiseste die ich je (nicht) gehört hab und die 4870 is extrem laut... selbst in niedrigster drehzahl ist die lauter als ein Noisblock XL2 @ 800rpm und der ist ganzschön laut...
 
Super wie alle Nvidia für den niedrigen Idle Verbrauch ihrer High-End Grafikkarten loben.
Mal ehrlich, wer kauft sich eine High-End Grafikkarte und spielt damit nicht mehr, als das er im Idle ist?!
Sobald er mehr am Zocken ist, verbraucht Nvidias Karte mehr. Natürlich wäre ein niedriger Idle Verbrauch toll, aber gerade bei High-End Karten am Idle rumzumosern ist meiner Meinung nach unangebracht. Abgesehen davon kann man die ATis und bestimmt auch die Nvidias (meine letzte war eine 7900 GTO, da habe ich sowas noch nicht machen müssen) den GPU Takt und den Speichertakt runterregeln, also selbst PP spielen und Strom einsparen. Klar wäre es besser wenn das von alleine ginge, aber man KANN es machen! Im Gegensatz dazu kann man, so glaube ich, kaum die Leistungaufnahme beim Zocken verringern, außer natürlich den Takt runtersetzen. Aber dann braucht man sich auch keine schnelle Karte kaufen ;P. Ergo lässt sich mit den ATis gerade besser Strom einsparen als mit Nvidia Karten.
 
Zuletzt bearbeitet:
@plastikman...
hast du ne ahnung.
das gilt höchstens für hardcorezocker.

mfg
 
@die.foenfrisur

selbst für die nicht hardcorezocker, habe ich in meinem Beitrag geschrieben, warum die Nvs stromverbrauchsspezifisch eben eigentlich doch schlechter sind. Aber ATi und Nvidia sind da beide nicht das Gelbe vom Ei. Wäre schön, wenn die beiden schaffen würden den Stromverbrauch so zu senken, wie es Intel damals bei den C2D geschafft hat.
 
Also Nvidia ist mMn da recht weit, also was Stromsparmechanismen anbelangt. Ich glaube das in die Thematik Leistungsaufnahme ganz schön wind kommen wird, schlichtweg weil man sich derzeit am Rande des möglichen bewegt kühltechnisch. Außerdem wird mMn die Richtung eher dahin gehen das die einzelnen GPUs in ihrer Leistung nichtmehr so stark steigen, ähnlich wie bei CPUs, dafür aber in der Produktion billiger werden, weniger Saft brauchen und dadurch wesentlich kühler bleiben und es so möglich wird je nach bedarf bzw. angestrebten Preis werden dann entsprechend viele Kerne verbaut werden. Nach allem was man bisher in Erfahrung bringen konnte, arbeitet Ati ja schon an diesem Modell und ich glaube wer es hier schaft sich zügig richtig zu etablieren wird große Vorteile besitzen, genau wie beim erscheinen des C2D AMD ganz alt aussah.
Mfg
 
nach jüngsten Meldungen (fudzilla und hartware.net) soll das neue Ati High End Prodkukt Hd 4970 heißen und der Chiptakt soll von 750 auf 950 Mhz angehoben werden, wohingegen der Speichertakt bei 900 Mhz gleich bleiben soll. Mehr Shadereinheiten wird es wohl nicht geben.
 
Zurück
Oben