News ATi RV790 doch „mehr anders“ als gedacht?

Iapetos schrieb:
Prinzipiell braucht eine etwaige HD 4890 in puncto Leistung nicht mit einer GT200/206-Karte zu konkurrieren. Der Chip ist ungefähr halb so groß und daher deutlich günstiger herzustellen, außerdem ist die Yield-Rate mit Sicherheit höher als bei den GT200, da diese nunmal sehr groß sind.
Im Endeffekt ist die Schlacht geschlagen, denn Nvidia wird nicht sehr gut an seinen GT200-Produkten verdienen, am ehesten noch am den G92/G94/etc.-Karten. Ein Konter in Form einer ominösen GTX 275 wird für Nvidia ein teurer Spaß, AMD wird nach Belieben den Preis nach unten diktieren können.
Irgendwie bereitet mir diese Entwicklung ein wenig Sorge, da die ursprünglichen Verhältnisse für stabile Preise gesorgt haben - nun spielen sich beide kaputt; und zur Zeit scheint Nvidia dabei eindeutig den Kürzeren zu ziehen. Und auch wenn das im Moment erfreulich wirken mag, kann am Ende etwas sehr unangenehmes dabei herauskommen. Man sollte also am besten darauf hoffen, dass Nvidia bald wieder ein ebenbürtiges GPU-Design auf die Reihe bekommt, um nicht in der Versenkung zu verschwinden.

Amen Bruder:cool_alt:
So wie die sich zurzeit im Preis unterbieten und unterbieten werden... hoffentlich überstehen es beide Hersteller
 
@Lence_Laroo
So abwägig ist das ja nicht, das habe ich ja schon in meiner Vermutung geschildert. Ddie GTX295 hat ja nun mal 240 Shadereinheiten und bietet das 448Bit SI der GTX260. TMUs und ROPs würden ja auch passen, das könnte also schon hinhauen mit einer quasi "single GTX295" die dann unter dem Namen GTX275 läuft. Die Änderungen gegenüber dem GTX280/285 wären noch vorhanden und somit würde eine solche single GTX295 wunderbar ins Bild passen. Den CHip gibt es ja schließlich schon und könnte eben mal schnell gebaut werden. Wohingegen eine Neuentwicklung wohl länger dauern würde als eine GTX295 nur umzuwandeln beim Bau, also da man sich ja ein PCB sparen könnte.
 
drago-museweni schrieb:
Da binn ich mal gespannt währe aber ein schöner Rückschritt wenn jetzt statt 2x 6PEG dann 6PEG und ein 8PEG dazukommt, hoffentlich nicht.

Hab ich letztens schon mal zu der 4850 mit angeblich 2x 6Pin gesagt, hier geht es wohl nur um das einhalten der Spezifikation für die Stecker.

Schau dir mal die Tests mit Furmark an, dann weist du wieso!
 
Wenn der Name 100%ig gesichert ist, dann kann man sich wohl denken das es nur ein kleiner Refresh wird. 4870 auf 4890 ist kein großer Schritt, würde die Karte 4970 heißen dann würde schon was dickeres auf uns zu kommen. GTX 275 v. 4890 so wirds sein...

Zudem soll es auf der Karte einen Sechs-Pin- und einen Acht-Pin-Stromanschluss geben, während die Radeon HD 4870 noch mit zwei Sechs-Pin-Stromanschlüssen auskommt. Damit könnte die Grafikkarte mehr als 225 Watt aus der Stromleitung ziehen, was aber unserer Meinung nach eher unwahrscheinlich ist. So liegt die maximale Leistungsaufnahme der Radeon HD 4870 laut AMD bei 160 Watt, was eine immense Steigerung bedeuten würde. Wir gehen weiterhin von zwei Sechs-Pin-Steckern aus.
Mach doch durchaus Sinn sogar für die 4870 hätte der 8pin nicht geschadet! Die laufen nämlich alle durch die Bank weit über den Specs. Das die 4890 also einen 8Pin hat sagt für mich nur aus das sie diesmal zumindest die Specs einhalten möchten.
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index3.php
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index14.php
Leistungsaufnahme: TDP vs Realität

Edit: direkt über mir war schneller ;)
 
cyrezz schrieb:
Meine Angaben beziehe ich aus diesem Test.
Schnell abhaken und vergessen. Erstens wird die Hardware ausserhalb der Herstellervorgaben betrieben. Und zweitens wird Verlustleistung nicht berücksichtigt.
 
mic_mac schrieb:
hin und wieder hatten sie aber auchmal recht. ;) aber eher selten, dass stimmt wohl!

auch ein dummes korn findet mal ein blindes huhn. und bei der menge an "meldungen" bei denen, kann das dann schon mal häufiger passieren *g*

edith was here
 
Zuletzt bearbeitet:
hoffe nur das HIS dann schnell die Version mit nem schönen Kühler rausbringen :)
 
Erstens wird die Hardware ausserhalb der Herstellervorgaben betrieben.
Seit wann schreiben einem die IHVs vor, welche Applikationen ich nutzen darf? :rolleyes: Außerhalb der Vorgaben wäre OC, einen Benchmark (ja, der FurMark ist eigentlich ein Benchmark) laufen zu lassen jedoch nicht. Der FurMark ist eine real existierende Applikation, wenn eine Karte deswegen außerhalb der PCI-E-Specs läuft, ist das die Schuld des IHVs - hier wurde dann sichtlich an der Spannungsversorgung und/oder Kühlung gespart. Traurig ... aber der Kunde verlangt wohl danach.

cYa
 
Wenn die Tester am Treiber vorbeifummeln, dann ist das ausserhalb der Herstellervorgaben. Ein normaler Käufer würde das ja auch nicht machen. Ist aber sowieso sinnlos mit dir darüber zu reden. Dass du nicht unbefangen bist und keine objektive Meinung dazu hast, ist ja nichts neues. :rolleyes:
 
Die Version 1.6.5 erkennt den Catalyst und greift auf eine andere Exe zurück - also nichts mit "am Treiber vorbeifummeln" :rolleyes:

Ich habe eine objektive Sicht: Eine Karte die den Furmark nicht packt, weil ihre Stromversorgung/Kühlung nicht dafür ausgelegt ist, ist crap. Das ist ja so wie eine 200€-Regenjacke die bei Nieselregen keine Probleme macht, sich aber bei einem Platzregen in ihre Bestandteile auflöst. Das ist mindere Qualität - und das wissen die IHVs sehr wohl. Hier wird sich imo bewusst über die Specs hinweggesetzt um Kosten zu sparen ... und den Käufer freuts auch noch, ist ja schön billig. Billige Qualität eben.

cYa
 
Zuletzt bearbeitet:
@yeehah: Ich geb dir mal n Tipp: Nichts wird auf maximale Dauerlast ausgelegt. Wozu auch, denn es macht das Produkt nur teurer für alle, aber ohne jeglichen Benefit für die Meisten. Ich geb dir noch ein Tipp: Setz dich morgen in dein Auto und gib mal im Stand Vollgas. Aber richtig schön lange. Ich hoffe deine Temperaturanzeige funktioniert ;)

Anderes Beispiel CPU. Throttling ist dir wohl bekannt, oder? (Für die dies nicht kennen, kurz aus Wiki zitiert "Das Throttling wird angewandt, um die Temperatur bei Überhitzung zu senken, um so die CPU zu schützen. Durch das Senken des Taktes wird die entstehende Abwärme reduziert."

Also. Wie man sieht, haben die CPUs im Prinzip das gleiche Problem, nur das die 125W TDP (die ja so gesehen vergleichsweise wenig sind) heutzutage von teuren Monsterkühlern problemlos im Zaum gehalten werden. Dort werden solche Kühllösungen komischerweise toleriert, bei Grakas regen sich viele über große Kühler auf.

Ich will keinen Monsterkühler auf der Graka, der mir NULLKOMMANULLGARNIX bringt. Und den ich auch noch zusätzlich bezahlen müsste. Du kannst dir ja gerne nen Orochi auf die Graka fummeln.

Furmark ist sinnlos. Es produziert eine absolut unrealistische GPU-Auslastung. Das soll ein Benchmark sein? Dann kann ich ja jetzt 3DMark spielen gehen :freak:

Und wenn der "Benchmark" ne andere .exe ("für sich selbst" :freak:) verwendet, um den Catalyst auszutricksen, kann man das sehr gut als "am Treiber vorbeifummeln" bezeichnen.

Das ist wie ne Regenjacke im Orkan verwenden, wenn man lieber im Bunker hocken sollte.

Wenn es jemals Spiele oder Anwendungen gibt (was nicht der Fall sein wird), die ähnlich wie Furmark eine AMD-Graka auslasten, wird AMD mit Sicherheit die jetzige Einstufung der TDP überdenken, wär nicht das erste Mal.

Bis dahin würde ich darum bitten davon abzusehen, bei euren Lesern den Eindruck zu erwecken, sie müssten ständig die Graka einen sinnfreien Hitzetod sterben lassen. Und somit sinnlos Müll und Kosten (RMA) zu produzieren.
 
Zuletzt bearbeitet:
Stimmt, normalerweise legt man auf auf die maximale Dauerlast noch etwas Reserve hinzu.
Schließlich hat nicht jeder ein völlig offenes System mit 20°C Umgebungstemperatur, bei völlig sauberen Kühlern.

Wird auf jeden Fall spannend, wöchentlich ein neues Programm für die Maximalauslastung zu nehmen.
Möglichst für jedes andere Modell ein anderes Programm, damits schön fair wird.

Bloß auf keinen Fall Furmark, völlig abwegig. Prime Stabilität ist auch unwichtig, 3DMark wurde auch nie von den Massen mit begeisterung aufgenommen.


Das Bremsprofil wurde erst nach HD48xx Release veröffentlicht. Ssomit enfällt der Punkt rumfummeln.


http://ht4u.net/reviews/2009/gigabyte_hd4850_passiv/index10.php schrieb:
Wenn Furmark nicht praxisnah ist, dann ist es 3Mark ebenfalls nicht, doch Bioshock dürfte wohl kaum einer diesen Rang streitig machen.
Ach wie schön.
Die 9% entscheiden jetzt über Sinn und Unsinn. Wenn das mal nicht Wahnsinn ist.
 
Zuletzt bearbeitet:
Falsch, es wird eine durchschnittliche Dauerbelastung angenommen, die nach verschiedenen Kriterien ermittelt wird. Ist im Maschinenbau so, aber auch in der Architektur. Es gibt keine Brücke auf der Welt, die mit jeder physikalisch möglichen Windstärke klarkommen würde ("Jahrhundersturm"). Natürlich ist da die Sicherheit gegen Versagen äußerst hoch, einfach weil es um Menschenleben geht.

Bei deinem zweiten Absatz weiß ich grad nicht was du willst.

Primestable ist wichtig, nur das das ein Vergleich Äpfel/Birnen ist.
CPU instabil-->PC instabil

GPU "instabil"-->Graka kaputt, einfach gesagt. Warum sollte man eine Graka auf Intabilität testen? Entweder sie geht, oder sie geht nicht. Fertig.

Primestable bekommt man auch mit Throttling hin, warum also ist das bei CPUs tolerierbar, bei Grakas nicht? Und 3DMark ist der Versuch, Grafikleistung halbwegs realistisch (GPU-Asulastung, darstellbare Grafik) zu "messen". Er beansprucht die Grakas so, wie reelle Spiele. Furmark? Nix davon.

Das da rumgefummelt wird, sagt doch schon alles aus, einfach nicht ganz sauber das Ganze :D

Jedenfalls meinen einige anscheinend besser zu wissen als der Hersteller, wie man ne Graka baut. Schon komisch das der aber Millionen ohne Probleme funktionierende Grakas ausliefert. Hmmmm. Woran das wohl liegt?

Vielleicht hat der Hersteller einfach mehr Ahnung von der Materie als ihr. :cool_alt:

EDIT: Ein Spiel wie Bioshock liefert niemals die Dauerbelastung eines Furmark. Die Werte sind sicher Maximalwerte, die in Bioshock erreicht wurden. Zudem ne Karte mit der TDP der 4850 passiv zu betreiben, ist sicher nicht das sinnvollste. Kenne keinen, der seinen CoreI7 passiv betreibt.
 
Zuletzt bearbeitet:
legan710 schrieb:
Vielleicht überrascht uns ATI und hat den Stromverbrauch so drastisch reduziert, dass zwar beide Stecker vorhanden sind aber als Alternative dienen um einen Adapter einzusparen *g
Oft ist es so, dass die Vorserien-Karten eine großzügige Stromversorgung haben, vielleicht ändert sich da noch was. Und wenn nicht ist es auch nicht schlimm, einmal sech und einmal acht Pin sind durchaus berechtigt, im Hinblick auf die HD4870.

Unyu schrieb:
Stimmt, normalerweise legt man auf auf die maximale Dauerlast noch etwas Reserve hinzu.
Ist anscheinend bei beiden Herstellern out, wenn man sich die Enthüllungen von HT4u anschaut.

Laut ATI-Forum heißt es aus "unternehmensnahen Kreisen", dass der Idel-Bedarf des RV790 unter dem der HD4850 liegt und die Karten unter Last vergleichbar viel oder weniger als die HD4870 verbrauchen sollen.
Ansonsten wissen wir nix entgültiges - es kann alles passieren, und um Enttäuschungen zu vermeiden, sollte man das Spekulieren einfach mal etwas einschränken, ist ja nicht mehr weit bis zum 6. April. Das einzige was man definitiv sagen kann ist, dass AMD wieder alles daran setzt, Karten zu veröffentlichen, die der Konkurrenz wehtun.
 
KAOZNAKE
Schon mal von Grafikfehlern gehört?

Du glaubst HT4u nicht? Auch zu der Seite mit den Temperaturen geblättert?
Stimmt, zu Furmark sinds ganze 9%, dafür sinds lockere 21% mehr als im für Maximalauslastung beliebten 3DMark06. Echt fern ab der Spielewelt.

Der "Hersteller" hat vor allem das Wissen wie man am besten spart, ohne das man die wichtigsten Benches verliert.
Da kann ich mich gleich vom PC
 
Zuletzt bearbeitet:
y33H@ schrieb:
Die Version 1.6.5 erkennt den Catalyst und greift auf eine andere Exe zurück - also nichts mit "am Treiber vorbeifummeln" :rolleyes:
Es wurde aber nun mal Version 1.6.0 genutzt. Mann, mann, mann. :rolleyes:
 
Den Furmark finde ich garnicht unsinnvoll - niemand wird gezwungen, ihn zu benutzen. Das Referenzdesign einer HD 4870 kommt damit klar - sicherheitshalber kann man das Lüfterprofil anpassen. Außerhalb der Spezifikationen läuft da meines Erachtens nichts: Die PCIe-Stromleitungen werden nicht überbelastet, und wenn man davon ausgeht, dass Volterra einen Sicherheitsspielraum in puncto Temperatur bei seinen Chips eingeplant hat, ist das alles halb so wild. Ominösen Herstellerangaben darf man sowieso kein Vertrauen schenken, die sind in den meisten Fällen realitätsfern. Das einzig nervige ist dann nur noch die Lautstärke, das muss dann aber jeder potenzielle Käufer für sich entscheiden. (Und Geforces sind in diesem Punkt auch nicht ganz unbelastet.)
Die Temperaturen, die ein Furmark erzeugt, sind in meinem Fall allerdings weit über denen, die z. B. ein Crysis erzeugt, gerade an den VRMs - die Differenz beträgt gut und gerne 35K. Gegenüber Bioshock sieht es ähnlich aus. Dafür hat man die Gewissheit, dass die Karte wirklich ausgelastet ist; und dies wird im Vergleich zu Geforce-Karten mit exorbitant vielen Punkten wiedergegeben.
Für den RV790 wird AMD sich sicherlich Gedanken über die Stromversorgung gemacht haben, nicht nur an den Stromsteckern, sondern auch bei den Chips auf der Platine. Und natürlich wird es wieder Hersteller geben, die Billigplatinen raushauen und Käufer, die genau solchen Mist kaufen. Bei Nvidia-Karten gibt es schon manchen Hersteller, der im Vergleich zum Referenzdesign qualitativ höherwertige Platinen baut (Zotac, Galaxy). Man kann nur hoffen, dass den Herstellern von AMD-Karten ähnliches einfällt.
 
y33H@ schrieb:
Ich habe eine objektive Sicht: Eine Karte die den Furmark nicht packt, weil ihre Stromversorgung/Kühlung nicht dafür ausgelegt ist, ist crap. Das ist ja so wie eine 200€-Regenjacke die bei Nieselregen keine Probleme macht, sich aber bei einem Platzregen in ihre Bestandteile auflöst. Das ist mindere Qualität - und das wissen die IHVs sehr wohl. Hier wird sich imo bewusst über die Specs hinweggesetzt um Kosten zu sparen ... und den Käufer freuts auch noch, ist ja schön billig. Billige Qualität eben.

Der Drehzahlbegrenzer im Auto kommt auch bei 6500 Umdrehungen/min, haste schonmal die Maschine im Dauerbetrieb bei 6500 Touren betrieben wie lange macht sie das mit?

Oder anderes Beispiel, was meinste wie weit Du mit´m ersten Gang Deines Autos fahren kannst? Fahr mal paar Kilometer damit, wirklich weit wirste nicht kommen weil das Getriebe unter der Dauerbelastung die Grätsche macht.

Und so isses bei den Grafikkarten auch, ne realistische Anwendung welche die 5D Shader der ATI auslasten gibt es nicht wirklich. Der Benchmark Furmark ist zwar nett um die Hardware an ihre Grenzen zu führen, doch gibt es weitere sinnvolle Einsatzgebiete?
 
Die Vergleiche sind doch absolut unsinnig. Das eine ist Mechanik, das andere Elektrotechnik. Eine Grafikkarte geht nicht kaputt, weil sie überlastet wird, höchstens weil der Kühler aufgrund einer zu niedrigen TDP zu klein dimensioniert wurde und sie überhitzt. Darum gehts. Zudem gibt es für Autos sicher auch Spezifikationen in welchem Drehzahlbereich der Motor betrieben werden darf. Wenn man das missachtet, ist das ja nicht das Problem des Herstellers.

Woher willste wissen, dass es nicht irgendwann Anwendungen gibt, die die Architektur richtig auslasten. Spiele vll nicht, da einfach die Auslastung zu unkontinierlich ist, aber denk mal an GPGPU, wenn es denn sich mal flächendeckend durchsetzt.
 
aspro schrieb:
Woher willste wissen, dass es nicht irgendwann Anwendungen gibt, die die Architektur richtig auslasten. Spiele vll nicht, da einfach die Auslastung zu unkontinierlich ist, aber denk mal an GPGPU, wenn es denn sich mal flächendeckend durchsetzt.

Hätte wäre wenn, bis dahin gibt´s längst neue Hardwaregenerationen und was den Vergleich angeht die Teile verrecken auch innerhalb der Spezifikationen bei Dauerbetrieb da isses egal ob Mechanik oder Elektronik.

Die sind nicht dafür ausgelegt, weil es eben in der Praxis nicht vorkommt, dass man sie auf diese Art und Weise im Dauerbetrieb betreibt.
 
Zurück
Oben