News ATis RV790-Chip mit schnellerem Speicher?

Der GT200 kann schon aufgrund des heatspreaders seine Abwärme auf einer höheren Fläche an den Kühlkörper abgeben. Wieviel es ihm bringt sieht man z.B. hier in diesem Test.
Beide Karten nutzen naturgemäß verschiedene Kühler, wodurch die Vergleichbarkeit von Anfang an schon hinkt. Der GT200 verbrauch etwas weniger Strom, hat gut 6°C weniger (was auch den Stromverbrauch beeinflusst) und dreht den Propeller deutlich weiter auf. (51 vs. 55db)
Unterm Strich nehmen sich die Karten (GTX260, HD4870) also nichts.
 
dass die kühler nicht vergleichbar sind, stimmt. aber mir gings nur um die tatsachen, dass der g200 bei weniger leistungsaufnahme eine größere fläche zum ableiten der wärme hat. das für sich genommen ist zum kühlen ein physikalischer vorteil. wie effizient die verbauten kühler sind, steht auf einem anderen blatt.
 
Wie gesagt bringt die Tatsache aber nichts, da der komplette Chip nochmal einen Heatspreader draufhat. Somit gibt es auch keinen direkten Kontakt zwischen dem DIE und dem Kühlerboden. :)
Das kann Vor- und Nachteile haben.
 
wadenbeisser
Nix da, erst seit 8.8 gibts ein Bremsprofil, den gibts erst einige Zeit nach HD4 Start. Somit ist nicht mal eine Umbennung nötig!
Du spekulierst/hoffst lediglich, das kein Spiel/Anwendung je eine solche Auslastung hervorrufen werden.

Nur was ist dann der Maßstab für Maximalauslastung, wenn nicht Furmark? Crysis? 3Mark06? Lost Planet? HL1? Baut man tatsächlich Karten für 50% Auslastung und das wird noch gelobt? Früher dachte ich, 120% dürften keine Schwierigkeiten machen, naja so täuscht man sich...

Ok, dann kennen wir die Maximalauslastung erst in 2 Jahren. Zeitreisen werden auch immer günstiger.
Nur was ist, wenn dann 80% Auslastung keine Seltenheit sind? Was macht der, der im Sommer nicht auf einen klimatisierten Raum zugreifen kann, wo die Karte ohne Gehäuse mit perfekt gesäubertem Kühler arbeiten darf?
Du wirst nicht abstreiten können, das 80% nicht unmöglich sind und das unter unguten/normalen Bedingungen nicht Umengen an Reserven verfügbar sind.

Rücklaufquoten suche ich jetzt nicht für dich, aber warum bremst AMD wohl, obwohl doch mit 0K alles im Lot ist und die Fremddesigns nicht AMDs Problem sind?


Der IHS bringt dem GT200 überhaupt nichts, außer deutlich höherer GPU Temperatur und dem geschützten Die.
Im Besten Fall kann der große Die diesen gewaltigen thermischen Nachteil ausgleichen.
 
Ähm.....ja.
Hör ich da jetzt das Jammern der möchtegern OC Gemeinde das sie sich ernsthaft Gedanken um einen besseren Kühler machen müssen, damit ihr heißgeliebtes Schätzchen beim virtuelen .......vergleich nicht vorzeitig und vor allem sichtlich (verwirkte Garantieansprüche) verreckt oder wie soll ich das mit den 120% verstehen?
Was aber offenbar zu hoch für dich ist ist die Tatsache das es im normalen 3D Betrieb keine dauerhafte 100% Auslastung des 3D Beschleunigers gibt, da die gerenderten Szenarien sich ebend immer abwechseln und sich die Grafikengine jedes Spiel anders verhält. Was aber offenbar auch noch nicht zu dir durchgedrungen ist sind so kleine Angaben in den Handbüchern zum Thema Arbeitstemperatur oder allgemein den Betriebsbedingungen der Hardware und deren Bedeutung.

Alles was ich da oben gelesen hatte ich nichts als *bla*.
Nichts was deine Aussagen belegt bzw. meinen widerspricht....Stammtischgelaber ebend.

Ich geh jetzt jedenfalls schlafen und gebe erst dadnn meinen Senf wieder dazu wenn jemand mit belegbaren Aussagen kommt. :cool_alt:
 
Aha, auch eine Möglichkeit sich aus der Schlinge zu ziehen.

Schade, das du die 120% nicht verstanden hast.
Ganz kurz: Wenn ein Bauteil bei 100% Last um die Ohren fetzt, dann ist das schrott. Ergo Reserve muss sein.
Du erklärst mir ja in deinem Post, das alles im Lot ist, der Temperatur, ohne jegliche Reserve, leider ist es dir egal ob es ungeputzte Kühler in warmen Gehäusen geben kann.

Schade, das du strikt darauf pochst, wie praxisfern Furmark doch ist, 100% sollen angeblich niemals erreicht werden, ob 80% erreicht werden, das umgehst du leider.

Das Furmark ohne exe renaming diese Last erzeugen kann, ist dir jetzt bewusst?


Zu dem Bla, nachdem dir nicht bekannt ist, wie böse der IHS ist, so suche doch mal nach Berichten der Freunde des IHS Entfernens/Schleifens bei GPU/CPUs oder diversen Berichten über schrottige IHS.
 
Zuletzt bearbeitet:
kisser schrieb:
Kann man so nicht sagen.
Die Herstellungskosten haengen wesentlich davon ab, wieviel Prozessschritte notwendig sind um aus einem nackten Wafer einen Wafer voller DIES herzustellen.



Das Gegenteil ist der Fall, je kleiner der Chip, umso schwieriger ist er zu kuehlen, weil die Abwaerme auf immer kleinerer Flaeche abgefuehrt werden muss, also die W/mm*mm steigen.




Da gibt es ueberhaupt keinen Zusammenhang.



Die Erfahrung zeigt, dass das nicht so ist, weil immer mehr Transistoren auf den Chips sitzen und die brauchen nunmal Strom beim Umschalten.





Doch, den gibt es, Signallaufzeit ist hier das Stichwort.
btw. 40nm ist kein (optischer) Shrink, sondern ein neuer Fertigungsprozess.


- Da es sich um ein reines Shrinking handelt, sind die Anzahl Schritten gleich. Da ein 40nm Chip klener ist als ein 55nm, zweifel ich daran dass zwischen 2 Chips leere Räume bleiben.
(etwas anders ist wenn der Chip noch modifiziert ist, da könntest du Recht haben)

- Nicht unbedingt, stimmt was du sagst, aber nur solange, die Spannung gleich bleibt. Bei 40nm sollte möglich sein die Spannung auch zu senken, so dass auch eine niedrigere oder zumindest ähnliche Verlustleistung zu erzielen.

- Da gibt doch ein Zusammenhang. Eine Grafikkarte dass weniger Strom braucht. Benötig auch weniger Kondensatoren, PAW, usw. Und auch der PCB könnte vielleicht 6 statt 8 Lager, was nicht nur Grösse, sonder auch Preislich zu gute kommt. (Siehe neue GTX260 mit neuen PCB)

- Wie schon oben gesagt, wenn man die Spannung gesenkt wird, dann kann auch die Stromaufnahme gesenkt werden. Und wenn ATI es schaft Powerplay endlich zu laufen zu bringen, dann kann man zumindes in 2D deutlich reduzieren.

- Da kann ich nicht wiedersprechen. :D
 
unyu, langsam wissen wirs. aber was bringt es dir? es wird nie, und da wette ich gerne mit dir, eine anwendung geben (furmark ist keine anwendung), bei der eine Hd4870 unter normalen bedingungen (sprich innerhalb der spezifikationen) abraucht weil sie zu sehr belastet wird.

Herstellern geht es nicht darum, programme zu entwickeln die die hardware max stresse,sondern ihre software max auszunutzen, was keineswegs das selbe ist.

die 100% auslastung kannst du auch nicht nehmen, erstens hat Furmak keine 100% auslastung,und zweitens hat prozentual Crysis zb die selbe auslastung wie furmark (auch mit exe renaming ohne bremse), trotzdem wird bei crysis meine graka nicht heißer wie 60grad.

bei furmark hab ich auch keine probleme,weil ich analoge spannungswandler habe. Wenn man speziell software programmiert um hardware nicht zu fordern, sondern zu schädigen, ist das nichts praxisrelevant. Was bitteschön soll ein max heat test sein? schwachsinnig.

ein auto kannst du auch nicht dauerhaft mit 7000touren fahren, kannste ja mal 2 jahre machen^^

zudem, falls du jetzt wieder mit prime und konsorten kommen willst. bei lahmen prozessoren ist das wieder was anderes. diese kriegt man schnell auf ordentliche auslastung. 4 kerne sind was anderes als 800shader.

Zeig mir eine Anwendung auf der ganzen softwarewelt,die eine 4870 schäden kann, mit anwendung meine ich Software mit nutzen, nicht einfach software zum schädigen. im gegensatz zu nvidia gabs bei ati noch keinen heatbug und in den angegebenen spezifikationen läuft eine 4870, also kehr erstmal vor der eigenen haustüre.


gruß
 
Zurück
Oben