News ATis RV790-Chip mit schnellerem Speicher?

meine aussage bezog sich auf den post von skcusBC <-. er fragte ja nach highend-karten und da ist nv mit der gtx285 sehr wohl gut aufgestellt. ein schnellerer chip wäre zum jetzigen zeitpunkt überflüssig, da der markt derzeit für 500,- € + karten fast nicht vorhanden ist. die geringe nachfrage lässt sich dann auch noch mit der gtx295 abdecken (gleiche gpu).
wichtiger sind derzeit die kleinen ableger. da ist grad der boom.
 
AMD ATI Radeon HD 5870 X2 in Kürze?

Momentan gibt es nirgendwo so viele Gerücht, wie bei den kommenden neuen Grafikchips von AMD und NVIDIA. Dabei kann man auch davon ausgehen, dass 90 Prozent der Gerüchte absichtlich als Falschinformationen gestreut werden. Nun hat allerdings ein Internetshop, der schon im November 2007 eine ATI Radeon HD 3850 kurz vor offiziellen Vorstellung präsentierte, eine ATI Radeon HD 5870 X2 online gestellt.

file.php


Gegenüber der ATI Radeon HD 4870 X2 verfügt die Karte über einen erhöhten Chiptakt von 800 MHz und einen Speichertakt von 1200 MHz.

file.php


Ob es sich bei der Karte, die innerhalb nächsten zehn Tagen lieferbar sein soll, nun um den viel spekulierten RV790 in Dual-Ausführung handelt, wird sich zeigen. So diese Karte denn auch wirklich erscheint.
Q
 
kisser schrieb:
Kann man so nicht sagen.
Die Herstellungskosten haengen wesentlich davon ab, wieviel Prozessschritte notwendig sind um aus einem nackten Wafer einen Wafer voller DIES herzustellen.



Das Gegenteil ist der Fall, je kleiner der Chip, umso schwieriger ist er zu kuehlen, weil die Abwaerme auf immer kleinerer Flaeche abgefuehrt werden muss, also die W/mm*mm steigen.




Da gibt es ueberhaupt keinen Zusammenhang.



Die Erfahrung zeigt, dass das nicht so ist, weil immer mehr Transistoren auf den Chips sitzen und die brauchen nunmal Strom beim Umschalten.





Doch, den gibt es, Signallaufzeit ist hier das Stichwort.
btw. 40nm ist kein (optischer) Shrink, sondern ein neuer Fertigungsprozess.

Das Halbwissen ist schon faszinierend.....

Punkt 1:
Du hast dir lediglich die Waferkosten ausgerechnet, offenbar ging es aber um die Ausbeute im Bezug auf die einzelnen DIE pro Wafer, sowie die damit verbundenen Herstellungskosten pro Chip. Wenn aufgrund der geringeren Fläche mehr Chips aus einem Wafer geschnitten werden können, die Wafer Yield stimmt und die Produktionskosten des Wafers vergleichbar sind, dann bekommt man so mehr Grafikprozessoren aus einem Wafer raus und senkt somit auch die Herstellungskosten pro Chip.

Punkt 2:
Das ist aber kein Problem des Kühlers (da ging es schließlich um die Abwärme der GPU) sondern ein Problem des Wärmeübergangs z.B. von den Transistoren der GPU zum Kühler.

Punkt 3:
Weniger Strombedarf der GPU aufgrund geringerer Abwärme kann durchaus die Komplexität des PCB beeinflussen. Beispielsweise kann man einen kleineren Spannungsregler verbauen, Leiterbahnen müssen nicht mehr so stark ausgelegt werden usw.

Punkt 4:
irgendwie am zitierten Posting vorbeigeredet, da der Poster von "wenn keine Leistungssprung besteht" schrieb. Dies würde aber bedeuten das lediglich die Taktfrequenzen etwas angehoben werden oder an den Ausführungseinheiten bzw. dessen Anzahl minimal gearbeitet wurde.
 
zu1: Er wollte damit lediglich sagen das die DIE-Größe nicht das alleinige Kriterium ist. Yield und Prozesskosten sind ebenfalls wichtge Faktoren. Gerade bei einem neuen Prozess ist erstere nicht gerade optimal. Er schrieb ja wesentlich und nicht der einzige Faktor.

zu2: Natürlich ist es auch ein problem des Kühlers. Denn von der geringen Kontaktfläche muss die Wärme auf den gesamten Kühler"verteilt" werden.
 
Korrekt erkannt, Bensen.

Ich finde es auch immer wieder amüsant, daß hier Leute Kommentare zu Postings abgeben müssen, die sie offensichtlich überhaupt nicht verstanden haben.

Punkt 3:
Siehe RV770, kleines DIE aber dennoch immenser Stromverbrauch, also aufwändige Stromversorgung, wobei AMD hieran aber gespart hat, die Karten sind nicht Volllast-fest, gehen also möglciherweise kaputt bei hoher Auslastung der GPU:

http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index8.php

(imo ein absolutes Armutszeugnis für AMD, weil es ja das Bestreben jedes Programmieres ist, die Hardware so gut es geht auszureizen)
 
@bensen
Bei Punkt 1 hatte er sich dann etwas misverständlich ausgedrückt, da ich es so verstanden hatte das dies mit der entscheidenste Faktor sei...was er aber nicht ist sondern nur einer von vielen. Auch sollte man dabei nicht vergessen das es in dem von ihm zerpflückten Posting primär um den Shrink an sich ging und andere Faktoren wie eine steigende Komplexität aussen vor waren.
Des weiteren bleibt es nachwievor ein Problem des Wärmeübergangs von der Chipoberfläche zum Kühlerboden, denn die Wärmeverteilung der Hotspots geschieht nicht zuletzt im Chip selbst und kann dann noch von dessen Gehäuse (Stichwort Heatspreader) verbessert werden. Wenn man allerdings bei dessen Gehäuse gespart wird muss dies natürlich an einer anderen Stelle, meist durch den Kühlerboden der Grafikkarte, vorgenommen werden. Der Kühler an sich muss lediglich die Wärme an die Luft abgeben.

@kisser
Nur zu schade das ich bei deinem Punkt 3 keinerlei Bezug zu dem von dir zitierten Ursprungsposting finde. Der RV770 ist klein und brauch immens viel Strom im Vergleich zu was?
Im Ursprungsposting ging es um einen Shrink, der beim Wechsel vom RV670 zum RV770 definitiv nicht stattfand, sondern eher beim Wechsel vom R600 auf den RV670.
Selbst wenn man den R600 mit dem RV770 vergleicht....beide fressen wohl ähnlich viel Strom aber der RV770 dürfte dabei im Schnitt etwar doppelt so schnell sein.
Das die Spannungswandler aufgrund der schwachen Auslegung ein Problem darstellen könnten bezweifelt wohl keiner aber wo in dem Test überschreitet er die spezifizierten 125°C? Ich sehe lediglich das der Arbeitsbereich der Wandler voll ausgeschöpft wurde. Was ich allerdings interessant finde ist die Reaktion auf einen Test bei dem Schutzmaßnamen umgangen wurden (Umbenennung der Startdatei) damit eine dauerhafte Auslastung erzeugt werden kann die in der Realität bestenfals als Spitzenlast vorkommen dürfte. Was ich aufgrund des Tests ATI und vor allem den Grafikkartenherstellern ankreide ist das weglassen entsprechender hadwarebasierender Schutzmaßnamen die die Grafikkarte zügeln sobald entsprechende Grenzen dauerhaft überschritten werden.

PS: Wo liegt übrigens die Spitzenbelastung der PCIe Stromanschlüsse oder gibt es dazu überhaupt etwas in deren Spezifikationen? Die max. Dauerlast liegt ja scheinbar bei 75W bzw. 150W.
 
Ja sicher muss er nur die Wärme an die Luft abgeben. Aber dafür muss er sie erstmal aufnehmen und seine gesamte Kühlfläche einsetzen können.
Du willst mir doch nicht erzählen das bei gleicher Wärme und Kühler ein Chip mit ner Die-Fläche von 100cm² nicht erheblich besser gekühlt werden kann als einer mit 1cm² Fläche.
Ein Heatspreader hat damit nichts zu tun. Das Problem wird dann nur verlagert.
 
wadenbeisser schrieb:
Das die Spannungswandler aufgrund der schwachen Auslegung ein Problem darstellen könnten bezweifelt wohl keiner aber wo in dem Test überschreitet er die spezifizierten 125°C? Ich sehe lediglich das der Arbeitsbereich der Wandler voll ausgeschöpft wurde.
Ah super, die Wandler laufen nur mit 125°C, mit einem Sicherheitspuffer von 0K bis zur Spezifikation unter idealen Laborbedingungen.
Das nennt man voll ausschöpfen?
 
Direkt aus dem Datenblatt, welches in dem Artikel verlinkt ist:
Storage Temperature: -40C to +125C
Operating Temperature: -40C to +125C
Also.....wo wurden jetzt die Spezifikationen des Wandlers verletzt? Der Temperaturbereich wird sogar als Feature angegeben.
Im übrigen wurde die Temperatur beim FurMark und unter Umgehung von Sicherheitsmaßnamen gemessen, also unter Rahmenbedingungen die man so in der Realität niemals antreffen durfte. Genausogut könnte man den Benchmark auch als Stresstest bezeichnen...

Im Moment sehe ich hier nur eines.....viel Wind um so gutb wie nix.

@bensen
Stelle mir eine ernst gemeinte und vor allem realistische Frage und ich antworte auch.
 
Die "Schutzmechanismen", besser gesagt das Bremsprofil ist nicht seit HD48xx Launch im Treiber, sondern erst seit Catalyt 8.8.
Somit, war diese Situation im Sommer ohne weiteres möglich und ist tatsächlich eingetreten. Darf ich erinnern, die Probleme sind tatsächlich eingetreten, es sind Karten gestorben.
Ferner ist das eine schlechte Ausrede, Volllast sollte möglich sein, mit mehr als 0K Reserve, unter Best Case Bedingungen.
HT4u hatte keine Worst Case Bedingung. Ordentliche Zimmertemperatur, kein überhitzes Gehäuse, ...
 
mit schnellerem Speicher kann ich mir kaum vorstellen bei der architektur :rolleyes:

der speicher von rv770 heizt sich fast zur tode :freak:
 
Unyu schrieb:
Die "Schutzmechanismen", besser gesagt das Bremsprofil ist nicht seit HD48xx Launch im Treiber, sondern erst seit Catalyt 8.8.
Somit, war diese Situation im Sommer ohne weiteres möglich und ist tatsächlich eingetreten. Darf ich erinnern, die Probleme sind tatsächlich eingetreten, es sind Karten gestorben.
Ferner ist das eine schlechte Ausrede, Volllast sollte möglich sein, mit mehr als 0K Reserve, unter Best Case Bedingungen.
HT4u hatte keine Worst Case Bedingung. Ordentliche Zimmertemperatur, kein überhitzes Gehäuse, ...

Und wieviele Programme lasten die Karte noch in dieser Form aus? Genau deshalb sprach ich auch vom versäumten Einbau einer entsprechenden Sicherheitsschaltung/Hardwarebremse...
Kommt es auch zu einer erhöhten Ausfallquote der Grafikkarten oder woher nimmst du deine Weißheiten?

PS: Komm mir bitte nicht mit irgendwelchen witzlosen Totschlagargumenten...das zieht nicht.
 
Zählen wir mal:
1. Drosselung erzeugt bessere Temperatur/Lautstärke Werte bei den Furmarktests
2. Nicht Referenzkarten haben teils nichtmal 0K Reserve unter besten Laborbedingungen.
3. Referenzkarten, haben unter idealen Laborbedingungen 0K Reserve
4. Es gibt kein CF Profil für Furmark
5. Es gibt Berichte über vermehrt tote VRMs der HD4. Da darfst du gerne selber suchen. Oder mal überlegen wie gut 0K Reserve oder -(in Worten: Minus)XK Reserve tun.


Deine Ausrede, das Furmark das am stärksten auslastende Programm ist, zieht nicht.
Es ist doch das Ziel eines Entwicklers, das Maximum aus der Hardware rauszuholen. Ab Mitte 2008 ist das nicht mehr so?
Die HD4 werden oft wegen ihren theoretischen GFLOPs gelobt. Bleiben die wohl für immer theoretisch?
So oder so braucht es Reserven. Man muss die Karte auch bei 55°C Gehäuseluft vollauslasten können. Das Gebläse zeigt, das sonst nicht derart knapp kalluliert wird. Ein 12 Sone Gebläse reinzuhängen und entsprechend zu drosseln ist kein Thema. Seltsam das man bei den VRMs so extram knapp am/über dem Limit ist.
 
Zuletzt bearbeitet:
wadenbeisser schrieb:
@kisser
Nur zu schade das ich bei deinem Punkt 3 keinerlei Bezug zu dem von dir zitierten Ursprungsposting finde. Der RV770 ist klein und brauch immens viel Strom im Vergleich zu was?

Im Vergleich zu Nvidias GT200. Wie gut/einfach etwas kühlbar ist, hängt im wesentlichen von der Leistungsdichte ab und nicht von der absoluten verbrauchten Leistung.
 
was erwartet ihr eigentlich? die hd4k war eigentlich mit niedrigeren taktraten geplant und sollte ursprünglich die 8800gt (4850) und die 9800gtx (4870) angreifen. aber einige schlaue leute bei ati haben gesehn, dass der chip noch mehr drauf hat und haben ihn entsprechend höher getatktet. das erklärt auch das vergleichsweise niedrige oc-potential der hd4k.
jetzt greift ati mit ihren mainstream-karten nvidias highend an^^ auch wenn sie dazu über den geplanten spezifikationen laufen und halt die reserven entsprechend gering ausfallen. aber bisher ist von einem "massensterben" nichts zu sehn. wo also liegt das problem?
 
Es wäre kein Problem gewesen die VRMs gescheit zu kühlen und/oder die Versorgung fetter auszulegen oder man hätte mindestens den Herstellern noch schlimmere Pfuschdesigns verbieten können.
Ok es hätte 1€ mehr gekostet, das will der Kunde nicht.
 
Lübke schrieb:
was erwartet ihr eigentlich?

Man kann doch wohl erwarten, daß die Stromversorgung der Karte für eine hohe Auslastung der GPU ausgelegt ist, wenn mann also die GPU höher getaktet hat als ursprünglich vorgesehen, hätte man auch die Stromversorgung mit anpassen müssen.
 
dass die stromversorgung bei der hd48x0 nicht ganz optimal ist, sieht man ja schon an powerplay 2, aber ihr dürft auch nicht vergessen, dass man jetzt die leistung einer 350,- € karte für teilweise unter 200,- € bekommt! wenn da noch viel aufgewertet worden wäre, wären die preise wohl auch bei ati höher gewesen und nvidia niemals so weit runtergegangen. wer es höherwertiger will, greift halt zur 65nm gtx260/gtx280. die sind für das 350,- € bzw 500,- € segment konzipiert worden und entsprechen kostspielig ausgestattet. aber schon bei den 55nm-karten sieht man, dass auch hier beim pcb gespart werden musste, um in dieser preisklasse bestehen zu können. qualität ist nunmal auch eine geldfrage. wer viel leistung für wenig geld will, muss eben bei der qualität ein paar abstriche machen...
 
Unyu schrieb:
Zählen wir mal:
1. Drosselung erzeugt bessere Temperatur/Lautstärke Werte bei den Furmarktests
2. Nicht Referenzkarten haben teils nichtmal 0K Reserve unter besten Laborbedingungen.
3. Referenzkarten, haben unter idealen Laborbedingungen 0K Reserve
4. Es gibt kein CF Profil für Furmark
5. Es gibt Berichte über vermehrt tote VRMs der HD4. Da darfst du gerne selber suchen. Oder mal überlegen wie gut 0K Reserve oder -(in Worten: Minus)XK Reserve tun.


Deine Ausrede, das Furmark das am stärksten auslastende Programm ist, zieht nicht.
Es ist doch das Ziel eines Entwicklers, das Maximum aus der Hardware rauszuholen. Ab Mitte 2008 ist das nicht mehr so?
Die HD4 werden oft wegen ihren theoretischen GFLOPs gelobt. Bleiben die wohl für immer theoretisch?
So oder so braucht es Reserven. Man muss die Karte auch bei 55°C Gehäuseluft vollauslasten können. Das Gebläse zeigt, das sonst nicht derart knapp kalluliert wird. Ein 12 Sone Gebläse reinzuhängen und entsprechend zu drosseln ist kein Thema. Seltsam das man bei den VRMs so extram knapp am/über dem Limit ist.

1. Was du aber offenbar nicht gelesen/verstanden hast ist das die FurMark Verbrauchs- und Temperaturwerte aufgrund der Umbenennung im ungedrosselten Zustand erzeugt wurden und in der höhe wohl bei keinem Spiel im Dauerzustand auftauchen werden.
2. Karten die nicht das Referenzdesign benutzen sind das Bier der Kartenhersteller
3. siehe oben
4. Crossfire interessiert bei der detailiert analysierten Singlechip Karte nicht und schut man sich die Verbrauchswerte der X2 an so scheint es bei dem Programm dennoch zu funktionieren
5. ich rede nicht von hörensagen sondern von Fakten (Rücklaufquote), welche lediglich Händler und dergleichen liefern könnten

Das mit der Auslastung ist übrigens keine Ausrede sondern harte Realität, denn in selbiger bekommt man eine gleichmäßige Auslastung nämlich nicht hin...darauf beruhen aber sämmtliche diskutierten Messerte. Ebend der Fluch eines synthetischen Benchmarks. Auf diesen Umstand sind sie sogar in dem Test selbst eingegangen: *klick*

kisser schrieb:
Im Vergleich zu Nvidias GT200. Wie gut/einfach etwas kühlbar ist, hängt im wesentlichen von der Leistungsdichte ab und nicht von der absoluten verbrauchten Leistung.
War es nicht der GT200 der eine größere DIE Fläche hat, einen Heatspreader benutzt und den Propeller vom Kühler weiter aufdreht? Wobei dieser Vergleich schon aufgrund der unterschiedlichen Kühler hinkt.
 
der gt200 kann aber weniger watt (ausgehend von der gtx260) auf einer größeren fläche verteilt abgeben. das ist kühltechnisch schon ein vorteil. allerdings legt nvidia mehr wert auf niedrigere temperaturen und ati auf weniger geräuschkulisse. was davon wichtiger ist, muss jeder selbst für sich wissen...
 
Zurück
Oben