News ATi Radeon HD 3600 (RV635) kommt Anfang '08

Warum hat das Ding auf dem Bild noch einen Lüfter? Bei der 38xx wurde die Leistungsaufnahme halbiert, da sollte hier doch passive Kühlung kein Problem sein?!
 
@11
und jetzt bitteschön das ganze nochmal in deutsch definiert.


Ich find echt bitter schade, dass - egal ob nvidia oder ati - sich im allgemeinen noch nicht von einer 128bit speicheranbindung trennen können!
256bit sollte zumidest für das nächste jahr in allen klassen und kategorieren standart werden, nach oben hin 512bit <X sollte natürlich keine grenze gesetzt werden =)
 
Busta Rhymes schrieb:
Was ATI da abzieht schadet den Preisen der Grafikkarten, villeicht mal selber erwachsen werden?
Ich verstehe mal deinen Beitrag freundlicher weise so, wie xp_home es erklärt:
xp_home schrieb:
Es schadet den Preisen im High-End-Segment, wenn da nur ein Grafikhersteller sich rumtobt.

Und dazu muss ich sagen, Busta Rhymes - lesen bildet.
Ich hab doch geschrieben, was fakt ist: Ein Grafikkartenhersteller KANN einfach keine Chips aus dem Ärmel zaubern!
Was zum Teufel soll ATi denn bitte gegen den G80 tun? Richtig - NICHTS!
Sie haben keine 1-Chip-Lösung, die die gleiche Leistung erreicht.
Also..

Und warum soll ICH erwachsen werden? In meinem Beitrag steht doch kaum etwas, woran man kontruktive Kritik üben könnte - ich sehe die Vor- und Nachteile, erkläre die Fakten..
DU kannst anscheinend nur beleidigen.

Zudem geht es hier um den 2600-Nachfolger - und da macht ATi "ALLES" richtig!

@HardFreak:
Dann bist du also auch dafür, dass man in alle Autos, egal ob Smart, 7er BMW oder Maibach, eine 6 Liter V12 Maschine einbaut, wie?
Mit Kanonen auf Spatzen schießen fällt mir dazu ein.
Ich denke nicht, dass du beurteilen kannst, wie hoch der Mehrnutzen eines breiteres Speicherinterfaces wäre - das überlass mal den Grafikschmieden.
Natürlich kann man allgemein sagen - mehr ist mehr - aber vergiss nicht, dass jeder Speicherbaustein, jedes bit mehr an Speicherinterface auf die Kosten geht.


Killermuecke schrieb:
Bei der 38xx wurde die Leistungsaufnahme halbiert, da sollte hier doch passive Kühlung kein Problem sein?!
R600 = 80nm --> RV670 = 55nm
R630 = 65nm --> RV635 = 55nm

Ich denke dazu muss ich weiter nichts sagen.
 
Zuletzt bearbeitet:
ähm.... wozu jetzt diese karte?

für 180-300€ gibt es eine HD3850 bzw eine HD3870

für ca. 100 und wenger kauft man sich eben eine HD2600.

diese ist ebenfalls nicht spielefähig.
 
@aphroali
Was ist denn bei Dir High-End Bereich?
Sicher, AMD hat keine Grafikkarte für 600€ im Programm, so wie die 8800 Ultra. Dafür setzt man halt mehr auf Multi-GPU Lösungen. Die Radeon HD 3850 und 3870 bringen ja auch als Einzelkarte genügen Leistung für alle Spiele. Und wenn man eben noch mehr Leistung will, erweitert man auf Crossfire. Mit CrossfireX sind ja auch bald bis zu 4! Grafikkarten in einem System möglich.
Ich finde diesen Weg gut. Und auch die Leistungsaufnahme bleibt absolut im Rahmen.
 
barmer schrieb:
überflüssiges Zitat entfernt *klick*

Multi-GPU? mit dem Haufen Abwärme, der wieder eine Menge Kühlung benötigt? und ganz nebenbei verbraten 4 GPUs jede Menge teuer bezahlten Strom. in nächster Zeit steck ich mir sicher keine 2 Grafikkarten in den Rechner. Nvidia hat die Nase vorn, unbestreitbar :p
 
Zuletzt bearbeitet von einem Moderator:
Also dafür das AMD mit der HD26xx Serie schon die ultimativen HTPC Karten hat wird es sicher spannend eine noch sparsamere Karte zu haben. Ich halte es für einen guten Schachzug, die Geldbringenden Karten noch günstiger zu produzieren.
 
Dass mit der 128-bit Speicheranbindung ist doch pure Absicht ... die wollen sich davon gar nicht trennen. Nur so kann man eine Karte günstig produzieren! Was meint ihr, wieso die HD3870 und die 8800GT (beide "nur" 256-bit) so günstig sind. Die Hersteller haben es geschafft, das jeweils beste aus den eigenen Architekturen rauszuholen und das mit einem schmalen Speicherinterface.

Wenn es günstiger (für Mid-Segment) sein muss, dann spart man an allen Ecken und Kanten. Die Karte wird trotzdem schneller als das aktuelle Mid-Segment sein!
 
Wenn für das High-End-Modell 256bit reichen, dann werden es im Midrange-Bereich auch 128bit tun...
Witzigerweise bricht die HD2900 mit ihren 512bit bei AA und AF stärker ein, als die HD3780.

Über die entgültige Leistung kann man bis zum Erscheinen erster Tests noch überhauptnichts sagen.
 
@RubyRhod

Bleibt mal lässig alter. Tust ja gerade so, als würde man dir aufs dach steigen!


Dann bist du also auch dafür, dass man in alle Autos, egal ob Smart, 7er BMW oder Maibach, eine 6 Liter V12 Maschine einbaut, wie?
Nein, kann ich mich nicht für begeistern, die meinung teil ich mir dir nicht.

Mit Kanonen auf Spatzen schießen fällt mir dazu ein.
Komische assoziation....

Ich denke nicht, dass du beurteilen kannst, wie hoch der Mehrnutzen eines breiteres Speicherinterfaces wäre - das überlass mal den Grafikschmieden.
Was du denkst oder nicht, ist mir völlig gleich, wie du über mich zu urteilen vermagst, jedoch nicht.

Natürlich kann man allgemein sagen - mehr ist mehr - aber vergiss nicht, dass jeder Speicherbaustein, jedes bit mehr an Speicherinterface auf die Kosten geht.
Was "man" sagt ist mir wurscht. Fakt ist, wie du es für dich auffasst und verstehst - und allen anschein nach als persönlichen angriff.
 
Eben,
immer dieses Speicherinterface-Gemecker.
Es nützt den Karten rein garnichts, das Speicher-Interface aufzubohren. Wie schong esagt wurde es es günstiger, hochgetakteten Speicher an einem schmaleren Interface zu nutzen und damit viele Kosten beim PCB zu sparen, als "langsameren" Speicher mit breiter Anbindung.
Außerdem ist ein 256er (4x64) highclock effizienter bei Auslastung und Zugriff (Latenz) als ein 512er (8x64) lowclock.

Gruß ErichH.
 
aphroali schrieb:
Nvidia hat die Nase vorn, unbestreitbar :p

Hallo, Du scheinst Ahnung zu haben.

Also folgendes Problem ich brauche eine neue Grafikkarte. Ausgeben kann ich maximal 160,- Euro. Warten kann/will ich nicht, die Karte soll also in den nächsten 1-2 Wochen da sein. Nvidia klingt in meinen Ohren toll und wenn sie die Nase vorn haben umso besser.

Welche Karte von Nvidia empfiehlst Du für den Preis? Natürlich darf es keine ATI Karte geben, die bei gleichem oder niedrigerem Preis mehr Leistung zeigt. Ich Bitte um Antwort.

mfG,
flipp
 
Eben,
immer dieses Speicherinterface-Gemecker.

Vom gemecker keine spur,

nur hat ganz aktuell bei notebookcheck.de gezeigt, dass die 8700m gt trotz eines deutlich höheren gpu und speichertakts und neuer gpu, nicht gegen 7950go gtx ankam.
Und dies "komischer weise" immer dann, bei hohen auflösungen.

Dort bildete das speicherinterface schlicht weg einen flaschenhals. Das erklärt auch, warum die 8700m gt bei geringen auflösungen der 7950go gtx überlegen war.

Für den ganzen testumfang, lese selbst 8700m gt gegen 7950go gtx auf notebookcheck.de

Wie schong esagt wurde es es günstiger, hochgetakteten Speicher an einem schmaleren Interface zu nutzen
Die häufigkeit, wie oft was gesagt wurde, ist kein indiz drauf, dass es dadurch richtiger wird.
Du sagst gerade: Lieber eine starke feuerwehrpumpe an einen winzigen gartenschlauch anschließen, als einen großen feuerwehrschlauch mit einer gartenpumpe zu betreiben.
Beides ist falsch.

Speicheranbindung und speichertakt müssen ein einem "passenden" verhätlnis zueinander stehen, so dass auf der einen seite das speichernterface nicht als flaschenhals fungiert und auf der anderen seite, das speicherinterface "zu fix" ist für den lahmenden ddr-speicher.
 
Zuletzt bearbeitet:
HardFreak schrieb:
@11
und jetzt bitteschön das ganze nochmal in deutsch definiert.


Ich find echt bitter schade, dass - egal ob nvidia oder ati - sich im allgemeinen noch nicht von einer 128bit speicheranbindung trennen können!
256bit sollte zumidest für das nächste jahr in allen klassen und kategorieren standart werden, nach oben hin 512bit <X sollte natürlich keine grenze gesetzt werden =)

Was ist das denn für ein Quatsch? Was sollen denn die low end Produkte mit 256Bit. Kostet nur in der Produktion und bringt im vorgesehehen Anwendungsbereich überhaupt nichts, außer daß der Preis der Karten in die Höhe geht. Damit ließen sie sich aber nicht mehr verkaufen, weil sie nicht mehr in das Marktsegment passen wofür sie vorgesehen sind (die anderen Segmente sind nämlich schon besetzt).

Irgenwer hatte es hier schon angesprochen:
Versuche mal einen Kleinwagen mit 6 Zylinder Motor und 250PS und einem Preis von ca. 39000,- Euro mit gutem Absatz zu verkaufen :D.

flipp
 
Ich hatte es doch schon gesagt:

Was ist das denn für ein Quatsch? Was sollen denn die low end Produkte mit 256Bit.

Speicheranbindung und speichertakt müssen ein einem "passenden" verhätlnis zueinander stehen, so dass auf der einen seite das speichernterface nicht als flaschenhals fungiert und auf der anderen seite, das speicherinterface "zu fix" ist für den lahmenden ddr-speicher.


Ich habe das wort low end (produkte) in meinen ganzen posts zum thema nicht einmal erwähnt.
Was ihr da alles reininterpretiert...erst gründlich lesen, dann persönlich angreifen.
 
HardFreak,

das mit dem zueinander passen ist schon richtig, aber das trifft hier nicht zu. Was hier die physikalischen Grenzen definiert, ist der Takt des Speichers und der Takt der entsrpechenden Zuleitung, sowie die Geschwindigkeit, mit welcher die kommenden Daten verarbeitet werden können.

256Bit und hochgetakteter Speicher passen zusammen, weil sie den Grafikchip genauso effektiv beliefern wie ein 512er Interface mit halben Speichertakt.

Und wenn 256Bit + 1GHz GDDR4 günstiger ist als 512Bit + 0,5GHz GDDR3 dann ist klar, was man vernünftigerweise wählt.

Im Endeffekt kommt es doch darauf an, was am Schluss herauskommt. Und wenn das passt, dann ist's gut.

Gruß ErichH.
 
HardFreak schrieb:
Speicheranbindung und speichertakt müssen ein einem "passenden" verhätlnis zueinander stehen
Dieses Verhältnis ist vollkommen egal. Ob ich jetzt 700MHz getaktete Speicherchips mit 256bit anbinde oder welche mit 1400 MHz mit 128bit spielt so gut wie keine Rolle. Beide haben einen gleich hohen Speicherdurchsatz. Einzig das Verhältnis GPU-Leistung und Speicherdurchsatz muss stimmen, damit ein Faktor nicht zum Flaschenhals wird.
Und anscheind reichen 256bit und ca. 1100 MHz aus, um eine aktuelle GPU mit genug Datenversorgen zu können, dass sie eben nicht (zu sehr???) ausgebremst wird. Warum soll dann eine nicht mal halb so schnelle Karte nicht auch mit einem 128bit Interface auskommen.
Einstellungen, in denen man die hohe Speicherbandbreite braucht, werden auf diesen Karten sowieso nicht gebraucht.


Edit:
Ein bisschen zu langsam ;).
 
Zurück
Oben