News ATi Radeon HD 3600 (RV635) kommt Anfang '08

HardFreak schrieb:
Ich hatte es doch schon gesagt:



Speicheranbindung und speichertakt müssen ein einem "passenden" verhätlnis zueinander stehen, so dass auf der einen seite das speichernterface nicht als flaschenhals fungiert und auf der anderen seite, das speicherinterface "zu fix" ist für den lahmenden ddr-speicher.


Ich habe das wort low end (produkte) in meinen ganzen posts zum thema nicht einmal erwähnt.
Was ihr da alles reininterpretiert...erst gründlich lesen, dann persönlich angreifen.

Ich glaube Du siehst das ganze zu blauäugig. Ich vermute einfach, daß der Takt recht leicht und ohne finanziellen Mehraufwand leicht zu steigern ist bzw. das Angebot an schnellem Speicher groß genug ist.

Weiterhin sind hohe Taktraten werbewirksam (egal ob die Karte am Ende davon profitiert). Aber um günstig anbieten zu können wird halt auf 256bit verzichtet. Ob das nun zusammen paßt oder nicht. Irgendwelche Einschränkungen in dieser Preisregion sind dem Hersteller egal oder sogar gewollt .

Warum Du meinst man greift Dich "persönlich" an ist mir jedoch schleierhaft.

flipp

edit: Beispiele gibt es ja genug, z.B. Karten mit sehr hohem GPU Takt und bewußt gewähltem langsamen Speicher, oder auch Karten wo Speichertakt und GPU Takt sehr hoch liegen, aber das Interface "gedrückt" wurde um Kosten zu sparen und auch die Leistung zu drosseln. Es geht am Ende bei solchen Karten nur darum günstig zu produzieren und werbewirksam die unteren Segmente bedienen zu können.
 
Zuletzt bearbeitet von einem Moderator:
@topic: Da nicht jeder Leistung ohne Ende braucht find ich die Karte echt gut. Wird wohl noch günstiger als die 2600er bei geringerem Verbrauch. für Videos ist sie damit ideal und für Gelegenheits- und Budgetspieler mit Sicherheit ausreichend. Auf jeden Fall ohne OC besser als eine 8600 GT.

@ comments: Dass der Datendurchsatz so enorm ansteigt wie früher ist so wie es zur zeit aussieht nicht nur sehr teuer sondern insgesamt auch unnötig. Außer bei den paar Leuten, die wirklich in extremen Auflösungen spielen lohnen sich 120 GB/s derzeit einfach nicht. Wär aber schön, wenn die kleinen Karten wieder ein bisschen aufholen würden.
Was die Leistung angeht kann ich nur sagen, eine Radeon 3850 gibt´s ab 150€ sind nur 20€ mehr als bei der 8600 GTS. Und die Leistung der Karte dürfte außer bei Crysis in jedem Spiel für höchste Settings reichen. Dazu Ati´s gewohnt gute Videoqualitäten, erheblich besser als bei NV, plus Stromsparfunktionen, durch die die Karte im Mittel bei erheblich besserer Leistung weniger Saft aus der Leistung zieht als die 8600 GTS.
Wenn´s nächsten Monat passt wird das meine neue Karte und ich freu mich nach zwei Geforce auf eine Radeon.
 
captain carot schrieb:
Was die Leistung angeht kann ich nur sagen, eine Radeon 3850 gibt´s ab 150€ sind nur 20€ mehr als bei der 8600 GTS. Und die Leistung der Karte dürfte außer bei Crysis in jedem Spiel für höchste Settings reichen. Dazu Ati´s gewohnt gute Videoqualitäten, erheblich besser als bei NV, plus Stromsparfunktionen, durch die die Karte im Mittel bei erheblich besserer Leistung weniger Saft aus der Leistung zieht als die 8600 GTS.
Alles korrekt, nur was die Bildqualität angeht liegt Nvidia mit der GeForce 8 wieder vorne (wieder? seit der GeForce 4 um genau zu sein), mit einer sehr guten Bildqualität. ATi ist wie gewohnt gut in Sachen Bildqualität, auch mit der HD 3800, kommt aber nicht an die GeForce 8 heran.

Das sah früher insbesondere mit der GeForce 7 natürlich ganz anders aus.
 
ich denke mal mit videoqualität hat er nicht grad die bildqualität im 3d bereich gemeint sondern beim abspielen von videos
wobei ich da ati nciht gerade sehr weit vorn sehe
 
Oh ja, das sieht so aus, habs in der Tat nur auf die 3D-BQ bezogen, aber das war hier wohl gar nicht gemeint.

Was das Speicherinterface angeht, ich gehöre zu denjenigen, die glauben, dass diese Angelegenheit zum einen überschätzt wird und dass vielen auch nicht bewusst ist, dass es heut zu Tage gut mit schnellem GDDR ausgeglichen werden kann.

Schon jetzt zeigen Grafikkarten wie die 8800 GT oder HD 3800, wie gut man sich mit 256 Bit gegenüber den HighEnd-Derivaten mit bis zu 512 Bit behaupten kann.

Das Mainstream-Segment mit einer HD 3600 oder GeForce 8600 bekommt nach wie vor 128 Bit und könnte aufgrund der nicht all zu hohen Rechenleistung auch nicht viel mit einem breiteren Interface anfangen - dafür sind GDDR3 und auch GDDR4 zu günstig geworden.
 
Sehr schön kann man da nur sagen! :)
 
RubyRhod schrieb:
Ich verstehe mal deinen Beitrag freundlicher weise so, wie xp_home es erklärt:
Freundlich brauchste da nicht zu werden.
Einfaches Lesen/Verstehen reicht da schon aus.

THX@ xp_home =)

Und dazu muss ich sagen, Busta Rhymes - lesen bildet.
Ich hab doch geschrieben, was fakt ist: Ein Grafikkartenhersteller KANN einfach keine Chips aus dem Ärmel zaubern!
Sondern ein Lebensmittel-Discounter?

Was zum Teufel soll ATi denn bitte gegen den G80 tun? Richtig - NICHTS!
Sie haben keine 1-Chip-Lösung, die die gleiche Leistung erreicht.
Also..
Villeicht mal nach über einem Jahr eine Performance mäßig mindestens gleichwertige Karte rausbringen? Die entwickeln doch GPUs her wenn ich mich nicht täusche?


Und warum soll ICH erwachsen werden? In meinem Beitrag steht doch kaum etwas, woran man kontruktive Kritik üben könnte - ich sehe die Vor- und Nachteile, erkläre die Fakten..
DU kannst anscheinend nur beleidigen.
Oh man... traurig.
 
ja genau sie entwickeln und zaubern nicht
der r600 release ist nicht lange her

der G80 wurde über 4 jahre lang entworfen und designed
amd soll das in 6 monaten machen?
 
aphroali schrieb:
also gibt es nach wie vor im Highend-Bereich keine Argumente, zu ATI zu greifen.

Für mich ist High-End nur was ganz anderes als für dich.

Kannst du (oder viele andere hier) dir eigentlich nicht vorstellen, dass
es tatsächlich Leute gibt, die nie und überhaupt gar nicht zocken?!

für mich ist High-end wenn ich eine perfekte Multimedia Karte mit excellenter 2D(!) Bildqualität habe.
Und was ich da bei einer Geforce 7600 im Vergleich mit einer ATI X1650 gesehen habe, war deutlich.
die ATI hatte das bessere Desktop Bild (minimal) und die schöneren Farben (deutlich zu sehen).
Ich weiß nicht, ob Nvidia es bei der 8xxx Serie besser gemacht hat, aber in der 2D Bildqualität war ATI bisher immer etwas besser.

DAS ist für mich High-End.
Deshalb für mich ATI mit AVIVO Technologie.
 
aphroali schrieb:
Multi-GPU? mit dem Haufen Abwärme, der wieder eine Menge Kühlung benötigt? und ganz nebenbei verbraten 4 GPUs jede Menge teuer bezahlten Strom. in nächster Zeit steck ich mir sicher keine 2 Grafikkarten in den Rechner. Nvidia hat die Nase vorn, unbestreitbar :p

Warum denn vier GPUs? Zwei tun es auch, um der Ultra Paroli zu bieten. Und die zwei verbraten auch nicht mehr Energie!

p.s. damit kein Ultraschlaumeier auf die Idee kommt Erbsen in meinem Beitrag zu zählen- ich kenne den Energieerhaltungssatz und weiß, dass die Energie nicht "verbraten" wird...
 
Zuletzt bearbeitet:
Busta Rhymes schrieb:
Freundlich brauchste da nicht zu werden.
Einfaches Lesen/Verstehen reicht da schon aus.

THX@ xp_home =)
Nur dumm, dass mindestens 2 weitere Menschen dich auch nicht verstanden haben, weswegen xp_home deinen Beitrag erstmal erklären musste. Du hast es wohl nicht so mit dem klaren Ausdrücken..
...was man wieder mit deinem "Lebensmittel-discouter" (Zusammenhang?!?!?!) erkennt.

Du scheinst a) KEINE Ahnung von IRGENDWAS zu haben
b) mich nur dumm anmachen zu wollen
und c) ein kleiner Egozentriker zu sein.

Hast du auch nur im Ansatz eine Ahnung, wie lange ATi schon am R700 sitzt? Wie lange sie für den R600 gebraucht haben? Oder für den R580? Oder nVidia für den G80, den G70, oder sonst IRGENDEINEN Chip?

Ja... innerhalb von einem Jahr entwickeln, produzieren und vermarkten sie einen KOMPLETT neuen Chip, nur weil der alte 10% langsamer als die Konkurrenz ist..

das ist wirklich so unglaublich dumm und kleinkarriert..
 
Zuletzt bearbeitet:
Kaupa schrieb:
Er hat doch geschrieben, man müsse jetzt nicht freundlich werden;)
Rischtisch =)

RubyRhod schrieb:
Nur dumm, dass mindestens 2 weitere Menschen dich auch nicht verstanden haben, weswegen xp_home deinen Beitrag erstmal erklären musste. Du hast es wohl nicht so mit dem klaren Ausdrücken..

Ich kann doch nichts dafür, das neben dir noch andere nicht mal die Mittlere Reife haben... Aber nächstes mal werde ich meinen Schreibstil dem geistigen Entwicklungsstand deinerseits anpassen, versprochen ;)
 
Naja ok..
da du mittlerweile wirklich NURNOCH beleidigst, würde ich mal vorschlagen, dass wir das ganze einfach mal lassen und die Diskussion sich wieder auf das Thema zurückbewegt - nämlich:
RV635

P.S.:
Ich wusste nicht, dass man mit mittlerer Reife studieren kann?!
 
Zurück
Oben