News ATis R600 verrichtet sein Werk

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.151
Wie der Inquirer pünktlich zur Markteinführung des G80 berichtet, kommt ATis Konkurrenzchip, der R600, bereits seit einiger Zeit auf Prototypen mit niedrigeren Taktraten zum Einsatz. Die Veröffentlichung ist weiterhin erst für das 1. Quartal 2007, also nach dem gewinnträchtigen Weihnachtsgeschäft, geplant.

Zur News: ATis R600 verrichtet sein Werk
 
Das mit der Verfügbarkeit der 8800GTX stimmt zwar. Jedoch wurden auch viele Karten wegen eines Defektes wieder an nVidia zurückgeschickt.

mFg tAk
 
Wen die Leitung stimmt und die Karte kein so hohen Stromverbrauch hat wie eine 8800 GTX dan holle ich mir so eine. Ist ja nicht mehr normal was so eine GTX an stromverbraucht. Könnte mir auch 4x sollcher scheiss dinger Leisten doch man sollte auch mal etwas das Gehirn benutzen was das bringen soll.

Im Bereich Stromverbrauch muss sich bei Grafikkarten mehr als dringend etwas ändern!
 
Zuletzt bearbeitet:
Na dann bin ich ja mal gespannt was ATI da im Petto hat. Kanns kaum erwarten..

Aber trotzdem verstehe ich nicht, warum ATI sich Weihnachten entgehen lässt, da hätten bestimmt viele die neue Karte gekauft...
 
abwarten, immer abwarten was so passiert.

verstehe aber nicht warum man erst nach weihnachten einen launch macht
 
@Sunrise
Vielleicht weil die Karte noch nicht vollkommen ausgereift und die Produktionskapazitäten nicht da sind?
 
Zuletzt bearbeitet:
@Bad
Wen die Leitung stimmt und die Karte kein so hohen Stromverbrauch hat wie eine 8800 GTX dan holle ich mir so eine. Ist ja nicht mehr normal was so eine GTX an stromverbraucht. Könnte mir auch 4x sollcher scheiss dinger Leitewn doch man sollte auch mal etwas das Gehirn benutzen was das bringen soll.

Im berreich Stromverbrauch muss sich bei Grafikkarten mehr als dreingend etwas ändern!


Ansonsten ist es immer noch "Leistung", "hole", "Strom verbraucht", "wenn" "vermögen würde?" - ja ne is klar, "Gehirn", "wo hin das führen soll" -> "wo das hinführen soll", "Bereich", "dringend" ... ach ja, herrlich ... Soviel zum Thema: Gehirn einschalten ;)

Ich glaub ich hab 'nen neuen Lieblings-Boardie!
 
Zuletzt bearbeitet:
tAk schrieb:
Das mit der Verfügbarkeit der 8800GTX stimmt zwar. Jedoch wurden auch viele Karten wegen eines Defektes wieder an nVidia zurückgeschickt.

mFg tAk

So ist die Taktik, erst auf den Markt schmeissen und die Kohle kassieren.
Ob die Karte Mängel hat bzw. Fehler macht ist erst einmal nebensächlich,
die Kohle kommt erst mal rein und was man hat gibt man so schnell nicht wieder her.
(die Reklamationen ziehen sich erst einmal und in der Zeit boomt der Verkauf)

Ausserdem lässt sich so abschätzen, wieviele "WAHNSINNIGE" es gibt
die soviel Kohle bereit sind zu zahlen :smokin:

PS: ... mich eingeschlossen
 
Zur zeit meiner x800 XT PE hat man sich ja schon schwer gefragt wie viel Strom diese verbrauch, doch heute interessiert das anscheinend nur noch ein teil der Benutzer.

Kann ja wohl nicht sein das man extra für so eine Grafikkarte sich ein 400W Netzteil anschaffen muss, so etwas ist nicht mehr normal. Bei denn Mobil sachen tut sich da viel mehr im Bereich leitung und Stromverbrauch.
 
Zuletzt bearbeitet:
Tjo, wo viel Leistung raus will, muss auch dementsprechend "viel" Energie rein gehen. Der Trend geht derzeit klar in die Richtung das eine Leistungssteigerung mit einem erhöhten Bedarf gedeckt werden muss. Nachdem der Markt danach fragt, wird auch das Angebot dementsprechend ausgelegt. Weiters muss man berücksichtigen, dass ja die karte nie 100% Leistung durchgehend abfragt, von daher relativiert sich das dementsprechend.
@Back to Topic: Bin mal gespannt was AMD/ATI da mit dem R600 aus den Hut zaubern werden. Entweder Top oder Flop. Man darf gespannt sein ;-)
 
yamahakuesser schrieb:
Das waren aber keine Karten für Endverbraucher.

Doch! ;)

Sonst hätte ich schon eine, ging aber zurück an MSI.

Bekomme nun aber eine intakte BigFuckingGun! :D

Naja was man so spekuliert soll der R600 ja noch mehr verbrauchen als der G80, bei dem war man ja noch verwundert das er ein bisschen mehr schluckt als der R580.
 
Ich denke das mit dem Stormverbrauch wird sich auch in Zukunft nicht bessern. Nur muss man auch sehen, dass man irgendwann an die Grenzen von konventioneller Luftkühlung stösst. Ob man dann gezwungen ist auf eine Wakü umzusteigen wird sich zeigen.

mFg tAk
 
Intel konnte ja zum glück mit seinen P4 CPUs und dem Prescott Kern auch nicht ewig so weiter machen, ich hoffe das merken auch irgendwann die Grafikkarten Hersteller.

Mein PC verbraucht unter volllast schon satte 220Watt.
 
Zuletzt bearbeitet:
yamahakuesser schrieb:
Das waren aber keine Karten für Endverbraucher.

Doch, schau dich mal in den Foren um. Auch Karten die nach dem Relase normal verkauft wurden sind betroffen.

@Topic: Mal sehen was ATi das raushauen wird. Ich denke daß wir mit 20% mehr als der G80 rechnen können - wobei dann wahrscheinlich schon der G81 kommt.
 
@BAD:

Regst du dich auch über Leute auf welche sich einen Porsche oder Ferrari leisten können?
Es gibt immer Leute welche sich mehr leisten können und denen der Verbrauch (ob Strom bei der Graka oder Benzin fürs Auto) egal ist. So ist das Leben nun mal.

Und mal ehrlich jeder aktuelle PC verfügt ja nun mal über ein 400W Netzteil.

PS: wenn man sich die gebotene Leistung der 8800GTX vanschaut dann verbraucht im sie doch gar nicht soviel. Bei manchen Benches ist die Karte ja auch 60-70% schneller.
 
@ BAD:

Der C2D ist in Sachen Energieeffizient wirklich um einiges besser als die "alten" P4 basierend auf der Netburst Architektur.

Aber, wenn du dir den Test zum Quadcore mal genauer anschaust, siehst du da dieser auch schon wieder sehr viel Strom braucht.

mFg tAk
 
Wie schon gesagt ich kann mir von den dinger so viele kaufen wie ich will, ich frag mich halt einfach wo da der sinn dahinter steckt. Man solte dabei auch etwas an die Umwelt denken.

Ich will einfach nur das sich mehr Leute etwas dabei überlegen bevor sie so eine Karte kaufen.

Ob ihnen das dann scheiss egal ist oder nicht ist dann nicht mein Problem, mein Ziel ist ganz einfach das sich die Leute etwas dabei überlegen.


@tAk

Ja das von Quadro hab ich leider auch schon gesehen, ich dachte dabei allerdings mehr an die Core 2 Duo die auf einer weiterentwicklung des Pentium M basieren. Die weiter entwicklung scheint selbst für die Prozessoren Hersteller zu schnell zu gehen, was wohl der grund ist für den hohen Stromverbrauch.
 
Zuletzt bearbeitet:
@Tak: Eine Zeitlang wirds sicher noch in die Richtung gehen, nur wird früher oder später ein Umdenken erfolgen. Ist alles nur eine Frage der Struktur und der verwendeten Materialien. Brauchst nur mal an die Auto Motoren Entwirklung denken. Hoher Spritverbrauch um Leistung zu generieren, mittlerweile schaffen Motoren die selbe, wenn nicht mehr leistung bei weniger Energieaufwand. Glaube diese Trend wird früher oder später auch hier einsetzen, da irgendwann die Strukturen so klein geworden sind und bei der Leistungsaufnahme der einfach nicht mehr effizent gekühlt werden kann. Selbst Wasser ist irgendwann nicht mehr ausreichend? Was dann? Stickstoff? Kompressor Kühlung? Nene, ist alles nur eine Frage der Zeit und vorallem "was der Markt sich erwartet". Solange der Markt nach solchen Geschossen fragt und mit der Leistungsaufnahme leben kann, wieso was dran ändern? Außerdem reden wir hier vom HighEnd segment, die Low & Midrange Karten liefern ausreichend Performance zu einem akzeptablen Energiebedarfniveau. ;-)
 
Es ist doch gut von ATI an das eigene Produkt zu erinnern.
Ich kenne viele, die sich in letzter Zeit Geld zusammengespart haben, damit Sie sich vorzeitig vor Erscheinen von VISTA und Crysis bereits DX10-tauglich ausstatten und die hätten alle gerne sofort die DX10-Karte, d.h. derzeit nur Nvidia.

Zudem bin ich absolut gespannt, wie sich die Zusammenarbeit von ATI und AMD zukünftig auswirken wird. Ich denke, interessanter als die Integration der GPU in die CPU wird die Bereitstellung der kleineren Fertigungstechnologie sein. Damit könnte ATI künftig vom 65nm-Prozess profitieren, den Stromverbrauch senken (wenn alle Probleme des Prozesses behoben sind) und mehr Funktionen auf gleicher Chip-Fläche realisieren. Wer weiß, vielleicht kommt ja dann eine Dual-Core GPU ;).

CU Endurance
 
Zurück
Oben