News ATis R600 verrichtet sein Werk

@3 - wenn die 8800GTX schon kaum mehr als die X1950XTX verbraucht, dann kann man sich sicher sein, dass der R600 weit über beiden Karten liegen dürfte. Den Trend zun "2-Stromstecker-Grafikkarten" hat nVidia wohl nun gestartet, ATi wird ihn fortsetzen ^^

Aber schon irgendwie komisch, dass man nichtmal ansatzweise Daten oder Leistungen durchblicken lässt.
 
w0mbat schrieb:
Doch, schau dich mal in den Foren um. Auch Karten die nach dem Relase normal verkauft wurden sind betroffen.

Um Gottes Willen. :D ;) Hm, naja. Die Sofortkäufer sind eben auch nur inoffizielle Beta-Tester. :D
 
muh2k4 schrieb:
@Bad



Ansonsten ist es immer noch "Leistung", "hole", "Strom verbraucht", "wenn" "vermögen würde?" - ja ne is klar, "Gehirn", "wo hin das führen soll" -> "wo das hinführen soll", "Bereich", "dringend" ... ach ja, herrlich ... Soviel zum Thema: Gehirn einschalten ;)

Ich glaub ich hab 'nen neuen Lieblings-Boardie!

100% agree :D

Ich hoffe, dass mit dem Release des R600 die Preise für die 8800er sinken und die mal bezahlbar werden :)
 
Für mich ist Nvidia nur der führende im Bereich Energieverbrauch zur Zeit :o Wäre zu schön wen ATI mal wieder etwas richtig schönes auf den Markt bringen würde.

Nach Weihnachten gibts bei mir auch wieder einen ganz neuen PC und da will ich was anständiges aber ohne ein gigantischen Stromverbrauch. Vieleicht müssen wir Schweizer mal wieder was entwickeln ;)
 
Zuletzt bearbeitet:
tAk schrieb:
Das mit der Verfügbarkeit der 8800GTX stimmt zwar. Jedoch wurden auch viele Karten wegen eines Defektes wieder an nVidia zurückgeschickt.

mFg tAk

OIh man jetzt Reiten die ganzen Leute auf sowas rum! Das is noch nitmal nVidias schuld das sowas passiert! Ausserdem sind das nicht alle Karten!

Nehmt es so wie es ist nVidia is wieder am Zug und besser als ATI da können die ganzen ATI/AMD Fanboys erstmal nix gegen tun!

Der R600 wird kommen, bestimmt noch Stromfressender, lauter und dafür langsamer als der G80! :evillol:
 
Gut das der R600 endlich kommt. Aber ich kauf mir erstma keine neue Karte.
 
@21

Ich erinner mich mal ne news gelesen zu haben das die r600 karten n externes netzteil bekommen. Find diese lösung eh besser als das netzteil des rechners zu belasten.
 
hui nun sind hier alle nvidia fans am start ;-) ..... aber ich denke, ATI wird schon wissen, wann die ihre R600 Karten rausbringen. Denke mal auch, dass sich die wenigsten (und vielleicht auch normalen) Leute jetzt eine der teuren Geforce 8800 GTX Karten kaufen, sondern dass das große Geschäft mit günstigeren Karten gemacht wird und da steht ATI mit der X19(5/0)0 XT(X) recht gut da und zudem wird auch Windows Vista benötigt für die DX 10 Effekte, und dass kommt erst im Januar.
 
ne, ich finds albern, ich will nich noch ne steckdose fürs nt opfern, wenn ich eh n 500 watt nt hab
 
@BAD:

Hast du mal eine Schule besucht? Oder kommst du aus einer fremden Kultur?
Du schaffst es ja noch nicht mal EINEN Satz zu schreiben ohne einen Rechtschreibfehler!

"befohr" --> bevor *lol*
"dan" --> dann
"bassieren" --> basieren
"irgend wan" --> irgendwann
"berreich" --> Bereich
"tud" --> tut *ich lach mir weg*

Das sind doch keine Flüchtigkeitsfehler!

Krass :()
 
Wo ist denn der Informationsgehalt in dieser Meldung? Soll dieser Satz
...kommt ATis Konkurrenzchip, der R600, bereits seit einiger Zeit auf Prototypen mit niedrigeren Taktraten zum Einsatz.
es sein?
Ach was? Die testen ihre Chips auf Prototypen? Kaum zu glauben. Tzz.
Komische Meldung.
 
Hi,

schön, findes es gut das sich Ati zum Wort meldet. Wettbewerb ist nun mal eine faire Demokratie, bei denen nur die Endverbraucher gewinnen können!

Diese dummen sprüche wie "neider", "kann mir 6 davon leisten", sind wohl ein Indiez dafür, wieviele Kinder damit beschäftigt sind. Glaube kaum ein Mensch hier in Deutschland, der in der Lage ist hier zur Posten, wäre nicht in der Lage 600 Euros auf den Tisch zu legen.

Gruss Selflex
 
Montag soll meine Asus 7900GTX wieder nach ca. 5 Wochen aus der Reparatur kommen. Das war dann auch meine letzte nVidia Karte. Meine 7800GT musste ich zwei mal zurück schicken. Mit ATI hatte ich solche Probleme noch nie. Mag Zufall sein, ein bitterer Beigeschmack bleibt trotzdem.

Solang es noch keine DX 10 Spiele gibt macht so eine Karte für mich keinen Sinn. Wenn Crysis raus kommt werde ich mal über eine R600 nachdenken. Bis dahin muss meine "alte" Karte reichen.
 
@ ichdertobi

Ja tut mir ja auch unglaublich leid für die vielen fehler, aber thx das du mich darauf hinweist ;) Schwereibe wohl zuviel Schweizerdeutsch :D
 
so eine meldung hat wirklich nur den sinn an den R600 zu erinnern, aber mehr auch nicht, wenn man mehr technische sachen verraten hätte, könnte man die geschwindigkeit auch einordnen.

allerdings ist ne DX10 karte nichts für mich, solange nur die Top-Modelle draußen sind, hat einfach keinen sinn finde ich^^
 
da kann ich nur lachen. wiso amd die karte nicht schon vor weihnachten bringt und dicke kohle macht ? ganz einfach weil sie nicht können.
die chips werden sehr heiss. verbrauchen so weit bekannt an die 250 watt, im vergleich zu 150w der 8800gtx haben einen 512bit speicherbus und sind dazu noch extrem gross und in 80nm hergestellt. ati wird die gleichen probleme wie intel mit dem p4 haben. deshalb wird der chip auf q1 07 verschoben und nv macht die dicke kohle zu weihnachten mit den viel zu teuren 8800 karten.
 
Freespace schrieb:
Leistungsaufnahme der einfach nicht mehr effizent gekühlt werden kann. Selbst Wasser ist irgendwann nicht mehr ausreichend? Was dann? Stickstoff? Kompressor Kühlung?

Das Problem ist ja, dass man die Strukturen resp. den Fertigungsprozess nicht einfach beliebig weit verkleinern kann. Irgendwo wird man zwangsläufig auf eine Grenze stossen.

In den anderen Punkten stimme ich dir voll und ganz zu. ;)

mFg tAk
 
naja der stromverbrauch blieb ja seit dem nv40 gleich
jetzt ist er halt etwas höher, da er noch in 90nm gefertigt wird
spätestens im sommer kommt ein refresh in 65nm der weniger verbrauchen wird

wer die leistung nicht will, kann sich ja ne genügsame 7900gs kaufen


und hört auf mit der umwelt
heizt im winter 1 tag lang 2-3°C weniger und du kannste dein leben lang die dicksten grakas nutzen

ertwas unschön ist der stromverbrauch nur wegen den u.u. erforderlichen kauf eines neuen netzteils und der schwereren kühlung, wobei das nvidia ganz gut gelöst zu haben scheint
 
Zurück
Oben