News ATis R600 verrichtet sein Werk

Toll das Ati nun auch was rausrückt der R600 wird kommen,

Der Trend zu 2 Steckern ist gekommen,
Und ich bin auch der Meinung dass die R600 den vortsetzt.

Wieviel Strom das Teil braucht ist unwichtig, hauptsache dei R600 ist schnell.
Ob der PC nun 300Watt oder 600 Watt benötigt ist völlig unwichtig,
wenn man mal andere Verbraucgher wie Kühlschrank, Kühltrue, Waschmaschine sieht,
die 365 Tage im Jahr strom verbrauchen.

Für Stromsparer gibs Notbooks oder passiev gekühlte Karten fürn PC.

Der Rest ist nicht so wichtig.

Neben Gas können wir auch problemlos AtomStrom aus Russland importieren.
Der ist billig und sauber.
 
Das mit den 2 Steckern wird sich wohl langsam im High-End Segment einbürgern. Es wird Zeit für eine neue PCI-E Version. :D

mFg tAk
 
wenn der r600 kommt wird nvidia denk ich nicht einen g81 nachschieben dafür ist es nochwas zu früh..ich gehe mal davon aus das eher eine Dual gpu kommt sowie die gx2 oder eine Extrem edition dh eine höher getacktete gtx mit evt gddr4. Ähnlich wie es bei der 7800GTX 512 war
 
öhm, seit wann gibt es denn das Newsbewertungssystem? Sehe es gerade zum ersten mal. Habe bei der News glatt mal ein Stern gevotet.
 
Glaube, dass der R600 ca. genau so viel Strom verbrauchen wird, wie der G80. Da ist ja noch ATI am Werk... Vielleicht wird sich 2008 da was tun, wenn AMD mehr eingreift.
Zur Zeit ist Stromverbrauch nur deswegen für Grafikkartenhersteller wichtig, weil mit ihm auch die Wärme zunimmt. Solange man die Abwärme noch unter kontrolle hat ist für die Hersteller alles OK.

Da fällt mir grad ein. Beim 8800GTS sind ja "ein paar" bzw. ein Block Unifadeschader deaktiviert..... Wäre es da nicht möglich beim 8800GTX im 2D modus per Regulierungsmechanismen diesen einen Block genau so auzuschalten um Strom zu sparen? Auch wenn es techn. möglich wäre, macht Nvidia das nicht, weil dass dennen relativ egal ist. Sie wird auch so ihre Karten los....

Aber ich freue mich schon mal auf die Zeiten, wo man sich über so einen G80 und R600 genau so äußert wie man sich jetzt nach der Einführen des C2D über den Pentium4 und Pentium D äußert.... "Diesen "schrott" will doch keiner haben...." "Die würd ich nicht mal umsonnst nehmen....."
 
ich denke die werden das schon richten mit dem R600er und den nVidia-Fanboys einen vor den Bug setzen;)

und ich denke auch das Ati den Crossfire noch weiter verbessern wird denn das haben die ja bereits bewiesen das diese Lösung bei weitem besser funzt.

Die 8800GTS ist eh nicht der Hammer...glaube nicht das die noch weiter abgespeckt wird.

Die wollten halt mal schnell das Weihnachtsgeschäft mit der 8800er mitnehmen und dabei wohl vergessen das der Kunde kein Betatester ist!!(sehr habgierig und vertrauensvoll)
 
Zuletzt bearbeitet:
doch für umsonst würd ich die nehmen, aber da ich kein kellerkind bin, dass pc süchtig ist und nur spielen im kopf hat, benötige ich keien so eine graka. hab noch n x1900 xt liegen, aber di ist kaptt bzw. liegt nun seit 2 monate hier rum und wartet darauf, zu mix gesendet zu werden, abe rhab keine lust zur post zu gehen ... finde den notebooks gehört die zukunft. da soll ma n DX 10 erscheinen.
 
Ich kann mir nicht vorstellen das ATI in irgend einer weise liefern kann, seit Wochen gibt es bei den Händlern nur ganz geringe stückzahlen von der 1950 warum sollte der R600 dann verfügbar sein ?

Ich warte noch 1-2 Wochen dann kommt die 8800 GTX in den Rechner.
 
Zock schrieb:
Ich kann mir nicht vorstellen das ATI in irgend einer weise liefern kann, seit Wochen gibt es bei den Händlern nur ganz geringe stückzahlen von der 1950 warum sollte der R600 dann verfügbar sein ?

Ich warte noch 1-2 Wochen dann kommt die 8800 GTX in den Rechner.


hmm...das ist ja jetzt AMD/Ati und die werden denen schon in den Ursch.. treten

und wenn die es nicht schaffen besser zu sein nemen wir eben eine 8900GTX Ultra 1024Mb DDR4 und gut ist;);)
 
Also der R600 wird garantiert NICHT strom sparender als der G80, im Gegenteil, der maximale Verbrauch des Systems soll damit um 50 bis 100 Watt höher sein, als der der 8800 GTX.
 
Jungs macht nicht wieder so einen sche.. Thread auf , ATI vs. Nvidia braucht keiner.

Ich kaufe immer die Grafikarte die am schnellsten ist egal von welcher Firma, naja am liebsten von 3 DFX aber die haben ja schon lange Urlaub :p

Nee ist doch alles gut für uns, Nvidia macht es mit der 88er genau so wie mit der 7800 die damals nur mit 256 MB auf den Markt geworfen wurde, auf dem PCB war sogar noch platz für die fehlenden Speicher Chips.

Nachdem ATI die 1800 XTX auf den Markt gebracht hatte mußte Nvidia nur noch ein paar Chips mehr drauf Löten und zack da war sie die 7800 GTX XXX ;)

Im grunde ist ATi daran schuld das es die 8800 nur mit 768 MB ram gibt sonst hätten wir jetzt eine Speicheranbindung von 512 Bit und 1 GB DDR4 Ram mit einer Speicherbandbreite von 128 GB/s.
 
Toll dieses Bewertungssystem, erstmal auf Belanglos geklickt. Wobei ich mir nicht sicher bin, ob es doch nicht Zeitverschwendung ist, zumal ich hier schon schreibe ;)

Ich hoffe Ati legt eine gute R600 auf, dass ich mir dann nächste Jahr in meinen Rechner einen ordentlichen G81 oder wie manche schreiben vielleicht eine "8900GTX" mit 1024MB DDR4 einbauen darf :) Wenn dann noch kleinere Strukturgrößen kommen.
 
Das Bewertungssystem gefällt mir auch sehr.

Zu der News kann ich nurn sagen, bin echt gespannt wie der R600 wird. Da könnte alles mögliche draus werden und wartwe dann ab, wer die Nase vorn hat, bevor ich kaufe.
 
@37

Sachmal woher weißt des alles?! Das sind bisher alles spekulationen! Also hör mal auf son mist zu quatschen. Aber was will man von nem nvidia fanboy auch erwarten ^^:evillol:

edit: Und wo bitte wurde der chip bitte auf 1q 2007 verschoben? Des war schon erscheinungstermin von anfang an wenn ich mich ned irre.
 
Zuletzt bearbeitet:
@37

Bekommst du von dem gewinn den Nvidia einfährt etwa einen teil ab oder warum freust du dich so ?!

Wir müssen hier unbedingt noch eine Kindergarten ecke aufmachen.
 
Irgendwie geht mir das gequassle mit dem "strom" schon so dermaßen aufn S..k.
Macht ihr das bei euren Autos auch so? Geht ihr da auch zum Händler, bestellt euch nen Golf 3.2 mit Ledersitzen und jammert dann weil das Auto nicht sowenig Sprit braucht wie ein Lupo?
Die 8800 ist eine High-End-Grafikkarte von Nvidia und nicht von den "Grünen".
Seid mir da nicht böse, aber es ist nicht rational erklärbar, wenn einer ne Karte sich für 600 Euro und dazu ein sehr gutes Restsystem für etliche Hunderte Euros leisten kann, dann beim Strom zu sabbern anfängt.
Außerdem läuft der Kasten doch nicht den ganzen Tag im 3D Betrieb? naja gut, vielleicht bei manchen, aber die Regel ist das doch nicht.
 
Strom=Hitze, das hat noch mehr Nachteile als nur die Kosten.
@53 grandpa
In Amerika gibt es immerhin Wasserflat in einigen Regionen. Könnte man ganz gut kühlen mit.
 
Zuletzt bearbeitet:
tAk schrieb:
Das mit den 2 Steckern wird sich wohl langsam im High-End Segment einbürgern. Es wird Zeit für eine neue PCI-E Version. :D

Das würde ich an Stelle der G-Chip Herrsteller so schnell wie möglich hinter die Bühne bringen, denn mit 2 Stromanschlüssen machen die kein gutes Geschäft zumindest bei den komischen Leuz die schon wegen ein Paar Watt mehr zu jammern angangen.

Verstehe solche Menschen überhaupt nicht! - wenn man schon 600 €uronen für solch eine Karte hat dann sollen die doch ein Notebook für Office & Co. kaufen - somit ist die Frage des 'Stromverbrauchs' endgültig vom Tisch ;) und nicht ein High-End Rechner fürs Netz, Office usw. benutzen... :rolleyes:
Denkt ma darüber nach!
 
Zurück
Oben