News Neue Verlautbarungen zu R600 und G80

Kann ich mir kaum vorstellen, will mir zwar eh keine Karte zum Launch kaufen, aber irgendwann 2007 einen neuen PC mit DX10 Karte und da will ich bestimmt kein extra Netzteil für meine Grafikkarte.
 
Na, ein externer Netzanschluss, war ja schon für die 3dfx V6000 im Gespräch.
Und warum nicht?
So ein Netzteil kostet in China auch nicht die Welt.
Außerdem hätten wir nicht mehr das Problem das man für High-End Systeme wie CF und SLI, "extreme" Netzteile braucht.

So 500-1000 Watt Netzteile sind nur Geldmacherrei an den Kunden, mit externen Netzteilen könnte man wieder zurück auf die 300 Watt.
So kann jeder der sich bei ALDI einen Rechner kauft, könnte später eine High-End Karte einbauen, was IMO nicht geht.
Bei einem NT von einem ALDI-PC (nicht mal 1 Jahre alt) kann man eine GX2 7950 oder eine X1900XTX vergessen.

Also eigentlich wäre ein externer Netzanschluss für Grafikkarten ein Segen für Aufrüster. :)

Ich habe auch das Problem das mein NT was mal 150€ gekostet hat (450 Watt) zu wenig auf der 12V Schiene liefert, nur 18A, laut ATI sollte man 25A auf der 12V haben und 30A wenn man CF macht.
Die spinnen doch.
Bei mir ist das NT bestimmt am Limit, aber noch läuft es.
 
Zuletzt bearbeitet:
Selten so gelacht.
Ich kann es nicht beweissen oder sonstiges, aber wer diese News glaubt wird Seelig, genau wie auf dem VR-Zone! Das ist das Bekloppste was ich seit Jahren gelesen haben.
768MB mit 256bit + 128bit Speicheranbindung :D *totlach*
Und dann 700mio Transistoren :D
Ganz schon viel ne? Da hat aber der Intel Server CPU (weis der Name gerade nicht mehr) mit über 1 Miliarde Transistoren sowie 16MB Cache trotzdem mehr =)

Und das ATI auf eine Externe Netzteil setzt ist auch unglaubwürdig.

Wenn es stimmt Esse ich einen Besen (Nimbus 5000) :D
 
@ Project-X:

Falls sich das bewarheitet, könntest du ein Movie auf's Netz stellen, das zeigt wie du den Besen isst. ;)

mFg tAk
 
@ tAk
Kein Problem, aber nur ganz ein kleinen Besen :) *lol*
 
Ich versuch mal einen Nimbus 5000 aufzutreiben. ;)

Sry, das wird zu OT. :mussweg:

Back TT. ;)

mFg tAk
 
Ich finde ein externes NT auch total sinnlos-habe dahinten schon genug kabel hängen-

Aber ich glaube, denen ist alles recht, wenn es um jeden Frames einzeln geht...

und wenn ich mir ne wasserkühlung einbauen muss-angesichts der Temperaturen, die ja auch nicht gerade gering sein sollen...
wie ich schon ma irgendwo gelesen habe: Intel hat die Kernschmelze gerade gestoppt und ich habe nichts mehr, was meine wohnung heizt-
aber dafür gibt es jetzt bald die Lösung...-eine neue ATI...
 
Kraft kommt nunmal von Kraftstoff.
Wenn die GraKa 250W braucht, dafür aber abgeht wie die Sau is das doch Banane.
Wenn Schumi mit seinem Ferrari im Kreis fährt schreit doch auch keiner rum, dass die Karre mehr als 1 Liter pro Kilometer durchblubbert.
Wems zu viel ist, der kann ja einen Baum pflanzen, oder im BIO-Laden einkaufen, Atom-Strom boykottieren, die Grünen wählen...
 
Ich wage zu behaupten in der nächsten Grafikkartengeneration wird der gewinnen welcher meh (ACHTUNG ZAUBERWORT) Performance/ Watt erzeugen kann, und nicht wer brachial mit 250 W auffährt! Ich will sparsame Copmuter die absolut Leise sind. Solche Produkte wären doch schon vor ihrer Geburt erstens ein Rückschritt und zweitens nicht mehr Zeitgemäss (auch wenn sie vielleicht Leistungstechnisch überzeugen können)
 
Echte Fortschritte im Grafikkarten-Design, gibt es nur wenn auch ein Shrink auf kleinere Strukturgrößen erfolgt, bis dahin kann man Mehrleistung auch wirklich nur mit mehr Watt erkaufen!
 
Oder aber die Anzahl der Transistoren verringert, die Spannung verringert, die Taktfrequenz verringert. Dies ist aber meistens mit Geschwindigkeitseinbußen verringert. Nvidia hat es aber vom G70 -> G71 geschafft, die Anzahl der Tranistoren zu verringern. Vor allem beim Vergleich Nvidia/Ati Leistung/Transistoren schneidet Nvidia etwas besser ab. Die Fertigung ist ja gleich und die Taktfrequenzen auch ähnlich, daher schlagen sich die zusätzlichen Transis bei ATi direkt auf den Stromverbrauch.
 
Der grosse technologische Fortschritt fehlt ganz einfach in der Grafikbeschleunigertechnik wenn die schnellere Abarbeitung der Prozesse nur mit höherer Energieaufnahme erkauft wird. Die Strukturgrössenverkleinerung von 110-90-65nm bringt anscheinend nicht wirklich die grosse Energieersparnis.
 
TFF schrieb:
Kraft kommt nunmal von Kraftstoff.
Wenn die GraKa 250W braucht, dafür aber abgeht wie die Sau is das doch Banane.
Wenn Schumi mit seinem Ferrari im Kreis fährt schreit doch auch keiner rum, dass die Karre mehr als 1 Liter pro Kilometer durchblubbert.
Wems zu viel ist, der kann ja einen Baum pflanzen, oder im BIO-Laden einkaufen, Atom-Strom boykottieren, die Grünen wählen...


Er bekommt ja dafür auch paar millionen... :D :D :D
 
Der NV 40 (GF 6800) war auch ein heißes und stromfressendes Ding, aber mit dem G 70/71 hat sich das erheblich verbessert. So wird es sicher auch bei der nächsten Generation der Grafikkarten der Fall sein. Man kann ja warten bis es einen Refresh der Chips gibt.
 
alex22 schrieb:
Warum sollen 250WLeistungsaufnahme nicht 250W Verlustleistung sein? In was soll die Energie denn sonst umgewandelt werden außer Wärme?

Ahja, die GPU lebt dann von der Luft und von der Liebe, und der PC verbraucht auch Storm nur aus Spass, nicht wahr...!?

Mannmann. Denken! Dann erst schreiben...
 
@Mercur

Die Energie Effizienz ist nicht so toll wenn die Karten zwar schneller werden aber prozentual auch mehr Energie verbrauchen , der R600 und G80 sollte dann mind. doppelt so schnell sein wie die aktuellen HighEnd-Schlachtenkreuzer , wenn man von der Stromaufnahme ausgeht.
 
das ist ja fast so, als würde ich sagen:

Ich habe nun 2 Kerne-nun bin ich doppelt so schnell wie ein Kern...


das is genau so sinnlos
 
Zurück
Oben