News Offiziell: ATis R600-GPU erst im zweiten Quartal

Hab auch noch eine Hypothese auf Lager :-)

Die 240 Watt der ATI-Karte wurden von den meisten abgelehnt. Da hat ATI/AMD geschaut und gedacht:
Gut, wenn jetzt die ATI mit 240 Watt kommt und sie kaum einer haben will, dann gibt es dadurch auch kein Gewinn, sondern nur ein Imageverlust wodurch die Aktuellen karten schlechter verkauft werden können. Also ist die bessere Strategie, den R600 etwas zu verschieben und so lange die aktuellen Karten noch verkauft werden können, diese zu verkaufen.
Und bei der Verfolgung dieser Strategie könnte ATI/AMD noch ein wenig an Stromspartechniken des R600 Feilen. Vielleicht schaffen sie es ja den Idle verbrauch zu drücken. Am Aufbau der Karte selbst, werden sie so kurzfristig wohl nichts mehr ändern können.
 
Kann die Karte durch die Anschlüsse und den PCIe Bus nicht nur mit maximal 225W versorgt werden?

mFg tAk
 
@tak
Genau das ist es ja. 3*75 Watt sind verfügbar...mit mehr als 225 Watt wird's also schwierig :D

75 Watt per Board
75 Watt per 6-Pin-Stecker (wie bisher auch)
75 Watt über den 8-Pin-Stecker (der ist neu und kann mit einem zweiten 6-Pin-Stecker betrieben werden)

Der 8-Pin-Stecker gibt in Zukunft noch mehr Saft her, wenn es Netzteile dafür gibt.
Die Angaben für den R600 beziehen sich wahrscheinlich auf die Wärmeabgabe, nicht den Energieverbrauch.
 
@MacroWelle:

wärmeabgabe=energieverbrauch. die karte kann ja nur maximak so viel energie abgeben (wärme) wie sie vorhher aufgenommen hat (strom).
 
LOL MacroWelle
Die Karte nimmt 225 Watt auf und produziert dann Wärme 240 Watt.
Damit könnte man mit ein paar Karten ein schönes perpedomobile Bauen. *Träum*
Endlich prodziert sich Energie selbst :-)
@ GeneralHanno
Wärmeabgabe<=Energieverbrauch (kleiner bei irreversiblen Prozessen also in Realität)

MacroWelle schrieb:
[...]
Der 8-Pin-Stecker gibt in Zukunft noch mehr Saft her,.....
Ganz genau. Damit sagst du selbst, dass deine Rechnung falsch ist bzw. auf einer Annahme basiert, die du nicht beweisen kannst. Dass es nämlich ausreicht in den 8-Pin-Stecker einen 6-Pin Stecker rein zu stecken :-)
 
Zuletzt bearbeitet:
Tja, super schade aber ich warte nicht mehr länger! Habe jetzt schon 3 Monate gewartet und mir dann direkt nach der Meldung gestern Abend mein neues System mit einer 8800GTX bestellt.
Schade drum aber auch die 8800GTX wird dieses Jahr - und auch noch bis ins nächste Jahr hinein - alle Games in annehmbarer Quali & Geschwindigkeit darstellen können...

Schade dass es ATI nicht mehr rechtzeitig geschafft hat. Aber besser ein verspäteter Start mit einer Konkurrenzfähigen Karte, als eine halbgare Lösung zu präsentieren...

in diesem Sinne
Greetz blueGod
 
Ich finde es so geil wie die nVidia Fanboys blöd reden!:D

Keiner zwingt euch die karte zu kaufen!;)

ja, die karte zieht bestimmt 240 Watt, wenn nur 225 zur verfügung stehen....

Und das ding is MONSTERLANG! Jaaaaaa:freak:


LESEN , INTERPRETIEREN , VERSTEHEN!!!
 
@schwabi

Du schein ja ganz genau bescheid zu wissen....

Dann kannst du uns sicher erklären wieso ATI nen 8-Pin Stecker verwendet wenn ein 6er(deiner Meinung nach) reichen würde.

Vielleicht ist er günstiger -> eher nein
Vielleicht wars ein versehen -> eher nein
Vielleicht damit man die GPU aufrüsten kann -> eher nein
Vielleicht weil 8P-Pin Stecker sehr verbreitet sind -> eher nein

Ich halte es für am wahrscheinlichsten das ein 6-Pin Stecker nicht reicht.

Wenn du noch ne Idee hast, mich würds interssieren.
 
hat er von 150w gesprochen? nein
also ist ihm wohl bewusst das ein 6pol-stecker nicht ausreicht!

angeblich sollen aber 2 6pol reichen, deswegen seine vermuteten 225w

und ich kann dir sagen warum da ein 8pol drauf ist
der ist für pcie 2.0 standard und ausser dem zum 6pol stecker kompatibel
warum also nicht drauf pappen?
damit kunden mit neuem netzteil diesen stecker nicht nutzen können?
 
@ schwabi
hör auf zu spammen. und schon gar nicht in so riesen roten Buchstaben. Wenn du keinen Grund kennst, warum da anstatt einem 6-polstecker ein 8-polstecker drauf ist, dann einfach mal ruhig sein.
@ bensen
VAP7985 hat nicht gesagt, dass schwabi meint, dass da nur ein 6-polstecker reicht. er meinte den einen 6-polstecker, der den 8 polstecker erstetzen können soll. Also nichts von wegen 150 Watt.
Deine Erklärung scheint dahingehend plausibel zu sein, dass es durchaus Sinn macht einen 8-Pin-Stecker drauf zu packen auch wenn nur ein 6-pin-stecker (anstatt des 8-polsteckers + den nicht erwähnten anderen 6-polstckers... der ja jetzt nicht Objekt der Diskussion ist) ausreicht.
@ bensen und @ schwabi
Dann aber zu behaupten, dass der Karte maximal 225 Watt zu Verfügung steht ist dennoch falsch, da ihr alle nicht wisst ob ATI den 8-Pin-Stecker wegen der Kompatibilität drauf gepackt hat oder wegen dem tatsächlichen Verbrauch. Also jetzt alle anderen als "falsch interpräten und nichtsversteher" abzustempeln wie dies schwabi tut, ist ganz und gar nicht angebracht.
Oder hat schwabi bei ATI angerufen und gefragt ob zwei 6-Pin-Stecker ausreichen? oder wocher habt ihr jetzt alle diese Info?
Ich will übrigens auch gar nicht diskutieren ob es nun 220 oder 240 werden. 220 sind auch schon zu viel und ändern zum Beispiel nicht viel an meiner vorigen "Hyphothese"
Ich will damit bloß sagen, dass es nicht OK ist, dass schwabi die anderen hier als blöd bezeichnet, nur weil die anderen sich auf Insidergerüchte beziehen die 240 Watt und 270 Watt voraussagen und er als ATI-Fanboy meint, dass da bestimmt auch zwei 6-pinstecker ausreichen und damit maximal 225 Watt in Frage kommen. :freak: Ich hoffe aber, dass er Recht behält. wenigstens 20 Watt weniger als die Insidergerüchte (240 Watt) bei immer noch über 200 Watt Verbrauch ;) :evillol:
 
Zuletzt bearbeitet:
Moin,

so nu will ich auhc mal was hier dazu geben. Da sich ja anscheinend viele Leute hier drüber ergötzen das die R600, wo eigentlcih keiner 100% Angaben zum Stromverbrauch machen kann, über die 225/240 oder sogar 270 Watt aufregen, wollt ich nur mal auf den letzten Netzteiltest bei hartware.net drauf hinweisen. HIer wird von gesprochen das eure so hoch gelobten G80er von Nvidia auch auf 310 Watt gehen kann.

Der link zur seite:
http://www.hartware.de/review_685_8.html

Ach ja und ich bin kein ATI Fan boy oder so wenn das gleich wieder auf mich einprasseln sollte.
Bin seid GF2 zeiten bei Nvidia dabei.

So feuer frei.

Mfg
 
LOL, selbst zwei 8800GTX brauchen keine 310W, ich weiss also beim besten Willen nicht wovon du redest.
 
Ich rede davon, ihr regt euch hier über Werte auf des R600 die alle auf Spekulationen beruhen, und der Link den ich gepostet habe nen realer Test eines Netzteils ist, wo gesagt wird:

"Zur Erinnerung...
nVidia GeForce 8800 GTX In Zeiten einer Grafikkarte vom Kaliber 8800 mit einer Leistungsaufnahme von bis zu 310 Watt im Einzelbetrieb"

Mfg
 
Der Wert bezieht sich aber auf das komplette Rechnersystem und nicht auf die 8800 Karte.
 
Aha und warum wird dann im nächsten Satz der Wert der CPU dazu addiert ? Achja und es steht Leistungsaufnahme der Graka und nicht des Systems.
 
Zuletzt bearbeitet:
Hi, ja ich weiß die Tests hier von Computerbase lese ich auch regelmäßig. Und da taucht ja auch wieder die 310 auf. Aber eben wie du schon sagst für das komplette System.
 
xp_home schrieb:
@ schwabi
hör auf zu spammen. und schon gar nicht in so riesen roten Buchstaben. Wenn du keinen Grund kennst, warum da anstatt einem 6-polstecker ein 8-polstecker drauf ist, dann einfach mal ruhig sein.

Hast du nicht die von AMD SELBST bestätigte und herausgebrachte news gelesen?

Wenn nicht, mach das....

Und wie ich schreibe, sagst du mir nicht, du würstchen... ich finde es viel schlimmer das leute so dumm sein können und nichts wissen was auf CB für news sind, obwohl sie da angemeldet und tätig sind!:freak:

Und dann so dummes zeug schreiben!
 
BigBratsack schrieb:
Hi, ja ich weiß die Tests hier von Computerbase lese ich auch regelmäßig. Und da taucht ja auch wieder die 310 auf. Aber eben wie du schon sagst für das komplette System.

Dann hat Hartware.net, wie es kisser schon gesagt hat, einfach nur Mist geschrieben. ;)

mFg tAk
 

Ähnliche Themen

Zurück
Oben