News ATis R600 setzt auf PCIe 2.0?

Hier stand ein völlig sinnloses Full-Quote!

Nein, du bist so naiv zu glauben daß jede Firma eine nicht konforme Stromversorgung wie bei der 8800GTX brigen will. Lieber PCIe 2 satt PCIe + zwei extra Stromkabel. Das ist aber nicht PCIe konform, nVidia geht einen nicht gedeckten Weg.
 
Zuletzt bearbeitet von einem Moderator:
Alles SPekulationen, erstmal abwarten. Ich vermute einfach, dass ATI vorbidlich sein will und den PCIe 2 Standart einfach durchsetzen möchte. Man weis ja wie das ist, wenn man die Leute nicht zu hrem Glück zwingt, wird sich nie was ändern. (man siehe BTX Standart)
 
hat schonml wer an folgendes gedacht:

ATI/AMD versucht gerade, das PCB kürzer zu machen.
wie schafft man sowas?
entweder: kleinere GPU-struktur
oder: man setzt auf PCIe 2.0 um sich den/einen zweiten stromstecker zu ersparen.

nur so als beispiel...

viele hier denken von 0 bis 0,1nm und keinen schritt weiter...
 
Ich persönlich finde das mit dem PCI-E 2 nicht einmal so eine schlechte Idee. Weitere Stromanschlüsse werden so überflüssig. Aber sie sollten trotsdem darauf achten das die Grafikkarten nicht gleich 300 Watt verpuffen und das sie nicht noch länger als die neue GTX von nv werden.
 
Wenn ich mir hier einige der ersten Kommentare so anschaue, muss ich mir doch an den Kopf fassen.

>Aktuelle< R600 Boards aus der Entwicklungsphase sind noch etwas länger als das der 8800 GTX. Mit Sicherheit wird die finale Version nicht noch länger sein, da ansonsten die Karte nicht mehr in viele Tower passen würde.

Außerdem hat man dem G80 auch einen deutlich höheren Stromverbrauch unter Last nachgesagt, was letzten Endes auch nicht der Fall war. Angesichts der Leistung, des Fertigungsprozesses und der Transistoranzahl ist der Verbrauch unter Last doch noch "human" ausgefallen. Lediglich der Stromverbrauch im Leerlauf ist nochmals deutlich gegenüber ATi´s Topmodellen angestiegen, was natürlich nicht gut zu heißen ist und so ziemlich mein einziger großer Kritikpunkt am G80 wäre.

Wenn ATi sich an dem G80 ein Beispiel nimmt und aus dem X1800XT / X1900XT(X) Lüfterdebakel gelernt hat, dann sollte dabei ein guter, recht leiser Kühler rauskommen. Mit der X1950er Serie hat man ja schon gezeigt, dass es auch anders geht - da sollte man meinen, dass man nicht wieder zu alten schlechten Tugenden zurück kehrt. Dass letzten Endes der R600 auch kein Stromsparwunder sein wird, davon ist allerdings auszugehen. Rechne mit ähnlichen Netzteilvorgaben wie beim G80. Zu hoffen ist auch, dass ATi nicht wieder einen Paperlaunch hinlegt wie bei der X1800er Serie, im Juli / August ´05 angekündigt und erst Nov. / Dez. ´05 kam dann die erste große Verfügbarkeit, weil die Chipausbeute und die Temperaturen zu schlecht bzw. zu hoch bei den angepeilten Taktraten waren.
 
Zuletzt bearbeitet:
NANANA!

Ihr habt die 7900GX2 mit 31,5cm vergessen!!!!! :D

iLL
 
Ich finde das geht langsam in die falsche Richtung, 300 Watt für die GPU ! Die CPUs werden wieder stromsparender und die Grafikkartenhersteller drehen am Rad.

Wenn das so weiter geht, sollten die vielleicht mal überlegen, ob man das Prinzip des PCs nicht einmal ändern sollte. Damit meine ich die GPU aufs Motherboard und die CPU als Zusatzkarte.
 
Hmm, schön das ATI in letzter Zeit so fleissig News macht.

Man hörte ja die letzten Wochen immer nur 8800GTX da und 8800GTX hier...
 
schnopsnosn schrieb:
hat schonml wer an folgendes gedacht:
[...]
oder: man setzt auf PCIe 2.0 um sich den/einen zweiten stromstecker zu ersparen.
[...]
viele hier denken von 0 bis 0,1nm und keinen schritt weiter...

Du LIEST 0 bis max 0,1nm weit! (Um es mal mit deinen Worten auszudrücken.

"Durch den Einsatz eines zusätzlichen 2x4-Anschlusses neben dem von PCIe 1.1 bekannten 6-poligen Anschlusses wird bei PCIe 2.0 eine maximale Leistungsaufnahme der Grafikkarte von 300 Watt abgesegnet."
"man setzt auf PCIe 2.0 um sich den/einen zweiten stromstecker zu ersparen."
Irgendwie schneiden sich die Zitate, oder? Einer von dir, einer aus dem Beitrag.

D.h. weiterhin 2 Stromanschlüsse! 1x 6-pol. +1x "2x4-Anschluss"


Homeless schrieb:
Ich finde das geht langsam in die falsche Richtung, 300 Watt für die GPU ! Die CPUs werden wieder stromsparender und die Grafikkartenhersteller drehen am Rad.

Wenn das so weiter geht, sollten die vielleicht mal überlegen, ob man das Prinzip des PCs nicht einmal ändern sollte. Damit meine ich die GPU aufs Motherboard und die CPU als Zusatzkarte.

Soweit ich weiß, kann man die CPU fast immer problemlos wechseln. xD

Und vielleicht sollte sich jemand wie du mal überlegen, wieso diese Karten trotzdem einen solchen Erfolg haben? Spielst du noch in einer 600x480 Auflösung mit einer Qualität, bei der man nicht weiß, ob das Männchen nun aus 1, 2 oder was dazwischen Pixeln besteht? Ist deine Frage damit beantwortet?
 
Zuletzt bearbeitet:
oh
da habe ich mich verlesen, kann passieren ;)

trotzdem ändert es nichts daran, dass die hälfte der comments hier absoluter schwachsinn und sinnloses rumgeheule sind
 
Was wird denn hier für ein Mist geschrieben?

Die R600 wird nochmal eine leicht gestiegene Leistungsaufnahme haben, wie die 8800 GTX.

Laut ATI, gegenüber der CT, wird das aber nicht mehr in Zukunft der Fall sein. Ab er R700 soll die Leistungsaufnahme wieder deutlich zurückgehen, warscheinlich dann auch bei der Konkurenz.

Mehr als die GTX wird die R600 wohl kaum verbrauchen, zumal sie kaum mehr Tranistoren haben kann und GDDR4 Video Ram verwendet, der im Gegensatz zu GDDR3 weniger Strom aufnimmt.

Einfach mal nachdenken.
 
Zuletzt bearbeitet von einem Moderator:
the_hole schrieb:
Ich persönlich finde das mit dem PCI-E 2 nicht einmal so eine schlechte Idee. Weitere Stromanschlüsse werden so überflüssig...



EHBEHN! (eben - nur langezogen)

Mal angenommen die Karte hat durch PCI-E x16 2.0 keine externen Stromanschlüsse, da an und für sich überflüssig - und sie zieht mehr als 150W - müssen niemals 300 sein.

Damit kann ich die Karte nicht verwenden, wenn mein Port eben gekauft nur 150W versorgt.

Eben nur mal angenommen. - Solltest du mit einen Beipass legen können, womit mein Port mehr Watt bringen kann - bitte.

Die Aufregungen von wegen sich über "Gerüchte" aufzuregen ist auch zu 50% sinnlos - in meinen Augen. Denn: Allein der Gedanke darüber, dass es möglicherweise zu inkompatibilitäten durch die beiden Standards kommen kann, macht mich rasend.
Ich sage meine Meinung zu dieser Sache - ob Gerücht oder nüscht - is mir wurscht.

Gruß
Mortiss
 
guter weg den ATi einschlägt, gleich auf PCIe 2.0 setzen. Da frage ich mich, wann die ersten PCIe 2.0 Boards kommen.
 
aus jux wird ati sicherlich nicht auf die neuere spezifikation umsteigen. zudem scheinen einige leute hier echte probleme mit dem verständnis des konjunktivs zu haben. zudem: ob ati die 300 watt jetzt ausreizt (oder vielleicht auch erst später) ist an sich irrelevant. dass es mehr als 150w sein werden ist ein logischer schluss aus der meldung. und das ist schon grundsätzlich der falsche weg. mehr leistung geht auch mit weniger strom - das sieht man momentan doch prima bei den prozessoren. das werden ati und nvidia auch irgendwann lernen.
 
Zuletzt bearbeitet:
w0mbat schrieb:
Was man hier für Scheiße liest ist ja echt der Wahnsinn!

1. Steht nirgend daß der R600 300W verbrauchen soll. PCIe 2.0 bringt alleine über die Schnittstelle 300W, bei der 8800GTX sind aber auch 300W möglich. 150W über PCIe 1.1 + 2x 75W über die Connector = 300W. Und, verbraucht die 8800GTX 300W? Nein.

Emmm schon klar... Also 150 Watt sind Standard für PCIe aber:
75 über den Bus und weitere 75 über einen Extraanschluss

+ 75 mit zweitem anschluss sind bei mir... lass mich nicht lügen.... 225Watt ;)

Und außerdem ist es völlig egal, ob der R600 jetzt 1GB RAM hat, wenns sein muss auch GDDR4.. Erstens ist der kaum bezahlbar, zweitens noch kaum verfügbar und drittens muss ATI erstmal den Chip an Land bringen....

nVidia hat mit dem G80 bereits 2002 angefangen, warum sollte der R600 dann, nur weil er 2 Monate später kommt, auf einmal selbst den noch platt machen? [R520 war auch später und nur bedingt schneller....] Es gibt doch nichtmal ansatzweiße Berichte über Spezifikationen.. Man weiß nur, dass er schon im 80nm Verfahren hergestellt wird, was also lediglich darauf schliessen lässt dass er höher taktet als der G80, aber man muss erstmal 681 Mio. Tranisitoren unterbringen....
The R600 is still scheduled for Q1 2007, however. ATI is almost five months late with its original plans.
Das würd mir auch nicht gerade Mut machen ;)

Also abwarten.... HF.. MfG B@dehose
 
Zuletzt bearbeitet:
Es behauptet ja auch niemand dass die R600 300W verbrauchen wird. die ersten PCIe-Karten haben den bisherigen Standard ja auch nicht gleich ausgereizt. Nun sind seitdem aber 2 Jahre ins Land gegangen und das Ende der Fahnenstange ist bereits erreicht. Sind wir dann in nochmal 2 Jahren dann schon wieder am Ende der PCIe 2.0 Möglichkeiten,also bei den viel zitierten 300W angekommen? Ich hoffe nicht, fürchte aber ja.
 
"Fürchte" ich auch aber obs mich bis da noch kümmert bezweifle ich immer mehr...
Die irre Stromfresserei und wie sich die Standards immer schneller jagen wird doch immer kränker je länger je mehr!
Alles zusammen ersetzen müssen wird immer mehr zum Normalfall und neues Netzteil dazu natürlich auch gleich...

Die werden schon sehen was sie davon haben wo sich das bisherige Hauptmanko von Konsolen, die mickrige Aufösung, immer mehr in Luft auflöst und HD TVs bald Standard sind überall.
Ach ja... ich hab ja jetzt auch einen solchen LCD TV,....und schon wirds mir auch immer symphatischer nächstes Jahr lieber ne PS3 zu holen statt einen irren 500Watt "9800GTX/R700" Heizer plus sicher auch noch wieder gleich neues Board, CPU usw....
 
Zurück
Oben