News ATis R600 setzt auf PCIe 2.0?

LOL

In den news steht nur dass die R600 kompatibel zu PCIe 2.0 ist.
NIX weiter.
Da steht nix davon dass die sehr viel oder sehr wenig Strom braucht.

Und die Karte wird sicher abwärtskompatiebel zu PCIe 1.1 sein.

Damasl beim Wechsel von AGP 2x und 4x gabs was ähliches (3.3 und 1.5 Volt Karten)
aber da waren ein paar Kiddis hier wohl noch bei GIGA TV
 
Ich find eigentlich nicht schlimm, dass ATIs neuer Chip auf PCIe2.0 setzt - da dies ja wegen der Bandbreite auch mehr Rechenleistung bedeuten kann. Sondern eher , dass das Gremium, dass die Spezifikationen von PCIe2.0 bestimmt hat, eine maximale Leistungsaufnahme von 300Watt abgesegnet hat.
Ich mein wozu???
Wenn man den Chipherrstellern die Möglichkeit gibt soviel Leistung zu verbraten, dann kommen die auch eher in die Versuchung dies zu tun, als den Chip von vorne rein energieeffizienter zu gestalten.
Was trotzdem und hoffentlich noch nicht heisst dass ATI das beim R600 auch macht...
 
also wenn es wirklich stimmt das die neuen Karten dann nicht mehr strom verbrauen würde ich sagen hätte Ati die Nase wieder vorne! denn ich denke schon das dies sonst ein teurer spaß werden könnte für eine runde zu zocken!

aber woher weißt du das denn so genau @ HappyMutant ?
 
Hi Leutz,

Nicht so voreilig mit den niedermachungen.
Zuerst einmal denke ich das das keinerlei auswirkungen auf den jetzigen PCIe haben wird. es gab ja auch damals schon AGP 4x und 8x
und all des. Ist halt ein kleines update für den Slot, ist doch schön.
Und zu ATI könnt ihr doch gar nichts sagen denn die sind noch in der entwicklung. Dafür ist des doch da. Die sind grad dabei des teil sparsamer und kleiner zu machen.
Mal sehen was am ende dabei rauskommt. Dann können wir evt. fluchen.
Und soweit ich weiss, werden sowieso alle PCIe Karten auf dem 2.0 standard laufen.
Wäre doch blöd wenn nicht. Und diese Leute da sind alles andere als blöd

MFG
 
Zuletzt bearbeitet:
@Snikkers: Und ausgerechnet beim Wechsel von 3.3V zu 1.5V bei AGP mußten Karte und Slot zusammen passen. Insofern ist die Angst ja nicht so unbegründet. Aber da hier der Slot unverändert gelassen wird, kann man es vielleicht eher mit AGP4x zu AGP8X vergleichen. Die theoretische Bandbreite wird größer, ob es Sinn macht bleibt abzuwarten.

Und: PCIe 2.0 wählt man schon eher deswegen um mehr Leistung konsumieren zu können, auch wenn man die 300Watt sicher nicht ausnutzt, aber mehr als 150 Watt in der Spitze werden es wohl werden. Aus Spaß macht ATI das jedenfalls nicht. Und für nvidias G80 kommt PCIe2.0 einfach nur zu spät.

@Neikon: Weil der Link in den News mir das so sagt. Frage 5 in den FAQs. Oder meinst du woher ich den Stromverbrauch kenne? Kenn ich nicht, aber der gesunde Menschenverstand rät, nicht gleich auf 300 Watt zu gehen, weil man das gar nicht kühlen könnte und zudem viele Käufer neue NTs et cetera benötigen würden. Man muß da schon schrittweise voran gehen. Und kaum ein Standard wird so festgelegt das er gleich wieder ausgereizt wird. Aber mehr als 150W werden es trotzdem sein und stromsparend wird der R600 auch nicht sein, hab ich aber auch nie gesagt. ;)
 
Zuletzt bearbeitet:
Hab mir erst vor ein paar Monaten ein neues System gebastelt und warte eigentlich nur noch auf eine DX10 Karte und diese wird mit sicherheit einen nVidia Chip haben. Für mich ist es kein zeichen von guter Technik einfach mehr Energie zu verbraten und bei der 90nm Technologie zu bleiben. Intel hat es mit der Conny (C2D) bewiesen das es auch anders geht, selbst AMD wird in den nächsten Quartalen nach ziehen.
Eigentlich dachte ich das die Hardwarehersteller langsam vernünftig werden und eher Energie sparende Produkte produzieren. Mit den neuen Spezifikationen des PCIe 2.0 geht das alles aber in die falsche Richtung! Mit extra Strom-Anschlüssen kann man ja noch leben, aber mit bis zu 300Watt im PCIe 2 + vieleicht noch extra strom Stecker ist schluß.
2010 haben die kleinsten Netzteile wahrscheinlich schlappe 1kW - 1,5kW oder noch mehr -.-

Aber wie @16 bereits gesagt hat... sicher wissen wir es erst wenn die Karten mit R600 drausen sind!
 
Ob die neue PCI-E Spezifikation von 300W nun ausgenutzt wird oder nicht, die Entwicklung im Grafikkartenbereich geht nach meinem Geschmack einfach in die falsche Richtung.
Ich fand die Verbrauchsdaten der G80 schon übertrieben aber ATI setzt bei dem maßlosen Energieverbrauch dann ja noch einen drauf. Eine Kilowattstunde Strom kostet so um die 17,5 Cent, wenn man einmal von vollen 300W Nutzlast ausgeht (sagen wir mal beim Nachfolger der R600) dann fallen allein für die Grafikkarte alle 200 Betriebsminuten 17,5 Cent an Stromkosten an. Wenn man das ganze mal für jemandem der täglich oder fast täglich spielt aufs Jahr umrechnet...naja.
 
Also vom speed her dürfte der R600 dann wirklich was her machen auf einem PCIe 2.0 Board, aber 300W für eine Graka gönne ich mir dann doch nicht. Dann wird es wohl doch eine 8800GTX oder vielleicht der Refresh.
 
Keiner hat was von 300Watt für ATI gesagt und steht auch in keinem News oder Artikel. wieso so voreilig.
Und die entwickler werden dann schon von selbst mit dem verbrauch runtergehen wenn sie merken das sie am ende der fahnenstange sind.
Genau wie der takt von CPUs. Als mann merkte mehr als 4 GHz geht grad nicht. da hat man die entwicklung auf anderes konzentriert.
es wird sich schon von sleber einreihen. Sonst kämen wir ja irgendwann bei KW Grakas an :-)
 
Was man hier für Scheiße liest ist ja echt der Wahnsinn!

1. Steht nirgend daß der R600 300W verbrauchen soll. PCIe 2.0 bringt alleine über die Schnittstelle 300W, bei der 8800GTX sind aber auch 300W möglich. 150W über PCIe 1.1 + 2x 75W über die Connector = 300W. Und, verbraucht die 8800GTX 300W? Nein.

2. Schreibt auch niemand daß der R600 länger als die 8800GTX wird. Dort steht nur das die aktuellen Platinen länger als 28cm sind und AMD jetzt die Platinenlänge vermindert.

BTW: Der R600 wind selbst eine 8800GTX mit 1GB und GDDR4 in der Pfeife rauchen... Denke ich :-)
 
Hi
Also ich versteh euren ärger nicht.
1.Ist es noch net offiziel wieviel der verbraucht.
2.Darf nicht von den Stromverbrauch allgemein ausgehen sondern von Stromverbrauch pro Leistung.Und der Grund für die hohe Anzahl der Transistoren liegt an ja bei DX10.

Aber DX10 Games gibt es ja noch garnicht....Also ist der Leistunganstieg z zt noch gering weil es keine Games gibt.Also könnte man ja noch warten bis es erste Games gibt...wo es dann bestimmt auch schon wieder neue Grakas gibt. xD

Is doch mit den Quadcore genauso..da heulen ein paar über den Verbrauch von Graka´s rum....holen sich aber ein CPU die doppelt (!!!) soviel Stromverbraucht wie eine jetzige aber auch nur gleiche leistung...bis die ersten optimierten games kommen.

Das einzige was Schade ist das sie noch auf den 90nm rumhängen.
 
Die sollten mal endlich auf 0,1nm runtergehen :-)
 
Irgendwie verstehe ich die Aufregung hier nicht - können einige Leute denn nicht lesen? ATi versucht die Graka kürzer zu machen.
Darauf hin Verärgerung im Sinne "Die Grafikkarte ist doch viel zu lang und sowieso bin ich immer beleidigt!".
Dann steht in dem Artikel, dass der R600 AUF PCIe 2.0 setzt. Der Autor hat ungeschickter Weise die Spezifikationen dahinter geschrieben.. "bis zu 300W"... Darauf hin wieder Verärgerung .. "die Karte braucht fast 300W - was soll das denn?"

Is ja echt lustig die Denkstruktur annähernd nachvollziehen zu können - die Zahlen merkt man sich, den Zusammenhang nicht und darauf hin schreibt man einen Kommentar, dessen Inhalt völlig auf dem Zusammenhang gerissen wird. Weiter so, zieht das Niveau runter :freak:


ICH warte erstmal ab, bis der R600 (wie soll n der eigentlich vermarktet werden? X2800? X2900?) draußen ist.
Vom G80 war ja auch stets die Rede, dass man die USA noch nicht umgesetzt hätte.
Demnach sind Gerüchte so weit vor dem Launch völlig überflüssig.
 
Sofern PCIe 2.0 abwärtskompatibel ist, steht einem anderen Layout nichts im Weg. Ich kann aber nicht glauben, dass AMD sich dafür entschieden hat, nur um die Kartenlänge zu verringern. nVidia ignoriert bereits die Spezifikation, die einen zweiten Anschluss nicht vorsieht.

Bis zum Release werden aber noch einige Tage vergehen, die wohl weitere Gerüchte mit sich bringen ;)
 
Manche Leute hier im Forum sind zu naiv... Da braucht man nur 2 und 2 zusammen zu zählen.
Der PCIe 2.0 wird in erster Linie für die höhere Leistungsaufnahme benötigt.(Das ist im Moment die aktuelle Limitierung bei der Graka Entwicklung)
Wenn ein Hersteller sich um eine neue Spezifikation bemüht, die doppelt so hohe Leistungs aufnahme zuläßt, dann muß die GraKa zwar noch lange nicht diese voll ausnutzen, jedoch wird die Leistungsaufnahme garantiert deutlich über (150W) der vorherigen Spezifikation liegen. Sowas setzt man nicht nur spasseshalber durch, da es nochmals Investitions- und Entwicklungskosten fordert und nicht nur von ATI!
D.h. für mich auch, dass die R600 nicht sparsamer wird als G80 und der Trend in Zukunft geht damit eher in noch höheren Energiebedarf der Nachfolgegenerationen.
 
ed123 schrieb:
Wenn ein Hersteller sich um eine neue Spezifikation bemüht, die doppelt so hohe Leistungs aufnahme zuläßt, dann muß die GraKa zwar noch lange nicht diese voll ausnutzen, jedoch wird die Leistungsaufnahme garantiert deutlich über (150W) der vorherigen Spezifikation liegen.

Das wird wohl Niemand bezweifeln.. aber zwischen 200W (und die wird der R600 wohl sich gönnen) und 300W liegen Welten!
Und dass ATi gerne etwas mehr Strom durch die GPU jagt, ist wohl bekannt. Aber 80 (65)nm sprechen für ATi und gegen nVidia mit ihrem 90nm G80.
 
Ist ja wieder wie immer wenn die News nicht verstanden wurde dann kommen solche Schulhof-Beiträge zusammen . Ich bin sicher auch gegen solche halben Drehstromanschlüsse im PC aber das sagt nicht das die ATI Karte soviel benötigt , auch wenn sie vermutlich bei ca. 200W liegen wird.
 
Langsam aber sicher muss man sich Gedanken über die ATX Spezifikation machen. ;)

Der R600 wird sicherlich nicht 300Watt verbraten, doch ist diese Angabe schon recht hoch und ziegt auf in welche Richtung es in Zukunft gehen wird.

mFg tAk
 
ich denke man hat die pcie v.2 gewählt weil man sich die option offen halten will, entsprechend höher zu gehen mit dem Chip, schon immer konnte man durch die erhöhung der Energiezufuhr die Leistung steigern. Ausserdem liegt die Stromaufnahme bei den mainstreammodellen die etwas niedriger getaktet sind, erfahrungsgemäss weitier unten. Wahrscheinlich wird nur die schnellsten Modelle sehr hohen Stromverbrauch haben. Und bei denen ist es egal. Hauptsächlich man führt auf der Liste der zurzeit schnellsten Grafikkarte. Das bringt AMD marketingtechnisch vorteile und bringt ausserdem prestige ein. Da kann man wohl den hohen Stromverbrauch verschmerzen.
Wer sich die schnellsten Karten kauft, wird sich mindestens ein Quadcore gönnen oder eher zwei, da spielt das nicht mehr wirklich eine rolle....

Abwarten und Teetrinken, wie es wirklich aussehen wird.
 
High-End Hardware war in diesem Sinne noch nie wirklich "vernünftig". :D

Wer Leistung ohne Kompromisse haben will muss auch Abstriche machen können. Sei es im Preis oder halt eben im Stromverbrauch.

mFg tAk
 
Zurück
Oben