News Offiziell: ATis R600-GPU erst im zweiten Quartal

Noch etwas. Wenn der Karte nur 225W zur Verfügung stehen, wird sie diese nie ausschöpfen. Denn wenn der Verbrauch auch nur in der Nähe liegen sollte, wäre die Gefahr groß, dass die Grenze überschritten wird. Der Widerstand und damit der Verbrauch von Transistoren ist ja nicht immer gleich und steigt unter anderem mit der Temperatur recht stark an.
So wird der maximale Verbrauch der 8800gtx mit 180W angegeben, der maximale gemessen Verbrauch liegt aber bei 140-150W.
 
schwabi schrieb:
Hast du nicht die von AMD SELBST bestätigte und herausgebrachte news gelesen?

Wenn nicht, mach das....

Und wie ich schreibe, sagst du mir nicht, du würstchen... ich finde es viel schlimmer das leute so dumm sein können und nichts wissen was auf CB für news sind, obwohl sie da angemeldet und tätig sind!:freak:

Und dann so dummes zeug schreiben!

Benutze doch einfach noch ein paar mal das Wort Dumm. Vielleicht fühlst du dich dadurch schlauer. Es soll Leute geben, die so was für ihr Ego brauchen. Hast du überhaupt meinen Beitrag aus dem du zitiert hast bis zum Ende gelesen?
Ich habe noch andere Beiträge von dir gelesen und keins hat mir was gebracht. alles nur rumgespame, keine Erklärungen, nichts.... Ich habe auf keiner AMD-News gelesen, dass da nur zwei 6-pin Stecker für die XTX-Version reichen. Wenn du sie gelesen hast, dann könntest du ja einfach mal ein Link drauf geben und die Stelle, die du meinst mal zitieren. Dann würden wir uns auch vielleicht einig und es hätten alle was davon. aber nein. Lieber mal weiter Dummgepapel rumspammen... weiter so.... wir sind ja hier in einem Selbstdarstellungsforum und nicht in einem Computerforum....

PS: Warum schreibst du eigentlich nicht an die Redaktion von Computerbase, dass die alle Dumm sind und hier was von 240 Watt erzählen, was ja gar nicht stimmen kann und sie deswegen alle so was von Dumm sind?! Ich weiß auch gar nicht was du in diesem Dummen Forum machst. Du bist einfach zu schlau dafür. Troll dich doch einfach irgendwo hin, wo nur so schlaue Leute wie du sind.
 
Zuletzt bearbeitet:
seh ich so ähnlich :)

Es gibt einfach so viele Kunden die von Dezember bis möglicherweiße Juni eine Nvidia Karte kaufen werden, mit Sicherheit mehr als Nvidia bei einem gleichzeitigen Start des R600 vekauft hätte! Und da kann der R600 noch so schnell sein nicht jeder eue Nvidia Besitzer wird deswegen seine G80 Karte gegen eine R600 Karte tauschen. Da kauft Nvidia Ati den Schneid ab, die Kunden... Jeder Tag ist ein Plus für Nvidia, hin oder her.

Natürlich muss Ati schaun das sie eine ausgereifte Karte bringen, und ich glaube nicht das ATI/AMD sich einfach so mal eben entschieden hat den Termin zu verschieben und weiter zu optimieren ... das können die sich momentan echt nicht leisten! Sie werden schon ihre Gründe haben, und die werden sich auch noch ein weilchen hinziehen...
Ich hoffe für AMD das sie ihre Probleme schellstmöglich in den Griff bekommen, aber eine 10% schnellere Grafikkarte reciht nicht um die Käuferschaft für sich zu gewinnen, da muss was großes leistungsstarkes her... und viel viel Überzeugungskraft.
Eins ist sicher, zur Zeit wird es eng für AMD/ATI, jeder Tag der ein C2D und ein G80 schneller ist udn sie nichts dagegen setzen können wird ein teurer Tag!

in Sachen Treiber muss ich sagen das die ganzen letzten Jahre die Diskussion war vonwegen die Treiber von AMD waren abartigst schlecht gegenüber denen von Nvidia, und dem war tw auch so. Und auch wenn man gelegentlich auf Treiberprobleme seitens der 8800 stößt, man kann nicht einfach sagen das bei jedem die Karte schlecht läuft, im gegenteil, der Großteil kommt mit den Treibern gut zurrecht. Nvidia musste einfach trotz nicht ganz ausgereifter Treiber die Karte mit bzw vor Vista launchen, es gibt nunmal Käufer die kaufen wegen Dx10 - vllt nicht viele aber es gibt sie, egal ob es Games gibt oder nicht... Man musste ienfach eine Karftikkarte am Markt haben die zukunfstweißend mit Vista in Einklang gebracht werden konnte und kann. Meiner meinung nach ging Nvidias Strategie hier gut auf was. auch die Billanzen belegen.
Und wie manche schon schreiben, Nvidia schläft auch nicht, vllt gibts schon auf der Cebit einige Überraschungen. Wenn ja freu ich mich darauf.
AMD muss sich auf ganzer Liene ranhalten, sonst seh ich schwarz, im CPU wie im GPU Bereich.
Grüßle

und ja Crysis läuft auf 1900x1200 angeblich mit 70 - 100 frames auf einer 8800 GTX... klingt assi und logisch zugleich. Dx10 is bis zu 8 mal schneller als Dx9... somit wär das ganz gut erklärt. Vllt haben die Entwickler gute Software arbeit geleistet.Wär au unsinn wenn crysis auf 30 frames laufen würd,mit einer High end Karte. Aber bei dieser Auflösung 75FPS wär godlike ;) freu mich drauf
 
Zuletzt bearbeitet von einem Moderator: (Doppelpost)
xp_home schrieb:
Ich habe auf keiner AMD-News gelesen, dass da nur zwei 6-pin Stecker für die XTX-Version reichen.
1. Das sich der R600 mit einem 6-Pin-Stecker in dem 8-Pin-Steckplatz betreiben lässt, lässt sich in diversen News über die Eigenschaften der Grafikkarten nachlesen.
2. Wenn man den R600 nur mit einem 6-Pin- und einem 8-Pin-Stecker ausreichend versorgen kann, wäre das Ding inkompatibel zu praktisch allen erhältlichen Netzteilen. Das wäre die Lachnummer des Jahres. Das Ding soll lediglich für PCI 2.0 gerüstet sein, deshalb der 8-Pin-Port.
3. Über den 2ten 6-Pin können nur 75 Watt fließen, weil 6-Pin-Stecker nach derzeit so standardisiert sind (PCI 1.x).
Dadurch ergeben sich derzeit 225 Watt (3*75W), die höheren Angaben seitens AMD kann ich mir nicht erklären. Der G80 wird übrigens genauso angeschlossen...alles sehr komisch...da hilft nur warten.

Das mit den 240 (oder mehr) Watt Wärmeabgabe war natürlich ein Fehler meinerseits und ihr habt mich erwischt...:D
 
@Krautmaster
8mal schneller ist so gut wie unmöglich. Vielleicht für spezielle Sachen, aber nicht allgemeine. Ich denke eher was du meinst ist, wie hier zu sehen, die GPU weniger Funktionsaufrufe erzeugt und dadurch die CPU entlastet.
 
@ alex22
ju das is mir schon klar das 8 mal schneller ein äußerst theoretischer wert ist - wie bei fast allem halt ;) und wenns im schnitt nur doppeltschoschnell wär, isses immernoch gut!
hoffen wir das es überhaupt was bringt, aber davon geh ich aus - auf jeden fall werden schöne Effekte möglich sein, und die Trailer zu crysis und co sehen schonmal fein aus. grüßle
 
ATI macht mich immer heißer drauf ... Langsam glaub ich echt - Wenn dieser """Feinschliff""" gerechtfertigt ist wird sich der R600 weit über dem G80 einordnen. Und genau das hoffe ich! Den Spaß lasse ich mich aber maximal 600€ kosten.

mfg,
Markus
 
markus1234 schrieb:
ATI macht mich immer heißer drauf ... Langsam glaub ich echt - Wenn dieser """Feinschliff""" gerechtfertigt ist wird sich der R600 weit über dem G80 einordnen. Und genau das hoffe ich! Den Spaß lasse ich mich aber maximal 600€ kosten.

mfg,
Markus

Hehe, sicher sicher. Nur gibbed dann schon den G90 :) ...sorry aber soviel Voreingenommenheit kann man nicht so stehen lassen :freaky: ....wie wärs wenn du erstmal abwartest bi es Fakten gibt.
 
Eine Frage.. weiß grad nicht ob das schon geklärt wurde, aber was für einen Stromanschluss wird der R600 haben? also die highend karte halt.

Ich hab nur 2 pci-e stecker am NT, also ich hatte mal irgendwas von 8 und 6 pin gelesen, aber ich hab nur 2 mal 6 pin. Die üblichen pci-e stecker.

Das wird dann doch gehen oder ????
 
bisherige bilder zeigen einen 6 und einen 8pol stecker
wahrscheinlich kannst du das mittels adapter lösen
8pol auf 2 6pol und davon einer auf 2x4pol molex :D
 
Naja so schnell wird der R600 wohl auch wieder nicht.
:rolleyes:

Es gab einige Gerüchte, dass die X2900XT(GT) 17000Punkte im 3DMark05 schafft. Das wäre etwas schwächer als der G80. Die X2900XTX, wird dann wohl etwa 10% schneller als der G80 sein. Naja während NV mit der Geforce 8800Ultra kontert, gehen die Arbeiten am G90 weiter.
Erwarten kann man diesen im Herbst.

Wenn es nur die GT war, dann ist die X2900XTX etwa 40% schneller wie der G80.

bisherige bilder zeigen einen 6 und einen 8pol stecker
wahrscheinlich kannst du das mittels adapter lösen

Naja beim 8 Pin-Stecker kann man 2 Pins wegnehmen um wieder einen 6 Pin zu erhalten.
Es wurde doch gesagt, das 2 6 Pin-Stecker genügen würden. Der Verbrauch liegt dann wohl bei 190 Watt....

mfg Nakai
 
Es gab einige Gerüchte...
:freak:
Die Schwester meine Oma, deren Tochter ihre Tochter ihre Schulkameradin ihr Freund meinte die R600 hat zwischen 10k und 30k Punkte bei 3D-Mark ;)

bisherige bilder zeigen einen 6 und einen 8pol stecker
wahrscheinlich kannst du das mittels adapter lösen
8pol auf 2 6pol und davon einer auf 2x4pol molex
omg :D
 
Zuletzt bearbeitet:
erst hiess es 512bit...alle haben gelacht
jetzt 65nm....alle lachen
karte soll fast 300watt haben....alle glauben es sofort und ziehn über ati her
Kommentare wie ...das Ding wird unbezahlbar,sau heiss....

und noch viel mehr dummes Zeug

fazit: keiner hat Plan / null Erfahrung aber man macht sich wichtig


gibs hier noch jemanden ,der wie ich glaubt das Leute die immer die größte Welle machen,noch zur Schule gehn :lol:
Jedes Jahr neue Kids die sich als Hardware Experten aufspielen.
 

Ähnliche Themen

Zurück
Oben