News R600: 31,5 cm lang und 270 Watt Verbrauch?

Status
Für weitere Antworten geschlossen.
Zuletzt bearbeitet:
Ritzenreiter schrieb:
Was für ein Schwachsinn, AMD für den steigenden Stromverbrauch bei ATi Karten verantwortlich zu machen.

Wirklich, wie kann man nur, wo auf den X2000 Verpackungen gross und dick A M D stehen wird.:rolleyes:
Komm mal in die Gegenwart, Ati ist nicht mehr...und für alles wo AMD draufsteht bekommen auch nur die Haue oder Lob und tragen die Verantwortung, nur die bestimmen jetzt was wann wie auf den Markt kommt!

Aber so wird das ab jetzt sicher immer sein wohl im AMD Fanclub, gibts Grund für Lob ist's ne AMD Karte, ansonsten pfui "Geisterfirma" ATI...:evillol:

Ein starker Verkaufszahleneinbruch bei Highend Karten wäre schön in diesem Jahr, nur so werden die umdenken.
 
CPUs mit GPUs zu vergleichen hinkt gewaltig. Schon mal daran gedacht, dass der Speicher auf der Grafikkarte auch mit Strom versorgt werden will? (Bei dieser Karte immerhin 1 GB!) Der Stromverbrauch wird ja inkl. dem auf der Karte verbauten Speicher angegeben.

Abgesehen davon halte ich eine Leistungsaufnahme von 240 bzw. 270 Watt für unwahrscheinlich.
 
holdrio schrieb:
Wirklich, wie kann man nur, wo auf den X2000 Verpackungen gross und dick A M D stehen wird.:rolleyes:
Komm mal in die Gegenwart, Ati ist nicht mehr...und für alles wo AMD draufsteht bekommen auch nur die Haue oder Lob und tragen die Verantwortung, nur die bestimmen jetzt was wann wie auf den Markt kommt!

Aber so wird das ab jetzt sicher immer sein wohl im AMD Fanclub, gibts Grund für Lob ist's ne AMD Karte, ansonsten pfui "Geisterfirma" ATI...:evillol:

Ein starker Verkaufszahleneinbruch bei Highend Karten wäre schön in diesem Jahr, nur so werden die umdenken.

Aber sonst geht's noch oder?
Glaubst du AMD schafft es den R600 in 6 Monaten zu entwickeln?
Am R600 wird sicherlich schon länger entwickelt als ATI überhaupt klar war das sie von AMD aufgekauft werden.
Ja klar AMD könnte jetzt auch sagen, "ok stoppen wir den R600 der verbraucht zu viel Strom und entwickeln wir etwas komplett neues!".
Damit sie der Konkurenz eine Generation hinterherhinken....
 
Für OEM-Karten verwenden die Hersteller üblicherweise weniger hochwertige Teile. Damit kann der Stromverbrauch auch steigen. Is wie mit Fernsehern, da gibts auch welche die bei gleicher Bauart mehr verbrauchen. Wir sehn das jedoch nur im Standby-Betrieb. Billiggeräte verbrauchen im Standby bis zu 10 mal mehr als Markengeräte. Irgendwo muss ja gespart werden.
 
bongj schrieb:
CPUs mit GPUs zu vergleichen hinkt gewaltig. Schon mal daran gedacht, dass der Speicher auf der Grafikkarte auch mit Strom versorgt werden will? (Bei dieser Karte immerhin 1 GB!) Der Stromverbrauch wird ja inkl. dem auf der Karte verbauten Speicher angegeben.
Abgesehen davon halte ich eine Leistungsaufnahme von 240 bzw. 270 Watt für unwahrscheinlich.
Der Stromverbrauch hängt weniger von der Menge des Speichers sondern vielmehr von dem 512 bit breiten Speicherinterface, der Chiptaktung/Anzahl der Transistoren und der Taktung des Speichers und der Shadereinheiten zusammen.

Ich hab 3 GB Speicher, deshalb steigt mein Stromverbrauch auch ned aufs 3fache von 1 GB ;-)

Im Grunde handelt es sich hier um 2 Kinder die "den Längeren" haben wollen und sich deshalb gegenseitig hochstilisieren.

Bei den CPU´s hat AMD damit angefangen aus wenig Verbrauch viel Leistung zu holen. Intel ist durch ein Crosshandelsabkommen zu dieser Technik gekommen und AMD durfte dadurch MMX und SSE in ihre CPU´s integrieren.

Bleibt abzuwarten, ob AMD bei den Grafikkarten auch diese Vorreitereigenschaft zutage tragen wird. Im Moment kann AMD am ATI-Chip ja nicht allzuviel machen, ohne eine massive Verzögerung zu verursachen.

Ich persönlich hoffe auf einen Dritten Grafikkartenhersteller. Je mehr Auswahl desto besser.
 
MarkoK schrieb:
Am R600 wird sicherlich schon länger entwickelt als ATI überhaupt klar war das sie von AMD aufgekauft werden.
Ja klar AMD könnte jetzt auch sagen, "ok stoppen wir den R600 der verbraucht zu viel Strom und entwickeln wir etwas komplett neues!".

Genau das Denke ich auch. Irre ich mich oder ich glaub ich hab irgendwo mal gehört/gelesen das der G80 schon im Jahre 2002/03 entwickelt wurde, bzw. man hat damit angefangen. Deßhalb denke ich das die R600 auch irgendwo dann Entwickelt wurde, und man kann nicht einfach Jahre von Entwicklung in die Mülltonne kippen( gut MS hats bei Vista getan, aber die können sich das auch Leisten, und die Sicherheit, das alle Mitmachen hatten die auch)
 
Bei den kurzen Produktzyklen musst du überschneidend entwickeln, sonst hält man den Anschluß nicht mehr.
Im Grunde werden die benötigten Features festgelegt und daraufhin entwickelt. Nebenher wird bereits am
Nachfolger geforscht.
 
Duskolo schrieb:
Und anscheinend ist aufgrund von 90nm Fertigung einfach nicht mehr drinnen, was Verbrauch und Performance angeht.
Die gehen einfach den "P4 Netburst" Weg, über mehr Takt, bessere Performance rauszuholen.
mal davon abgesehen das der r600 in 80nm gefertigt ist, ist es sehr beeindruckend das du schon die taktraten des r600 kennst
erzähl bitte mehr davon

@mo185018
warum packt der depp nicht am henkel an?
 
Hehe...was würdet Ihr sagen,wenn die Ati so schnell ist wie ein 8800GTX SLI-Gespann?
Dann geht der Stromverbrauch doch in Ordnung für die Leute die an SLI gedacht haben oder auch schon haben mit 2 X GTX;)
Denn nix ist unmöglich da ja die 8800GTX auch fast so schnell ist wie zwei X1950XTX je nach Auflösung.Das könnte jetzt auch mit dem R600 so sein gegenüber der 8800er GTX ?
 
Zuletzt bearbeitet:
Ich erwarte mir eigentlich nicht mehr als 10% Mehrleistung in den hohen Auflösungen.
 
Jeder der 600 Euro für ne Graka bezahlt, kann auch die Stromrechung tragen.
 
@jk*

das ist doch ein Machtwort!

und ich glaube das das ding etwas mehr hermacht als nur 10% (wäre zwar für mich ne kleine entäuschung, weil ich ne 88gtx habe) aber ich glaub, mehr bandbreite, mehr speicher (der zwar bei der perfomence fast keine rolle spielt), und angeblich soll das ding dann auch noch mehr als 1000Ghz Taktrate haben. also ich glaub es wärden schon mehr als 10% aber wenn durchschnitt so bei 15% mehr liegen würde, wärs ja schon irgendwie häftig, das würde bei 100FPS 15FPS mehr ausmachen XD
 
Bei der Herstellung so einer Photovoltaikanlage wird ziemlich viel Energie verbraucht. Vor allem beim Herstellen von Silicium. Wegen des zur Zeit relativ geringen Wirkungsgrades muss so eine Anlage erst mal eine Weile arbeiten bis sie erst mal die Energie geliefert hat, die für ihre Herstellung verbraucht wurde. (Da hoffen noch viele auf den Durchbruch der Dünnschichttechnik, womit man den Anteil des teuren Siliciums signifikant reduzieren kann.) Was ich damit sagen will? Energie sparen ist leichter als regenerative Energie zu erzeugen.

Photovoltaik war gemeint. Aber is au egal du hättest dich nicht extra erkundigen müssen, ums mir reinzudrücken ;)

Ich bin nur auf das Wort Lebenseinstellung eingegangen, da es mit dieser nicht das geringste zu tun hat !!!

Ich weiss nicht, vielleicht erkundigst du dich nochmal in Wikipedia o.ä. über die Herstellung von Diesel und Benzin... Vom Rohöl zum Kraftstoff.

Ausserdem gibt es heute sehr sparsame Benziner. Und steht in Wiki auch wie groß der Anteil der Dieselfahrzeuge mit Ruspartikelfilter ist ? (%) ;)

Ach is dochj au worschd
 
Neues Bild

zu sehen sind 2x 6Pin PCIe Stromanschlüsse
kein 8 Pin Stromanschluss

also kann die Krate "nur" max 225Watt verbrauchen

75 Watt ja PCIe Stecker und nochmal 75 Watt aus dem 16xPcie Steckplatz
 

Anhänge

  • R600XTX.jpg
    R600XTX.jpg
    14,2 KB · Aufrufe: 602
Tom Clancy schrieb:
Neues Bild

zu sehen sind 2x 6Pin PCIe Stromanschlüsse
kein 8 Pin Stromanschluss

also kann die Krate "nur" max 225Watt verbrauchen

75 Watt ja PCIe Stecker und nochmal 75 Watt aus dem 16xPcie Steckplatz

Falsch! Es sind 150 Watt für den 16xPCIe Steckplatz,wenn sie in PCIe 2.0 kommt!

Grafikkarten, die PCIe 2.0 x16 unterstützen, können daher auf eine Bandbreite von 16GB/s kommen. Außerdem ist die maximale Leistungsaufnahme des PCIe x16-Slots auf bis zu 150 Watt gewachsen. Eine Entwicklung, die wohl aufgrund neuerer und leistungsfähiger Grafikchips notwendig ist. Über zusätzliche Stromstecker können Grafikkarten in der PCIe 2.0 Spezifikation bis zu 300W Strom konsumieren.



Sehr zu begrüßen ist die Abwärtskompatibilität, wodurch es weiterhin möglich ist, PCIe 1.1 Karten in Mainboards mit neuen 2.0er Steckplätzen zu betreiben. Der erste Chipsatz mit PCIe 2.0 wird Intels kommender High-End Chipsatz X38 sein, der für das 3.Quartal 2007 vorgesehen ist. Bei AMD wurde PCI-Express 2.0 ebenfalls für 2007 genannt. Es könnte also gut sein, dass der R600 oder spätestens dessen Refresh mit PCIe 2.0 daherkommt. Zudem darf man mit entsprechenden Chipsätzen aus dem Hause AMD rechnen.
 
Zuletzt bearbeitet:
was? bitte ne quelle dazu!
da müsste man aber die spannungsversorgung auf dem mainboard derbe aufbohren

bisher war eigentlich immer von 75w übern slot und der rest über den 8pol pcie stecker die rede
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben