News R600: 31,5 cm lang und 270 Watt Verbrauch?

Status
Für weitere Antworten geschlossen.
S´p@tcher schrieb:
@drago-museweni

??hast du einen XXL BIG TOWER der bigger ist als ale BIG TOWERS? und ich glaube du hättest mehr wärme im PC wenn du die OEM Variante nimmt

, aber die auf dem bild, die XTX version soll ja angeblich irgendwas mit 150GB/s Bandbreite haben. Das wäre dann doch doppelt so viel wie die von der 88GTX, was bedeuten würde, das das ding sehr viel härter abgeht, und sehr viel mehr als die GTX verbraucht das ding dann auch nicht, würde dann eher zur XTX als zur GTX greife. Aber ich hab ne 88GTX, also müsst ich warscheinlich 2Jahre warten XD, bis ich mir was neues zuleg......

Ne so xxl ist der auch nicht nur schön lang Aplus Case XClio Twinn Engine ich glaub die wäre wäre no Prob bei 2x 250mm Lüfter.

Doppelte Bandbreite muss nicht gleich viel mehr an Power sein Siehe DDR-DDR2, aber schaden wirds auf keinen fall binn au jeden fall sehr gespannt!!!!:)
 
Sehr geile Karte. Wird allerdings nur was für Enthusiasten sein bei dem Stromverbrauch. Dafür kann man dann wohl auf Crossfire verzichten, so schnell wie die Karte sein wird :D

Aber mal ehrlich, was regt ihr euch auf, es gibt genug Anwendungsbereiche, die wirklich soviel Grafikleistung brauchen und für die der Energieverbrauch eine absolut untergeordnete Rolle spielt (z.B. 3d-Rendering in Sci-Fi Serien und Filmen, Simulationen im Bereich der Naturwissenschaften etc.)!

Und für alle anderen Normal-Sterblichen - geduldet euch einfach, die Midrange- und Low-End-Karten werden sicher nicht lange auf sich warten lassen. Dort wird dann auch der Stromverbrauch wieder einen höheren Stellenwert haben.
 
naoki schrieb:
Sehr geile Karte. Wird allerdings nur was für Enthusiasten sein bei dem Stromverbrauch. Dafür kann man dann wohl auf Crossfire verzichten, so schnell wie die Karte sein wird :D

Aber mal ehrlich, was regt ihr euch auf, es gibt genug Anwendungsbereiche, die wirklich soviel Grafikleistung brauchen und für die der Energieverbrauch eine absolut untergeordnete Rolle spielt (z.B. 3d-Rendering in Sci-Fi Serien und Filmen, Simulationen im Bereich der Naturwissenschaften etc.)!

Hmm wohl eher nicht Rendern tun die mit Serverclustern oder wie das heisst da ist eine Grafikkarte eher unwichtig!!
 
Jop, bei 3D-Filmen geht das alles über riesige Renderfarms, die aus 100ten von Rechner (die selber nicht high end sein müssen, die Masse machts) bestehen. Beim Rendering übernimmt sowieso ALLES die CPU, GPUs sind dazu nicht geeignet (ist ja klar, das viel gespart werden muss, wenn pro Sekunde 30 Bilder kommen sollen, statt pro Stunde ein Halbes)

Ich glaub Comments mäßig haben wir mittlerweile den IPhone THread überholt... :D
 
wann wird wohl retraycing möglich sein? angeblich kommt ja auch ne 4GB version raus, doch wer braucht 4GB? Als normal User versteht sich.

roboto schrieb:
(ist ja klar, das viel gespart werden muss, wenn pro Sekunde 30 Bilder kommen sollen, statt pro Stunde ein Halbes)

ich sag nur eins: Diashow XD
 
Wieso sollte eine 4gb rauskommen, wenn es keine 2gb version gibt? Du meinst doch die R600 Grafikkarte oder?
 
Eine 4GB Version würde für den normalen Endkunden unbezahlbar sein. :freak:

Und nötig ist das auch absolut nicht, nicht für aktuelle Spiele und auch nicht für Spiele, die dieses Jahr noch erscheinen.

Zum Thema Raytracing sei gesagt, dass die Leistung hier nicht wirklich von der verwendeten GPU resp. der Grösse des VRAMs abhängt, viel mehr ist hier die verwendete CPU im Mittelpunkt.

mFg tAk
 
@alex22

ja ich meine die R600 (oder von mir aus die R680) aber hab glaub irgendwo mal auf theinq/cb/winfuture mal gelesen. ahja, grad wärend ich den text geschrieben habe gefunden.

http://www.winfuture.de/news,29963.html letzen Satz lesen !?

Ist für "professionele Anwender" was die damit meinen? XD
 
Ich denke, dass auf den modernsten und teuersten FireGL karten 4 GByte DDR4 Speicher verbaut werden. In einer Workstation kommt sowas zum Filmrendern oder CAD sehr gelgen.
Bauzeichnen mit so einer Karte machen sicher Spaß als Architekt.
Oder den Wunsch zu haben, alles gezeichnete auf dem Moni, mal gerendert wiederzugeben. Das wäre ein Traum eines jeden Architektes.
 
Raytracing is absolut Fazinierend.

Aktuelle GPU's schaffen die Grafik gerade so da zu stellen, da es sich von der Aktuellen Grafik in Games nich stark unterscheidet.

Aber die CPU schafft das nicht.

Es gab hier auch ne schöne News, in der schön beschrieben wurde, was Raytracing für Leistungen braucht.

Und für die, die es nich gelesen haben, mit einer QX 6800 Extreme ( 4x 2,9 Ghz )
und einer auflösung von 256x256 schaffte diese CPU bei voller auslastung aller 4 Kerne gerade mal 16 FPS. Ein einzelner kern schaffte 4 FPS.

Das wird wohl die beste neuerung in den nächsten 5 Jahren werden.

Sobald wir und von dem dämlichen Silizium abgesetzt haben und die Atomfusion unsere schaltwege extrem verkürzt. Theoretisch Lichtgeschwindigkeit( kein scherz )


PS. für CAD Programme, die bei einem Architekt benutzt werden, spielt die Grafikkarte eine sehr geringe Rolle ;)
selbst für C4D spielt eher die CPU eine Rolle, statt hoher Grafikspeicher.
 
Zuletzt bearbeitet:
Redest du von Quantencomputern? Es wird sicherlich keine Atomfusion in CPUs geben. XD
Und auch die eignen sich nur für bestimmte Aufgaben.
 
@ nutel

Wobei man in C4D locker mit einer Karte mit der OpenGl-Leistung einer einer 7600gs/gt auskommt. Ich kann natürlich die Polygonzahl in exorbitante Höhen schrauben, aber dann bekomme ich wirklich jede aktuelle Karte in die Knie!
 
Ich bin mir ziemlich sicher das die Karte keine 200W verbrauchen wird. Da sollte selbst ATI klar sein das hier einige Leute weniger zugreifen werden. Und das dürfte sich ATI kaum erlauben können. Auch wen diese Karte deutlich schneller sein sollte als eine 8800, wird meine nächste KArte wohl wieder nVidia. Aber ich habe noch Hoffnung.
Andererseits, interesiert es auch niemanden das Chipsätze wie der 680i 60W verbraten was über 20W mehr als beim 965 sind und gar 50W mehr als beim RD580! VIA Chipsätze verbrauchen nicht mal 5W. Aber dann bei den CPUs mockieren das der eine 20W mehr verbraucht als der andere.
Von daher können sich einige die sich über den Stromverbrauch aufregen, wieder setzen, den nicht nur die CPU und die Grafikkarte können Stromfresser sein. Im übrigen, wer Stromsparen will, der greift auch derzeit lieber zu AMD, den dessen Cool&Quiet in Verbindung mit einem X2 EE dürfte wohl kaum von Intels etwas lächerlichem EIST zu schlagen sein. Und 90% dr Zeit ist ein e CPU quasi im Leerlauf.
 
Als erstes blicke ich auf den STROMVERBRAUCH, und der ist hier definitiv zu hoch! Dann bleibe ich eben bei meiner etwas älteren nvidia, welche unter 40 Watt verbraucht.
 
Na toll. Da haben die von AMD/ATI einfach mal abgewartet was Nvidia rausbringt. Und anscheinend ist aufgrund von 90nm Fertigung einfach nicht mehr drinnen, was Verbrauch und Performance angeht.
Da haben die einfach am Takt geschraubt um sich die Performance Krone zu sichern. Dadurch ist der Verbrauch natürlich extrem gestiegen.
Die gehen einfach den "P4 Netburst" Weg, über mehr Takt, bessere Performance rauszuholen.
Das ist nicht sehr schön.
Dann könnte Nvidia ebenso im Sommer eine 2Ghz Karte rausbringen mit 3 Slot Kühlung. Dann wären Sie auch sicher schneller als die ATI Karte.
Wohin soll das denn führen?
 
Na toll. Da haben die von AMD/ATI einfach mal abgewartet was Nvidia rausbringt. Und anscheinend ist aufgrund von 90nm Fertigung einfach nicht mehr drinnen, was Verbrauch und Performance angeht.
Da haben die einfach am Takt geschraubt um sich die Performance Krone zu sichern. Dadurch ist der Verbrauch natürlich extrem gestiegen.
Die gehen einfach den "P4 Netburst" Weg, über mehr Takt, bessere Performance rauszuholen.
Das ist billig.
Dann könnte Nvidia ebenso im Sommer eine 2Ghz Karte rausbringen mit 3 Slot Kühlung. Dann wären Sie auch sicher schneller als die ATI Karte.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben