News Hat nVidias G80 das „Tape-Out“ hinter sich?

Es wäre klasse wenn die Graka-Hersteller endlich von den beschschissenen Referenz-Lüfter-Designs absehen würden. Bei der 7900 GT + gehts ja noch aber 7600gt ist ja mal ne Katastrophe. Klar gibt die passive gekühlten Grakas, aber für diese ist eine gute Luftzirkulation im Gehäuse Vorraussetzung.

spätestens nach den ersten DX10 Grakas werden sich ATI & nVidia Gedanken machen müssen, wie man den Stromhunger reduzieren kann! Ich finde die 65watt welche per pci-e möglich sind müssen reichen! AMD & Intel bekommens hin, dann könnens doch diese beiden doch auch.
 
hi

also ich könnt mich schonwieder hinschmeißen.
da freut man sich über ne news über den g80,und muss dann gezwungener maßen ati lesen.
gehöhren ati und nvidia schon zusammen ?
was hat der r600 mit dem g80 tape-out zu tun ? :D

ich glaub nichs oder :lol:

update: coole technik wartet da auf uns, für crysis ist der weg frei ,cool !
 
Zuletzt bearbeitet:
@noxon:

einfach deswegen weil spezialisierte hardware _immer_ schneller ist als eine allgemein ausgelegte hardware. der vergleich bezieht sich natürlich auf jeweils eine alu. wie sich das auf die gesamtperfromance des chips auswirkt will ich noch garnicht abschätzen. ich denke wenn die benötigetan pixel-shader und vertex-shder dem verhältnis der nvidia-alus entsprechen könnte nv einen vorteil haben, sobald aber eine extreme pixelshader-last oder vertex-shader last vorliegt dann wird wohl ati vorne liegen. vorraussetzung natürlich wieder eine ähnliche grundperformance beider chips.
 
Ich würde mal sagen hinlegen und abwarten :D
Der Stromverbrauch von 300Watt ist natürlich quatsch, ausser bei der Graka wäre dann ein NT inklusive ;)
Ne mal im ernst das wird schon nicht mehr als die jetzigen sein, wo wäre sonst der Fortschritt ??? Mehr Leistung durch mehr Energiegebrauch (Verbrauch darf man ja wenn mans physikalisch korrekt ausdrücken will nicht sagen) ist ja kein Fortschritt :rolleyes:

MfG G-Unit Soldier
 
Lustig wie die Leute spekulieren mit ihrer abwärme und leistungen im idealfall. Lasst die chiphersteller erstmal selber herausfinden wie schnell sie sein können ;) schließlich sind taktraten und software nicht mal halbwegs angepasst laut news :D
Die Verlustleistung wird sich schon in Grenzen halten. Nvidia konnte trotz steigender leistung den verbrauch halten bzw leicht senken. ATI konnte es zwar nicht so gut, aber aus fehlern lernt man. Schließlich kochen wir alle nur mit wasser.
Die Nächsten Monterkarten werden vielleicht ein bisschen mehr verbrauchen aber 300Watt ist eher unwahrscheinlich - überraschungen sind jedoch immer möglich.

Wie dem auch sei, 2007 wird sich zeigen wer wie besser fährt mit welcher architektur.

Ich sag nur "Ring frei! Fight!". Möge die bessere Karte am meisten gekauft werden.
 
Hi
ich hatte bisher immer eine Nvidia grafikkarte und war immer recht zufrieden doch wenn der g80 keine unified shader unterstützt und der r600 dann ist er eigendlich nicht konkurenzfähig für mich ... ich kauf doch keine graka wenn die dann ein halbes jahr später schon "alt" ist sprich nicht mehr alle details oder ähnliches darstellen kann!
ich frag mich da nur: die wussten doch dass der r600 unified shader haben würde und trotzdem haben sie es beim g80 weggelassen kann mir jemand das erklären bzw. gibt es einen forteil wenn man die shader weglässt?
 
@Zifko: Du sprichst mir aus der Seele. :schluck: Nichts genaues weiß man nicht und die Spekulationen schießen schon wieder in den Himmel :rolleyes:.

@s´NO: ATI hat durch die Entwicklung des Grafikchips für die XBox360 einen Entwicklungsvorteil, was die unified shader-Architektur angeht. Der R600 ist praktisch schon die 2.Generation dieser Chips.
Allerdings kann man generell noch nicht sagen, dass der R600 dadurch einen Leistungsvorteil gegenüber dem G80 hat. Das müssen erste Tests zeigen. Zum Thema veraltete Hardware: ist doch nichts neues, dass man nach einem halben Jahr schon wieder "altes Zeug" im Rechner hat :D. Und da beide Karten DX10 unterstützen, kann man auch mit beiden die gleichen Effekte darstellen. Obwohl bezweifelt werden kann, dass bis diese Karten schon wieder abgelöst werden, DX10-Effekte auf breiter Front kommen.

Gruß
 
Zuletzt bearbeitet:
Also wenn das mit 300 Watt richtig sein soll, crazy dann muß ich mir auch gleich noch ein neues Netzteil zulegen! Meines hat nur 420 Watt was dann natürlich erheblich unterdimensioniert ist.
Denke aber das 300 Watt etwas übertrieben ist.
 
Davon geh ich aber mal ganz stark aus :freak: ! Wie in der news schon stand, sind ja noch nicht mal die genauen Taktraten erprobt worden, bei denen der Chip stabil/optimal läuft. Wie soll man da auf den Energieverbrauch schließen, frage ich mich?

Gruß
 
Das mit den 300 Watt ist einfach nur ein Gerücht, Haken dran und weg damit :freak: :evillol: :freak:

Einfach vergessen, kann ja noch niemand wissen wenn es NVidia und ATI nicht mal selber wissen. :king:
 
noxon schrieb:
Softwareseitig ist das ein Muss. Die Karte muss nach außen hin Unified Shader unterstützen. Wie sie das hardwareseitig macht wurde den Herstellern überlassen.
Das ist mir klar. Es ging mir aber auch nur um die reine Hardwarearchitektur, und nicht wie der der Treiber die Shader verwaltet.

Ich bin mir nicht ganz sicher, meine aber eine Folie von MS gesehen zu haben, wo eine Unified Shader Architektur Pflicht war (und zwar Hardwaremäßig). Ist aber wie gesagt schon ziemlich alt und vielleicht irre ich mich da auch.
 
nee Pflicht ist das nicht, sonst würd Nvidia ebenfalls eine unified-shader architektur verwenden. Der Treiber gauckelt ja dem System vor, eine unified-shader architektur zu verwenden. Aber ich warte lieber auf den R600 ... will lieber einen "richtigen" DX 10 Chip wnen haben ... aber ich bin nicht so n freak, der sich alles neue kauft, da wart ich lieber noch ein zwei Jahre bis der X1900 XT die Puste ausgeht, falls ich überhaupt noch n Desktop-Rechner verwenden will und bis dahin gibts dann sicherlich schon den Nachfolger, der dann in 45 nm hergestellt wird und dann wieder vom Stromverbrauch konform ist, dass was die aktuellen Karten ziehen ist einfach zu viel.

Mich errinnert das an die Geforce 2 Ultra oder Geforce 3, die das erstemal peicherkühler brauchten und da wurde schon gestaunt, im Vergleich zu den heutigen Karten ist / war das n Witz als Kühlung.
 
Wolfgang schrieb:
MS hatte mal eine USA vorgesehen als MUSS für D3D10. Dies ist aber schon länger nicht mehr so, wohl auf Druck von nVidia. Somit ist der G80 voll D3D10 kompatibel.
och nö
lest doch mal mit
 
Nein die 300Watt sind ja auch "nur" die maximale verlustleistung. Das gerücht ist aufjedenfall wahr so wie ich das beurteilen kann denn jetzt geht es an die feinheiten und an die konstruktion eines kühlkörpers der das in einem rechner bei angemessener größe und lautstärke verichten kann klar werden jetzt erstmal alle aufschreiben 300 watt hier und da aber bei neuer tech. ist das erstmal übelst viel ich denke auch das sich das später wieder verringern wird sons geht das wirklich nicht mehr klar.
 
swz.alucard schrieb:
einfach deswegen weil spezialisierte hardware _immer_ schneller ist als eine allgemein ausgelegte hardware. der vergleich bezieht sich natürlich auf jeweils eine alu.
Naja. Ich denke mal, dass die effizientere Ausnutzung der ALUs das alles wieder wett machen wird. Es wird auch sehr stark auf die Programmierung ankommen,. DX9 Spiele werden von den US sicherlich nicht so stark profitieren, wie DX10 Spiele.

Man wird es abwarten müssen. Ich bin gespannt, wie ein Flitzebogen, was die ersten Tests so zu berichten haben. Eventuell zeichnet sich am Graka-Markt eine ähnliche Situation ab, wie auf dem CPU-Markt mit dem Conroe vs. X2.

Wo wir gerade beim Conroe sind. Der wird ja auch in 65nm Prozess gefertigt. Da sehe ich jetzt auch keinen Grund, warum der R600 nicht auch darin gefertigt werden soll. Die technik ist sicherlich machbar
 
@15: na solange du noch mit AGP rumkrebst und da bald weg willst, ist ja nun jede Investition sinnbefreit.

Das mit dem Stromverbrauch glaub ich nicht wirklich. Man sieht doch schon an der GeForce 7xxx, wohin der Trend geht. Bestimmt wird es auch beim G80 wieder 3 Stufen geben:
1. Billigkarten mit ungeregeltem Brülllüfter (wie jetzt die 7300) - hauptsache, die Karte kostet nichts. Leistung hamwa auch keine.
2. Mittelklasse mit im Endeffekt ausreichener Leistung und ohne Lüfter (wie aktuell die 7600)
3. Oberklasse-Karten, die auch noch Spiele, die ein Jahr später erscheinen, bei maximalen Einstellungen auf über 50fps bringen können.
 
@noxon
wieviel transistoren sind denn bei ner cpu wirklich logik?
wohl nicht mehr als 50 mio, das meiste ist cache
wenn ich mir denn dann mal die 400 mio des r580 anschaue sieht das wohl anders aus
zumal es hier um tsmc geht, nicht um intel
tsmc ist gerade dabei den 80nm prozess hinzubekommen
 
wieso? TSMC hat doch schon geschrieben, dass die demnächst auch auf 65 nm umsteigen wollen, da der R600 ja gegen Ende des Jahres erscheint, werden die das wohl schaffen .. ich hoffe es zumindest.
 
och ne schon wieder neue graks, wer soll die denn alle kaufen :freak:
 
Zurück
Oben