News Möglicherweise erste Bilder zum G80

was soll der mist, warum koennen die keine stromsparenden gpus bauen die trotzdem viel leistung haben
so ein unfug .. grafikkarten mit 200watt ... die koennen die gleich behalten
 
@lexisdark: weisst warum deine Behauptung nicht Stimmen kann :)
Diese Art von Stromanschlüsse gibts erst seit dem g70 und nicht seit 2004.

Zum Kühler... es wird 2 verschiedene Kühler geben Leute. Einmal einen für die Leute die ne Wakü haben und einmal für die, die keine haben :)

Mfg
 
puuh..das is ja net katastophe! die karte is 1. viiiel zu groß und die kühlmethode lässt ja nur auf hitze und stromverbauch ohne ende hindeuten!
hoffentlich wird der R600 besser.

aber erstmal abwarten .. wir wissen ja noch garnicht ob das wirklich ein G80 ist.
 
Ich glaube auch das es sich um ein Fake handelt. Wenn man sich mal das Bild von der Rückseite der Karte anguckt, sieht man das die Karte 12 Speicherchips hat, rund um den Chip.

Wenn es also 64MB Chips sind wären das: 12*64=768.
Ich glaube kaum das die neue Karte mit 768 MB RAM auf den Markt kommt, weil DDR4 Speicher viel zu teuer zu produzieren ist, dann müsste die Karte 700€ kosten, außerdem deckt sich nicht mit den Anküdigungen der G80 hätte 512 MB GDDR4.

Allerdings sind: 12*32=384.
Das wäre wiederrum zu wenig. Und zwischen 32MB und 64MB gibts keine anderen Chips. Eigentlich müsste die Karte also um auf 512 MB zu kommen entweder 8*64 oder 16*32 MB Chips oder 4*128 MB Chips haben. Wobei 8*64 am wahrscheinlichsten sind, da 16 MB Chips zu viel Platz wegnehmen würden und es momentan keine 128MB Chips gibt (zumindest sind diese viel zu teuer als das man sie für GraKas verwenden würde.
 
@58) AshS:
das geht schon nicht, weil die cpu die noetigen befehlssaetze nicht hat. hoechstens softwarerendering und das auch nur im 2D modus. da kannst du machen, was du willst...


btw: wer unbedingt immer den schnellsten und tollsten rechner haben will, soll sich so ein teil doch in sein servercase reinquetschen. ich verstehe sowieso nicht, wieso die beiden grafikkartengiganten immer wieder neue modelle rausbringen. wieso schmeissen sie nicht ein produkt auf den markt, welches auch mal wirklich was bringt (mehr als 2%-5%...).
 
vercetty76 schrieb:
Oh je oh je, da bin ich ja mal gespannt, wo die Entwicklungen hin führen! :)


tja zu Strom Rechnungen von mehreren Hundert Euronen im Jahr für die Zukünftigen Höllen Maschinen......:eek:
 
@AshS: Ohne Texturfilter, Antialiasing, irgendwelche tollen Effekte und so weiter sicherlich.
Die Frage ist aber, ob du dir sowas wirklich anschauen willst.
Dazu kommt noch, dass dann außer Grafik-rendern nichts anderes mehr geht (Sound, Eingabeverarbeitung, Physik, sonstwas)...
 
Geht noch um den Thread von mir:
@ownagi: Weil damals die AGP-Version der 6800Ultra 2 4 Pin-Molex Stromanschlüsse gebraucht hat!- Mein Kumpel sein NT hatte aber nur noch einen Anschluss übrig.-Also hat er einen Y-Adapter genommen und aus dem einen Anschluss zwei gemacht.

Das mit dem PCI-E 2.0 war nur ein Wunsch! -Wäre immer noch besser als ein externes NT! -Mit der Kühlung der Graka hat das ja wohl nichts zu tun, ob die Karte den Strom aus dem PCI-E-Slot oder nem externen NT-zieht,oder?

-Sehr komischer Schraubenzieher;o)

Das es das externe NT gibt (geben soll), weil evtll. die vorhandenen NTs nicht genug Strom liefern ist mir auch klar. Wenn Du meine Beiträge genau lesen würdest, hättest Du das bemerkt.

P.s. Ausserdem war der Thread von mir.

Und die Beleidigungen ala -Hast Du nen Knall? -kannst Du Dir echt sparen.

Hiermit mache ich ein Friedensangebot!


Gruss
Uhum
 
Zuletzt bearbeitet:
@ andrew Posion

das hat nichts mit SM4 und D3D10 zutun.

sicher hat ati da einen anderen weg , aber D3D10 und SM4 sind beide.
 
Hat der G80 dank D3D10 automatisch auch WDDM 2.0 Support?

Ich will bis März '07 einen neuen Rechner zusammnestellen, aber ich bestehe wegen Vista und Spielen auf WDDM 2.0 Hardware.
Hoffentlich bekommt man da bis März was für max. 250 Euro...
 
vllt. is das ganze ja auch so ne art vorserienmodell, um entwicklern karten mit dx 10 zu liefern?
 
also wen das stimmt oder was die do behaupten,
sag ich nur das es vollöig unnötig ist und lächerlich,
omg das kann doch nicht sein?
 
Die Verlustleistung wird wenn nur geringfügig steigen, schon jetzt hat man Probleme die Wärme abzuführen. Klar hilft eine Wasserkühlung imens, aufgrund der guten Leitfähigkeit von Wasser und der großen Austauschfläche vom Radiator.

Nur wollen eben viele keine Wasserkühlung haben, das hat nicht nur was mit den Kosten zu tun. Es gibt halt Hardliner, die ihr System auf Luftkühlung aufbauen, weil sie einfach z.B. kein Vertrauen in eine moderne Wasserkühlung stecken. Und in der Tat kann man auch mit Luft sehr gute Ergebnisse erzielen, wobei dann wieder aber großflächige High End Kühler mit ausgefeilter Technik herangezogen werden müssen.

Gegenüber der c`t meine ATI, das die Verlustleistung der nächsten Generationen nicht ansteigen werde, sondern das ATI an an GPUs mit reduzierter Verlustleistung entwickelt.

Zumindest wird sich die Verlustleistung von ATIs High End Karten nicht mehr erhöhen, sondern erstmal auf dem bisherigen Niveau bleiben, welche die aktuellen Karten so fabrizieren.

Die Extreme Editions (z.B. von Gainward) werden natürlich auch in Zukunft mit Wasserkühlern ausgeliefert.
 
Zuletzt bearbeitet von einem Moderator:
Waren das noch Zeiten als man eine x800 mit 60x70x10mm Kühler hatte und es noch keinen 2d Takt gab, noch kein Sli und erst jedes Jahr eine neue Karte!

Ich denke der Core wird mit Wasser gekühlt und der Rest mit Luft!

Ach ja der Hype....:D
 
Zuletzt bearbeitet:
Kimble schrieb:
Zumindest wird sich die Verlustleistung von ATIs High End Karten nicht mehr erhöhen, sondern erstmal auf dem bisherigen Niveau bleiben, welche die aktuellen Karten so fabrizieren.

...was auch schon aberwitzig ist. Bei den CPUs redet man heute von maximal 65W zuzüglich dynamischer "Bremse", die auf 20W runtergeht, wo noch vor 2 Jahren (bei intel sogar 1/2 Jahr) konstante 80-120 üblich waren. Und dann sind andererseits passiv gekühlte Grafikkarten so extrem selten? Leider sind ja selbst die "Office-Chips" immer kurz vorm Kochen (wenn man dann mal eine Version ohne Propeller findet, was idr. dann die extrem-spar-Version des langsamsten Chips ist).
 
Ich glaube irgend wie nicht richtig das es sich hier um die End-Kunde Karte Handelt. Denn 2x PCI Ex Stromanschluss ist echt übertrieben, sowie die Integrierter Wasserkühllösung was ist eigentlich nichts dagegen habe.
Seit denn GF7 Serie sind wir doch dazu gewohnt das nVidia Schnelle Karte heraus bringen mit wennig Temperatur sowie Stromverbrauch, und auf einmal kriegt Sie das Doppelpack mit Doppel soviel Strom u.s.w.
Die Karte sieht auch nicht wirklich Marktreif aus.

Hoffe die Serie wird nicht zur eine GF-FX Serie.
 
Ich denke, (wenn das Bild kein Fake ist) dass die zusätzliche Wakü nur für Testzwecke integriert wurde. Ausserdem weiss niemand, ob die Karte intern nicht doch mit dem restlichen Kühler verbunden ist.(z.B. auf der abgewandten Seite)

So wie es aussieht wird NV eine Kühlung bringen die zumindest bei der 8800GT der einer 7x00GTX entspricht. Das mit dem "externen" (kann man auch sehr gut in einem 5 1/4 Zoll-Schacht unterbringen, wie man schon bei einigen Modellen sieht-So wie hier: ist von den Daten her genial!! - http://www.golem.de/showhigh2.php?file=/0608/47114.html&wort[]=Thermaltake ) NT finde ich nicht schlecht.-So ist man endlich das leidige Thema -Ist mein NT auch leistungsfähig genug? - los!!

Ob die Unified-Shader in HW wirklich sehr viel effektiever arbeiten wird sich zeigen.-NV arbeitet schon sehr lange am G80.-Viell. ist es z.Zt. doch noch besser (aus P/L-Sicht, Produktionsausbeute, Transistorcount usw...) die USA über den Treiber zu "simulieren"

Möge der bessere Chip gewinnen!

Gruss
 
Zuletzt bearbeitet:
Zurück
Oben