News Möglicherweise erste Bilder zum G80

stefan@x700pro schrieb:
Waren das noch Zeiten als man eine x800 mit 60x70x10mm Kühler hatte und es noch keinen 2d Takt gab, noch kein Sli und erst jedes Jahr eine neue Karte!

kleine Zeitreise gefällig? Hab gerade eine ATI Rage Pro gefunden (1997). Hat nichtmal einen passiven Kühlkörper. Ebenso wie die nVidia Riva 128 und die 3dfx Voodoo.
Die nächste Generation von ATI war dann die Rage 128. Konkurrenz nVidia TNT2, Voodoo 3, S3 Savage 4 und matrox G400. Allen gemein: kleiner passiver Kühlkörper (1999).
ATi Radeon R100. Wie auch die Konkurrenz (Voodoo 5 und GeForce 2) mit kleinem lauten Luftquirl fast direkt auf der GPU (2000).
2002 dann die Radeon R200 (8500-9250). Die letzte verbliebene Konkurrenz war die GeForce 4-Serie. Die Kühltechnik bleibt wie bisher, allerdings gibt es später langsamere Versionen ohne Lüfter.
Dann kam der Radeon R300 (9500-X600). Konkurrenz (oder eben nicht) nVidias GeForce FX. Beiden gemein: ein Kunststoffteil versucht die Luft vom Lüfter weg zu leiten. Bei nVidia durch ein lärmendes Slotblech nach außen (2002-2004). Wiederrum lowend-Versionen ohne Lüfter.
Bei der nächsten Generation 2004 lieferte ATI die Eintagsfliege Radeon R420 (X700-X850) und nVidia mit der GeForce 6-Serie den langlebigen. Jetzt gibt's auch noch ausladende Kühlkörper neben dem Lüfter, um weitere Teile zu kühlen. Inzwischen sind die "Lowend"-Chips beim miniquirl angekommen. Passiv gilt als Qualitätskriterium für "hochwertige Office-Karten".
Und seit 2005 gibt es nun die Radeon R520 (X1300-X1950) bzw. nVidia GeForce 7-Serie. Inzwischen wird die direkt an der GPU erhitzte Luft über Kühlrippen an anderen Bauteilen gepustet, um diese auch noch etwas mit zu kühlen. Immerhin gibt's jetzt passiv gekühlte Heatpipe-Monster.
 
wenn die gerüchteweise verbreiteten specs stimmen, dann muss die karte ja extrem viel strom ziehen. bei 700+ mio transistoren, ein doppelter g71 + sm4.0-compliance + geometry shader.
falls das mit der verdopplung stimmt dürften im transistormonster insgesamt 128 shader-einheiten hausen (davon 96 pixel- und je 16 vertex- und geometry-shader).

betrachtet man sich auf der anderen seite den "schlankeren" r600 mit "nur" 500+ mio transistoren und gemunkelten 64 shadern (im gegensatz zum g80 vereinheitlicht) und vermutlich gleich bleibend 16 rops, so fragt man sich: wie soll das ding auch mit irrwitzigem takt schnell genug sein?
allerdings bleibt abzuwarten, ob ati da nicht optimierungen bezüglich des transistor-counts vergenommen hat (vgl. g70 zum g71: 25mio transistoren gespart). sollte das nicht der fall sein bleibt mit grade mal 120 mio zusätzlichen transistoren kein großer spielram für veränderungen gegenüber dem r580.

sofern sich diese ganzen spekulationen bewahrheiten sollten sieht das schwer nach einem erdrutschsieg für nvidia aus.

@TheK: na da hast aber so einiges ausgelassen ;) ich erinnere mich auch nicht an irgendwelche plastikteile am r300-kühler (winziges, schwarz eloxiertes alu mit winzigem 40mm-lüfter). hachja, den kühler meiner 9500@9700 hab ich damals abgeschliffen und poliert, um niedrigere temps zu erhalten ^^
 
Zuletzt bearbeitet:
Ist doch echt ne Verarsche! Was brauche ich denn dann bitte für die zweite Generation der DX10-Karten? 800-Watt Netzteil, Big-Tower, 2x PCi-E x16 und am besten noch ne Wasserkühlung!? :rolleyes:
 
sagt mal wie lange ist die karte?
meine x1800xt ist 23 cm und verdammt groß, der G80 erscheint mir da aber um einiges länger!
 
hubertus1990 schrieb:
sagt mal wie lange ist die karte?
meine x1800xt ist 23 cm und verdammt groß, der G80 erscheint mir da aber um einiges länger!

Sag ja in Zukunft braucht man einen Big-Tower weil die Karten nen halben Meter lang werden...
 
ich dürfte selbst mit einer 35cm und mehr karte keine probs haben weil bei meinem cs-601 1 laufwerksgeäuse raus ist und bald des 2. auch und die festplatten nach oben zu den laufwerken wandern :D sieht man gut auf dem bild hier http://img479.imageshack.us/img479/5896/innenleben0tx.jpg aber zu den grakas auf hartware.de steht die 8800 soll mitte nov rauskommen also wenns stimmt dürfen wir wohl auf die finalle version der g80 gespannt sein
 
HALLO

also 250watt find ich ok wenn die Leistung verdoppelt wird gegenüber der 7900gtx
und da sie auch noch eine Wasserkühlung und Physikbeschleunigung
hat. sieht es mal so wenn ihr mir einer Nvidia GeForce 7900 GTX volle Leitung fahrt verbraucht laut angaben von computerbase unter last 205 watt und wenn die mehr alls doppelt so schnell ist als die 7900gtx ist das schon ihn Ordnung

Verbessert mich wenn ich falsch liege



wer rechtschreibfehler findet darf sie behalten
 
Zuletzt bearbeitet:
törö.
wo hast du das denn her?
also zunächst mal: was auf cb gemessen wird ist der gesamtverbrauch des testsystems. und auch da lese ich nirgends was von 205W für das system mit der 7900gtx, sondern 251W! der verbrauch der graka selbst liegt dabei allerdings auch schon um die 100W.
die angeblichen 175W des g80 sind da schonmal ne ganze stange mehr...
 
hi riDDi
habe ein fehler entdeckt

sorry mein fehler :heilig:

Gemessen wird die Gesamt-Stromaufnahme des Testsystems: also 205 watt
also die leitung einer 7900gtx soll bei ungefähr 100 watt liegen ist das richtig
und die g80 liegt bei ungefähr 175 watt ist aber doppelt so schnell wie 7900gtx mit 100 watt
richtig



wer rechtschreibfehler findet darf sie behalten
 
Zuletzt bearbeitet:
das isn fake, das U Stück der Wakü ist nur reingelegt bzw. dranngelegt, siehe bild 2 da fehlt es ja wieder... die wollen irre führen !!!

mit mir aber nicht, vonwegen havok dingsda kühlung...
 
Hättest du gelesen , wüsstest du dass das 2te ein Kühle für nen kleineres Modell wär...
 
Bald muss man 40€ Versand für ne Graka Zahlen weil die Stickstoffflasche so schwer ist. So kann es nicht weitergehen... :lol: :rolleyes:
 
Auf dem Bild, die die Karte von hinten zeigt sieht man sehr schön die Position der "12" DDR4 Ram Bausteine.
Man nehme an so ein Baustein hat 64 MB oder doch schon 128 MB x 12 = 1,5 GB V-Ram.:p
War nur so eine Idee von mir....
 
es hieß doch auch mal 768mb ram und 384bit speicheranbindung oder? dann wuerde das genau aufgehen 12x64
 
Eben.Nvidia kommt später mit DDR4 als ATI es schon mit der X1950XTX eingeführt hat.:D
 
@AshS

früher hatt man das immer über den Prozi gerneder (alles was vor 1994 da war ) und bei cs 1.6 kann mann openlg,d3d,und SOFTWARE einstellen (wenn man letzeres nimm rechent die cpu alles )das siht dan so aus


P.S. ich glaube hier sin sich alle einig das das eher UNSCHÖN aussießt und genau deshalb wurden gpus eingefürt um die bilder saubere detialreicher und schöhner zu rendern.
 

Anhänge

  • cs1.6.jpg
    cs1.6.jpg
    180,4 KB · Aufrufe: 649
Zuletzt bearbeitet:
Fälschung hin oder her , die Karten sind wegen ein paar % Frames mehr viel zu unwirtschaftlich .
 
Zurück
Oben