News Möglicherweise erste Bilder zum G80

Mh, sollten sich die Bilder zumindest teilweise bewahrheiten, dann wäre meine Vorstellung, der G80 wird ähnlich "unschön" wie die 5950 Ultra, richtig. Groß, heiss, (laut), und vmtl. wenig performance (also "wenig" im Sinne von "Verglichen mit der Konkurrenz"). Hab von Anfang an vermutet der G80 wird wieder so ne Brückenkonstruktion.... hoffentlich bewahrheitet sich das ned :/

Dabei ist es doch diesmal ATI, welche wohl die größten Neuerung (echte SM4-Shader) einbauen. Groß "rausreden" wie damals mit der Einführung von SM3 bei NVidia kann man sich hier also nicht. Und auch die Strukturumwandlung auf kleinere Breiten (was zwar an sich gut ist, aber eben auch Probleme mit sich führen kann) hat NV doch noch vor sich, oder irre ich mich da!? Ich hoffe inständig NV verkalkuliert sich mit diesem Gefährt nicht wieder genauso wie mit der gesamten FX-Serie.

Gut, andererseits konnte ATI ja schon mit dem XBox2-Grafikchip ein wenig Erfahrung sammeln.
 
Zuletzt bearbeitet:
die kühlung ist wirklich etwas eigenartig, alleine deshalb schon, da nVidia nicht davon ausgehen sollte, dass jeder eine Wakü hat.

desweiteren hoffe ich nicht, dass der Stromverbrauch wirklich so extrem hoch ist, und das die bilder einfach nur ein früßhes stadium zeigen, ansonsten könnte die reihe wieder so ein flop werden wie schon die 5000er und 6000er es waren (meiner ansicht nach).

nVidia sollte einfach versuchen, den stromverbrauch zu senken, und dann mal weniger typen der graka rauszubringen, da es momentan einfach zu viele sind!
 
na toll ^^
jetzt geht's also wieder los mit den ersten Bildern von neuen GraKas...

kommt mir so vor als wäre es erst gestern gewesen, dass der letzte Chipsatz von NVIDIA vorgestellt wurde ^^
 
... ich denke, wir werden es abwarten müssen, und bis zum wirklichen Release, wird noch einiges an Wasser den Rhein herunterlaufen ...
 
na da wird wohl die stromrechnung in einigen haushalten stark ansteigen wenn diese karten rauskommen.

ein externer strumanschluss wäre (wie ich finde) praktisch. man wäre so von einem neukauf des nts verschohnt. aber wir werden ja sehen was uns die zeit bringt :D
 
Vesch, wo war den die 6000er serie ein Flop?

andrewPoison, warum soll der G80 kein "echtes" SM4 haben? US Architektur hat damit NICHTS zutun
 
Ich denke das geht in die falsche Richtung, wenn die wirklich eine so stark gestiegene Verlustleistung hat.
Aber erstmal abwarten was Nvidia wirklich rausbringt, vielleicht kommt es ja auch anders. Das hoffe ich zumindest.
 
Was mich da ein wenig skeptisch stimmt ist die Tatsache, dass dann selbst auf dem G80 noch das alte nVidia Logo drauf ist. Müßte dann nicht eigentlich schon das neue Logo da drauf sein? (unten rechts auf den beiden oberen Bildern zu sehen) Ist ja nur Spekulation^^

Generell fänd ich es aber gut, wenn in Zukunft ab Werk Grafikkarten mit Wasserkühler kommen würden, dann würde das Neukaufen eines solchen Kühlkörpers auch wegfallen :) Von der Garantie jetzt mal abgesehen... ^^
 
@AndrewPoison
fast hätten wir es geschafft, eine nvidia-news mal ohne das wort ATI zu kommentieren ;)

@topic
die sache mit der wakü/lukü finde ich eine gute idee, wer eine wakü hat, hat dann keinen garantieverlust mehr durch das wechseln des kühlkörpers. und die ohne wakü benutzen halt die normale lukü.

baFh
 
Warum kann ich keine Bilder sehen? (Firefox)

Ich bin persönlich noch sehr skeptisch, dass sie Eine Wasserkühlung als Massenproduktion an den Start legen werden, denn wie schon erwähnt wurde, hat nicht jeder (inkl. mir) und das wäre nicht "fair" dem Endkunden gegenüber.

Für mich klingt das Ganze sehr unreif, jedenfalls dass die Karte schon ende November in den Läden stehen sollte bezweifle ich.

Lassen wir uns mal überraschen was nVidia auf den Tisch zaubern wird!
 
egal ob prototype oder nich so könnte das finale desinge immerhin sein und das die einmal mit wasser und luft kühlung gibt is auch nich schlecht
 
@ 11

Wer lesen kann ist klar im Vorteil !

Der Bericht auf vr-zone ist vom 29. September ... tz tz
 
Faint schrieb:
Vesch, wo war den die 6000er serie ein Flop?

frag ich mich auch... mal abgesehn von dem (fast vollständig) gefixtem Flimmer-Bug.

andrewPoison, warum soll der G80 kein "echtes" SM4 haben? US Architektur hat damit NICHTS zutun

Der G80 hat nach wie vor getrennte Shader-Einheiten. Diese werden nur über den Treiber als "eins" angesprochen (was zwar zulässig, aber sicher nicht die beste Wahl ist). Die GameStar hatte das neulich auch mal kritisiert, weil so doch viel Power brach liegt. Finde leider grad das Zitat ned :/

edit: hab das Zitat:

GameStar schrieb:
Ähnlich fundamental wie der Übergang von fest vordefinierten Grafikfunktionen zum programmierbaren Grafikprozessor ist auch der Wechsel von ShaderModel 3.0 zu ShaderModel 4.0 von Direct3D 10. Zum einen bekommen die Shadereinheiten Zuwachs: der Geometry-Shader schaltet sich zwischen Vertex- und Pixel-Prozessoren und soll die Geometrie manipulieren, um zum Beispiel beeindruckende Morphing-Effekte oder Displacement Mapping zu schaffen - eine Funktion, die schon seit lngerem Standard ist, aus Gründen der Performance aber nur in technischen Demos und nicht in Spielen zum Einsatz kam. Zum anderen werden bei DirectX 10 die Shader-Einheiten gleichgeschaltet: Zumindest aus der Perspektive der Software kann jede Einheit die Aufgaben der jeweils anderen erfüllen, auf Hardware-Ebene ist die Vereinheitlichung noch optional. ATI hat hier mit dem Xenos-Grafikchip der Xbox 360 bereits Erfahrungen gesammelt und will dies beim kommenden R600-Grafikprozessor für PCs beibeihalten. Der Vorteil von auch in Hardware einheitlichen Shader-Einheiten ist die bessere Auslastung des Grafikchips: in Szenen, in denen hauptsächlich Pixel-Arbeit zu leisten ist, liegen mit herkömmlicher Hardware die Vertexshader brach - und umgekehrt ebenso. Diese Situation wird auch bei NVidias nächster Geforce auftreten, weil NVidia maximal Vertex und Geometry Shader auf den gleichen Nenner bringt.

baFh schrieb:
@AndrewPoison
fast hätten wir es geschafft, eine nvidia-news mal ohne das wort ATI zu kommentieren ;)

naja, zumindest isses kein Geflame gewesen, ist doch auch schonmal was ;)
 
Zuletzt bearbeitet:
Die Kühlung ist mir erstmal egal kommt eh ein Innovatek drauf, aber die 2 Stromanschlüsse beunrugen mich, hab mal gelesen das der G80 evtel eine Dualcoregpu haben soll, ob das stimmmt weiß ich nicht aber auf 200Watt Verlustleistung oder mehr habe ich keinen bock drauf.
Hoffentlich ist das nur auf dem Testding drauf.:evillol:
 
ich denke, das der G80 praktisch fertig ist und marktstrategisch werden die ersten Häppchen verteilt - so wie immer halt.
gespannt bin ich auf die SLI spezifikationen !
 
Bin ich der einzigste der das sieht , oder geht der wasser anschluss wirklich nur oben rein und dann direkt wieder raus ?


ai0si7rcr6mns5kau.jpg



@ Towatei , ups übersehn
 
Zuletzt bearbeitet:
nein du bist nicht der EINZIGE der das sieht..das hab ich schon in Post 6 angesprochen.....
 
Zurück
Oben