News Angebliche Spezifikationen des G100 (G200)

gerüchte... was soll man davon schon halten?!

lieber abwarten... vor allem wenns so übertrieben ist!
 
Finde das ÜBERHAUPT nicht übertrieben.
Das hört sich eher nach einer G92 Ultra X2 an.

Zitat:

"Ein Grafikchip, der acht GDDR5-Chips über 256 Leitungen anbindet, könnte bei 3 GHz Speicher-Taktfrequenz mit bis zu 192 GByte/s auf Daten zugreifen."

Also hört sich 205 Gbyte/s mit 512Bit Anbindug gar nicht viel an, wahrscheinlich ist der GDDR5 doch nur mit 1,6-2.0 Ghz getaktet.
Muß ja auch bezahlbar bleiben.
GDDR4 wird ja auch nicht in der höchsten Taktung verbaut. Testmuster > 1,8, Karte = 1,2 Ghz

Der Chiptakt ist ja auch kein Wahnsinn.
780Mhz.
Wo jeder C2D auf 3000Mhz geht...
Kann man nicht ganz vergleichen, eh klar, aber wenn es 2 oder 4 kleinere GPUS werden statt einem Transistormonster...

Wenigstens werde ich jetzt nicht mehr ausgelacht, wenn ich behaupte, daß 1024MB Vram 2008 zum breiten Standard werden.
Und ich keinem Raten würde eine G92 mit 512MB zu kaufen.
Unbedingt zur 1024MB Version greifen.

Warum sollen 90-100 Watt das höchste der Gefühle sein, für eine Top Karte?
https://www.computerbase.de/2007-03/enermax-zeigt-erste-netzteile-fuer-pcie-2.0/
Erster Satz des Artikels:
Auf der CeBIT 2007 zeigt Enermax erste Netzteile, die bereits die PCI Express 2.0-Spezifikation erfüllen. Mit diesem neuen Standard wird nicht nur die Geschwindigkeit verdoppelt, sondern auch die zulässige Leistungsaufnahme von Grafikkarten auf 300 Watt erhöht.

Nicht immer wegen dem Stromverbrauch bei Spitzenleistungsgeräten jammern.
Fürs Stromsparen gibts Notepads oder Handycomputer.
 
Zuletzt bearbeitet:
ich vermisse noch den edram for "free 4x aa". wobei ich mir das durchaus vorstellen kann.
 
Naja das passt nicht zusammen. Nvidia wird bestimmt auch auf 55 nm umsteigen. Wie lauten denn eigentlich die Gerüchte um den R700, soll der dann in 45 nm kommen (Ende 07 könnte 45 nm ja schon machbar sein in den komplexen GPUs)?

// @) Rasemann

"jeder C2D geht auf 3 Ghz" .... der war gut :D, mein sch*** E4300 ging nicht weiter als Standard-Takt und nun ist das Ding auch wieder weg - zum Glück :p
 
Zuletzt bearbeitet:
wer sagt denn, es sei unmöglich?

das gleiche wurde zu den gerüchten damals über die 9700pro von ati gesagt: "unmöglich - niemals ein 256bit speicherinterface - taktraten unwahrscheinlich - etc..."

und was war? allen ist die kinnlade runtergefallen, als sie vorgestellt wurde ;)

uns konsumer kanns nur freuen, wenn wieder ne hammerkarte rauskommt :)

in diesem sinne - einen guten rutsch
w.
 
LOL - Die Specs sind realistisch. Wenn man bedenkt, das es eine Multicore GPU ist - könnte es durchaus sein, die TDP jeder einzelnen GPU gegenüber einer G92 um 25% zu senken. Nunja - das sind technische Angaben auf Niveau der Autoindustrie (Benzinverbrauch - LOL)

Aber was interessant wäre - über die Leistungsaufnahme schweigt man. Mit 2 GB VRAM und 4 oder mehr GPU Kernen dürfte das Teil ja wohl ne Schweissstation als Netzteil brauchen.

Ich warte schon jetzt auf den Nachfolger/Refresh Chip im 45 Nm Verfahren - ROTFL.
 
Ich bezweifle, dass Nvidia vorhat so rasch in die Vollen zu gehen.
Wäre irgendwie marktverfrüht würd ich meinen.

Je nachdem was an den Gerüchten dran ist, dass Intel Ende 2008 auch bei den Grafikkarten mitmischen will ist eine neue Super High End Graka von NVidia gar nicht so unrealistisch. Vor allem sollte man bedenken, dass sich Intel vor noch nicht langer Zeit Havok unter den Nagel gerissen hat.

MfG Pantherfibel
 
Ich denke auch das die Specs vor dem Hintergrund einer Dualcore Karte nicht ganz so weit hergeholt sein müssen.Wenn man Preis/Leistung der G92 GT und GTS Karten sieht müssen sie schon was Ordentliches auffahren um uns Hardwarefetischisten 600-700€ aus der Tasche zu ziehen. Da erwarte ich schon fast 1,5-2 GB Speicher :D . Und der Stomverbrauch ist in den vorraussichtlichen Preisregionen der Karte auch nicht mehr DAS K.O.-Argument.
 
Zuletzt bearbeitet:
Finde das ganze für nächstes Jahr auch nicht so unrealistisch. Die neuen High End Karten müssten mindestens doppelt so schnell sein wie die aktuellen, aufgrund SLI. Das 3 fache an Leistung sollte angebracht sein :)
Die sollen nur endlich hinne machen. Kann es kaum noch abwarten xD
 
Wers glaubt...
Da hat mal wieder jemand schön seine Phantasie spielen lassen und alle verbreiten den Unsinn :rolleyes:
Gut, dass die Serienproduktion von GDDR5 erst Mitte 08 anlaufen wird und selbst Samsung erst max. 3 GHz angekündigt hat, die man sicherlich auch nicht gleich am Anfang erreichen wird. Also wenn die Daten irgendeinen Bezug zur Realität haben sollen - wovon ich nicht ausgehe - dann ist das ne Graka für frühestens 2009.

Dass die TDP bei gleichem Herstellungsprozess und doppelt so vielen Shadereinheiten derart sinken soll, ist genauso realitätsfern, aber das hat Volker ja schon erläutert.
 
Zuletzt bearbeitet:
15–25 Prozent geringere TDP als GeForce 8800 GTS

Naja ist wirklich sehr merkwürdig dafür das die Karte soviel power haben soll. Naja wenn das wirklich geht, sprich da snciht nur nen Gerücht ist, dann würde ich mir die GPu kaufen, sofern sie nicht mehr wie 350 EUR kostet. Da ich aber bezweifel das Nvidia je solche karten bringen würde, zumindest in dem Preisrahmen mit den Spezis, wird es wohl leider weiterhin ne ATI bleiben.

Aber da es eh nur gerüchte sind... dann heisst es wieder abwarten.

gruss Jens
 
Vor allem ist auch die Anzahl der Stream Prozessoren relativ egal, solange man nicht näheres über deren Design weiß...
 
Das es nur Gerüchte sind ist klar. Das der Wahrheitsgehalt recht recht hoch sein kann ist zumindest nicht vollkommen abwegig. Über 2 Dinge bin ich mir allerdings (sollten die restlichen Daten so stimmen) recht sicher.

1. Wird der Stromverbrauch ...sagen wir... ein "klein wenig höher" sein, und
2. Wird eine Karte mit diesen Daten sollte sie im nächsten halben Jahr erscheinen im Leben keine 350€ kosten (ich will nicht schwarz malen , denke aber das die Wahrheit eher beim doppelten liegen wird).

Nun ja.... lassen wir uns überraschen :D
 
Zuletzt bearbeitet:
Das das alles Blödsinn ist ergibt sich doch schon aus den Daten :

doppelt so viele Streamprozessoren und höherer Takt wie die gts, aber weniger Verbrauch bei gleichem herstellungsprozess.

Achja : dahinten steht der Koffer mit den Knochen von dem Bären, den ihr euch aufbinden lasst.
 
* Codename: G100
* Herstellung in 65 nm
* 256 Stream-Prozessoren
* 780 MHz Chiptakt
* 3.200 MHz Speichertakt
* 512 Bit Speicherinterface
* 2.048 MB (256X8) GDDR5 (0.25-0.5 ns)
* Dual DVI
* Unterstützung für DirectX 10.1, VP3
* 15–25 Prozent geringere TDP als GeForce 8800 GTS


Das is schon krank 32GHz das is schneller als meine Cpu die ich jetz habe. Was ich aber wichtiger finde was verbraucht das ding Ca.
 
Wenn das wahr wäre, könnt ihr euere neuen 8800 GTS (G92) gleich wieder auf den Müll werfen.

Der G100 wäre dann ca. 3 mal schneller. Crysis auf 1920x1200 auf Extreme mit 8xAA und 16xAF mit 60+ fps wäre aber doch geil ^^. Das wäre dann was für die oben genannten Specs.
 
Ist denn schon April, dann würde ich diese Nachricht für einen Aprilschertz halten...!
 
205.000 MB/s ist falsch gerechnet! 512bit Speicherinterface + 3200Mhz Speicher (also 0,3125 ns) ergeben 409.600 MB/s.
 
Zurück
Oben