News Angebliche Spezifikationen des G100 (G200)

-Dennis- schrieb:
....Achja, wie berechnet man die Speicherbandbreite?
@ 9) -Dennis-

Man nehme das Speicherinterface, hier 512 bit, teile es durch 8 (da 8 bit = 1 Byte) und multipliziert das mit dem Speichertakt, hier 3200 MHz. Also sieht es dann so aus.

512 / 8 = 64 * 3200 = 204.800 MegaByte pro Sekunde oder 204,8 GB/s

Zum Vergleich,

die 8800Ultra hat 384 bit mit 2160 MHz ≈ 104 GB/s
die 8800 GTX hat 384 bit mit 1800 MHz ≈ 86 GB/s
die 8800 GTS hat 320 bit mit 1600 MHz = 64 GB/s
die 8800 GT hat 256 bit mit 1800 MHz ≈ 58 GB/s

die 2900 XT hat 512 bit mit 1650 MHz ≈ 105 GB/s
die HD3870 hat 265 bit mit 2250 MHz ≈ 72 GB/s

Ich hoffe ich konnte Licht in's Dunkle bringen, wenn man's erst ma verstanden hat, ist es ganz einfach zu berechnen.

MfG Crazy-Chief

P.S: meine GeForce 6600 GT hat 1,0 GHz mit 128 bit macht dann 16 GB/s, da würde sich ein Wechsel langsam mal lohnen, hätte ich da nicht das AGP Problem, was ein einfaches austauschen der Grafikkarte unmöglich macht!!!
 
Zuletzt bearbeitet:
Hallo zusammen, so unglaublich find ich die Specs der neuen Karte garnicht.
Hab mir Mal die Mühe gemacht den Originalthread (Chinesich) und die Originalquelle(Thread) durchzulesen und hier die wichtigsten Infos auf Englisch:

Prediction flagship NV: GEFORCE9800GTX, GDDR5 used, the specific issue on ONGOING
GeForce 9800GTX graphics chip
NVIDIA chip makers
256 bit interface chip
0.65-micron manufacturing process
Core code G100
Graphics core frequency of 780 MHz frequency
Frequency of 3200 MHz memory
Memory specifications memory types DDRV
Memory capacity (MB) 2048MB (256X8)
512 bit memory interface
Description DDRV 0.25ns memory using memory-0.50
Memory speed (ns) 0.25-0.50ns
The maximum resolution 2560 * 1600
Thermal cooling card cooling fans
PCI bus interface card interface-E2.0 16X
UDI dual 24-pin DVI-I interface
3D API DirectX 10.1
SP unit 256 (using virtual technology, the actual remains 128)
(The above is an internal source for NV speculation, the actual situation may change)

It has been learned: As the 3850/3870 ATI massive trip, NV will be on February 14 this year released on time with the 9600 GT confrontation, and continue to be in high-end 8800 GTS 8800GT 512MB play, the 8800 GTX shutdown

As ATI's high-end aspects of R700 uncertainties, GEFORCE 9800 GTX will depend on the R700 to the performance of specific decisions, but basically have been identified Skip GDDR4, instead of GDDR5 to cope with the new G100 core, Samsung has stated that it will in the next 08 GDDR5 volume production six months, and as early as 9800 GTX GDDR5 will be the first batch of prenatal supply to meet the 9800 GTX available for sale to meet the high-end market

But the price will be GEFORCE9800GTX NV past than the more expensive high-end products, to a large reason for this is that the relationship between the GDDR5, G100 in the overall framework for a very substantial adjustment, compared with the same frequency 8800 GTS fever were reduced by 15% -25% and the core overclocking better performance, and the introduction of virtual SP, in the original SP can increase a number of times (virtual performance to the original 1.3-1.5 fold), support DX10.1

HDTV adoption VP3, and finally got rid of the high-end graphics HD behalf of the shortcomings of entering in the low-end, for fever and cost considerations G100 may be used 55 NM process, or specific to the situation and the R700 yield decisions, which have rumours that the 9 Series will be the last generation of single-core GPU (high-end)

PS: The above situation is forecast personal version, not provide us with any legal responsibility, if identical, coincidentally

Sieht doch garnicht so schlecht aus, da auch Samsung wohl schon GDDR5 "unter der Hand" an NV liefert und bei Erscheinen der 9800er (lt. Fred^ am 14.02.08 *freu*) gegen den R700 dann auch für andere Hersteller GDDR5 verfügbar (in Massen) sein soll...

Ich finds gut, dass ich noch meine 88erGTS640MB hab, währ fast auf den G92-Zug aufgesprungen.....:stacheln:
 
Peterkrätze schrieb:
205.000 MB/s ist falsch gerechnet! 512bit Speicherinterface + 3200Mhz Speicher (also 0,3125 ns) ergeben 409.600 MB/s.

Das ist schon ungefähr richtig.
512bit / 8 * 3200 MHz = 204800 MB/s bzw. ~195312 MiB/s

edit: argh zu spät

@TRixxY
Nochmal: Samsung hat GDDR5 Serienfertigung für Mitte 08 angekündigt, dass nV ein paar Samples kriegt ist klar, damit kann man aber keine Grakas verkaufen.
 
Zuletzt bearbeitet:
@41: Wenn die TDP geringer wird als die aktuelle GTX, wird das Kühlen nicht schwer.

@3: Eine GX2 besteht aus zwei Chips der GTX oder Ultra-Version auf einem PCB - nix mit Next-Gen.

Btt: Mal sehen, wann die Karte an den Markt kommt. Ich kauf dann wieder die GTS-Version, mit 1GB VRAM. :D
 
Bin mal gespannt wie das mit GDDR5 aussieht, genau so wie die gekuehlt wird :). Erstmal abwarten was jetzt als naechstes kommt.
 
Falsch!

In den News stehen unter den Daten 0.25-0.5 ns GDDR5, was 2000-4000Mhz physikalischen! Takt bedeutet. Also müssen sich die 3200Mhz auf 0.3125ns beziehen. Das bedeutet also 3200Mhz physikalischen Takt und wegen DDR muss das Ganze nochmal mit 2 multipliziert werden:

512bit / 8 * 3200 MHz * 2 = 409.600 MB/s

8800 GTX als Beispiel (900Mhz Speicher (1800 DDR) Speicher, was ~ 1.1ns bedeutet) :

384bit / 8 * 900 Mhz * 2 = 86.400 MB/s
 
schöne sache :) wenn das zutrifft, hammer o0

dann würde sich ja mein warten doch belohnt machen und nicht wie viele (hier), jeder neuen graka, die etwas schneller ist wie die alte, hinterher zu rennen. und wenn die dann ~500 - 600€ kostet, wärs ja noch in nem humanen bereich, wenn sie denn wirklich 2-3 mal so schnell wäre, wie die jetzige GTX. von mir aus kanns auch erst mitte 2008 werden, da die neuen prozessoren ja auch verschoben wurden :lol:

kann mir eigentlich noch jemand den unterschied zwischen DDR und GDDR sagen?! thxthx :)
 
Also ich kann mir gut vorstellen, dass diese Daten stimmen. Wir wissen ja nicht, wann der G100 erscheint. Ursprünglich war ja immer von Ende 2008 die Rede und der G100 sollte auch deutliche Architekturveränderung aufweisen im Vergleich zum G9x.

Meiner Meinung nach basieren die Karten, die jetzt Anfang 2008 erscheinen werden nur auf den G92'er Chips und der G100 kommt wirklich erst Ende nächsten Jahres. Dann sind solche Werte auch gar nicht mal so übertrieben.
 
LOL...G200

Kennt ihr noch die Matrox Millenium G200?
So eine hatte ich mir damals 1998 für schlappe 378 DM gekauft...war schon ein mords Teil...mit 8 MB Speicher :lol:

Rob
 
umn wieviel besser werden die denn als der g 92 chip ? xD
 
@noxon
Nun gut, dann passt aber immer noch nicht ins Bild, dass man den dann nach einem Jahr immer noch in 65nm produzieren will und wie man mit doppelter Anzahl Shader die TDP drücken will. Also imho passt das alles nicht so recht zusammen.
 
Zuletzt bearbeitet:
hey den G100 gabs schon O.O .... Matrox ... NVIDIA sollte mal aufpassen wie die ihre GPUs nennt *kicher*
 
Sind hier soviele ATI Fanboys unterwegs oder wieso flamen alle dermaßen rum? Mich würds freuen wenn die Daten stimmen würden, dann kaufste dir halt so ne Karte und hast locker die nächsten 2 Jahre ausgedient. Die 8800GT war auch nen Hammer. Wenn so eine rauskommen würde wäre AMD nochmal mehr angepisst da sie erst recht nichts engegenzusetzen hätten!

@affenjack, genau davon wird man doch evtl. auch aus gehen müssen! architekturänderungen sind genau das woran ich eben denke, könnte genau so ein hit werden wie bei intel, wobei die architektur von centrino übernommen und aufgebohrt wurde! wieso sollte nv jez auch beim g80 oder g92 weitermachen, ist doch ne neue generation und da kann ich es mir schon gut vorstellen das sowas kommt
 
Zuletzt bearbeitet:
@snaapsnaap

Die daten sind aber zumindest im stromverbrauchsbereich völlig unrealistisch,unter 200W könnteste bei sonem chip in 65nm vergessen,wenn nicht grundliegende architekturänderungen gemacht würden.
Der Rest könnte passen,aber ich denke da hat sich mal einer gedacht wie kriege ich möglichst viele leute auf meine seite und sich was tolles ausgedacht,deshalb"flamen" die leute hier rum,weils überhaupt nicht merh als nen dummes gerücht ist,aber soviele das ja sofort glauben.
 
Wegen der TDP:
Schon einmal daran gedacht, daß die Spannung ein paar zehntel sinken könnte....
Oder die TDP der G80 GTS gemeint sind?

Zitat zum Ram:

"Ein Grafikchip, der acht GDDR5-Chips über 256(!) Leitungen anbindet, könnte bei 3 GHz Speicher-Taktfrequenz mit bis zu 192 GByte/s auf Daten zugreifen."

Das war aus der Meldung über GDDR5(1,5V) von Quimodia(oder so) die seit April 2007 GDDR5 produzieren und ausliefern.
GDDR4=DDR3 bringt ja zu wenig, darum hat Nvidia diesen ja übersprungen.

So, jetzt haben wir aber ein 512Bit Speicherinterface.
Macht schlappe 1600Mhz(1,6Ghz) oder besser echte 800Mhz(?) für 200 GByte/s

Es ist anscheinend tatsächlich eine Singlecorekarte.
Zu Ostern werden wir es wissen.

PCIe 2.0: Maximal 300 Watt ALLEINE für die Grafikkarte zulässig(75W über den Sockel)

Diese ganzen Werte wären schon für eine Dualcore G92 Ultra nicht utopisch, dann passen auch 2GB Vram bestens.

Besser als die Bildzeitungswürdige CB-Schlagzeile macht sich die Sache hier:
http://www.tweakpc.de/news/13100/termin-fuer-geforce-9800-gx2-bekannt/
 
Zuletzt bearbeitet:
"GDDR4=DDR3 bringt ja zu wenig, darum hat Nvidia diesen ja übersprungen."
GDDR4 bringt schon was. Der Verbrauch ist niedriger gegenüber GDDR3 und man erreicht sehr hohe Taktraten, die mit GDDR3 nicht möglich sind. Nvidia ist selber Schuld, dass sie auf GDDR4 verzichten. Allerdings sind die Chips auch nicht so verfügbar, wie die älteren, und preislich auch etwas teuer. Eine Art Lückenfüller zwischen GDDR3 und GDDR5.

So und nun wünsch ich euch Nvidia Fanboys und ATI Fanboys noch einen schönen Abend!
 
Zurück
Oben