News GT300: 3 Mrd. Transistoren und bis zu 6 GB GDDR5?

Kenner wissen - mehr als 40% Mehrleistung im Vergleich zur alten Reihe ist nicht drin.
Und endlich schließt nVidia auch auf GDDR5, was ATI schon seit mehreren Generationen so macht.

Das deutet ein wenig auf einen Flaschenhals im Konzept hin, wenn man schon durch so einfache Copycat-Aktionen um die Krone kämpfen möchte.

Ich denke bzw weiß dass die GT300 maximal 20% schneller als die HD5870 werden wird - dafür kostet sie mindestens 120€ mehr. Leistungskrone, P/L Gewinner ect. geht natürlich wie immer and AMD.

Die Penisprotese geht natürlich an nVidia :)

Und mit der HD5870X2 geht das Spiel wieder von Vorne los.

mfg,
Markus
 
Ich denke mal NVIDIA macht jetzt nur Werbung um die Leute zu verunsichern ob sie jetzt schon eine 5800 ATI kaufen sollen oder doch lieber auf die GT300 warten sollen.
Hoffe ATI senkt schnell die Preise.
Ich glaube auch das die Nvidia Karten schneller sein werden als die von ATI.
 
Aller Wahrscheinlichkeit wird denk ich mal sogar ein I7 diese Karte bremsen ! :mad:
Aber ich denke nächstes Frühjahr ist die gebongt, genauso wie ein neuer Prozessor :D
 
Nvidia braucht immer mehr Transistoren für die gleiche Leistung (siehe letzte Serien). Da ATI jetzt 2,4 Milliarden Transistoren hat, ist der relative Unterschied nicht so groß.
Daher keine Aufruhr und stattdessen Tee trinken...
 
Zuletzt bearbeitet: (Rechtschreibfehler korrigiert :-))
Alles Spekulatius solange nicht genaue Specs feststehen.
 
domidragon schrieb:
hast du schon mal die anzahl bei den neuen atis gesehen? die liegen ja nicht grad weit drunter bei den verhältnissen... nur so nebenbei...


2150Mio zu über 3000Mio ist ein gewaltiger Unterschied zumal Nvidia "mehr Platz braucht". Der GT200 hat ja schon Nachteile durch die Größe was Kosten und Fertigung betrifft. Soweit ich noch weiß kostete allein der GT200 ungefähr 100USD! Der GT300 wird bestimmt nicht günstiger sein auch wenn es diesmal 40nm sind, wird das durch die monströse Größe gefressen.
Wie auch immer wenn da wirklich so ein Monster kommt, wird sich an der Verhältnissen am Markt nicht viel ändern und wir haben weiterhin die Möglichkeit günstigere ATI Karten zu kaufen.
 
P8003 schrieb:
Aller Wahrscheinlichkeit wird denk ich mal sogar ein I7 diese Karte bremsen ! :mad:

Ich denke mal eher anderum. Die Karte wird immer noch den I7 bremsen. Und den kommenden I8 auch. Die haben einfach ne ungeheuere Rechenkraft. Was man aber in den meisten Desktop-Anwendungen einfach nicht nutzen kann.

Ion schrieb:
Hab mir schon gedacht das Nvidia was größeres plant. Aber 6gb Vram sind ein wenig übertrieben, 3 passen da schon eher in die Zukunft (auch wenn diese wohl kaum ausgenutzt werden können)

6Gb werden ganz sicher im professionellen Bereichen gebraucht. Und dort werden die auch nur auftauchen. Außer in einer HyperSuperDuper-Grafikkarte für den Desktop mit einem viel zu hohen Preis.
 
Vorausgesetzt nvidia unterlaufen keine groben schnitzer, so wage ich mal die Vermutung, dass die nVidia Karten etwas schneller sein werden als die ATIs, immerhin kommen sie ja auch später auf den Markt.... alles andere sind doch eh wieder nur Gerüchte, und wenn nach Fudzilla geht, sollten wir schon alle in der Widerstandsbewegung sein, weil morgen Skynet online geht (vorsicht ironie).

Abzuwarten bis sowohl nvidia als auch ATI die Karten auf dem Markt hat dürfte sich wie meistens lohnen, da sich dann fast immer was an den Preisen tut.

Greetz
Ganzir
 
hmm laut der news wird die karte heute dann vorgeführt oder wie? vielleicht wissen wir danach ja mehr.
 
Lustig wie ein paar abstrakte Zahlen den Leuten hier feuchte Träume bereiten :lol:

@Ion:
Die 6 GB Ram sind wohl für GPGPU, z.B. Raytracing etc. und da ist mehr Speicher besser, weil sonst die Zugriffe übers PCIe-Interface die Karte ausbremsen bzw. Leistung verpuffen lassen. Also lieber mehr lokal auf der karte lassen.

Die Zahlen sehen beeindruckend aus, gleichzeitig scheint mir die Karte für deutlich höhere Preisregionen als 350 Euro gemacht. Wahrscheinlich wird man da preislich eher mit ATIs 5870 X2 konkurrieren, als mit der 5870.
Nvidia scheint massiv auf den HPC-Server Markt abzuzielen, da kann man dann auf Dauer große Gewinne einfahren, wenn sich das etabliert, weil keine andere Architektur eine derart hohe Leistung/Watt liefert wie moderne GPUs, zumindest was parallelisierbare Anwendungen betrifft.

Naja, morgen wissen wir wohl mehr.
 
warten wir bis die ersten karten getestet werden.
auf dem blatt klingt immer alles gut ;)
 
Micheal schrieb:
Bitte entschuldigt meine Noob-heit :)

Was genau hat ein "384-Bit breites Speicherinterface" fuer eine Bedeutung?

Mehr Speicherbandbreite.

Ich verstehe auch nicht warum jetzt alle plötzlich schreien das die Karte zuviele verbraucht.
Man sollte nicht vergesst das Nvidia mit ihrer G200 alles richtig gemacht hat im Gegensatz zu ATi ihrem exorbitanden Idle-Verbrauch.
Was 40nm und ein funktionierender Energiesparmechanismus leisten kann zeigt doch die HD5870.
Ich denke mal das dieser Chip trotz seiner Größe den Stromhunger in Schacht halten kann.
 
ich will dir karte erstma in tests sehen, vorher is alles nur panikmache und werbung mehr nich ^^
 
Micheal schrieb:
Bitte entschuldigt meine Noob-heit :)

Was genau hat ein "384-Bit breites Speicherinterface" fuer eine Bedeutung?

Das der Durchsatz an Daten ansteigt gegenüber 256bit z.B.

Eine GTX 280 hat GDDR3 1.242 MHz, 512 Bit, 158976 MB/s

Eine HD5870 hat GDDR5 2.400 MHz, 256 Bit, 153600 MB/s

Somit kannst du dir vorstellen was 384-bit mit GDDR5 leisten kann.
 
Ist halt das Min - Max Prinzip. Mit möglichst kaum Stromverbrauch exorbitante Leistung erzielen wollen.

Ich für meinen Teil glaube auch, das die Hersteller sich der Probleme des Stromverbrauchs bewusst sind und versuchen den Verbrauch möglichst klein zu halten. Wer wenig Stromverbrauch haben möchte, der muss halt auf Leistung verzichten.
 
Die 6GB VRAM wird es wohl kaum im Desktop Bereich geben, steht doch auch in der News drin.
Viel interessanter wird es sein, was Nvidia gegen eine 5770 aufstellen will. Dort wird Geld verdient. Ich sehe keinen DX11 Gegner der 5770 vor Feb 2010 und eine Grafikkarte ab 250€ (ja auch die 5870) wird eben nicht viel Geld in die Kassen spülen.

Insofern kann es AMD eigentlich egal sein, welch Monster Nvidia bringt.
 
Micheal schrieb:
Was genau hat ein "384-Bit breites Speicherinterface" fuer eine Bedeutung?
Zusammen mit der Taktfrequenz des Speichers ergibt sich daraus die Speicherbandbreite.

Hier ein kleines Rechenbeispiel:

384Bit = 48Byte * 2 (2 bei DDR, DDR2, GDDR3 und 4 bei GDDR5 Speicher)

48 * 2 * 1000Mhz (Speichertakt) = 96000

96000/1024 => 93,75GB/s Speicherbandbreite

mfg.

Sonyfreak
 
Zurück
Oben