News GT300: 3 Mrd. Transistoren und bis zu 6 GB GDDR5?

Chipausbeute bei der hohen Transistorzahl wird relativ gering sein, dazu noch Produktionskosten... die Karten auf basis dieser Chips werden schön teuer.

Und in heutigen zeiten wo Energieverbrauch ne große rolle spielt bei dem vermutlich nicht kleinen Verbrauch der Karte kann ich nur mit dem kopf schütteln.

Aber warten wir's ab bis sie da ist und erste Tests gemacht wurden alles andere ist auch von mir nur Spekulation!
 
Lassen wir uns einfach überraschen, damals sollte die GeForce FX 5800 auch alles in den Boden stampfen.
Würd mir gern anfang April ein High End PC zusammenbaun, da kann ein "Reaktor" nicht schaden^^.
Ich könnte mir aber auch gut vorstellen das Nvidia solche Gerüchte verbreitet um einen guten Verkauf der HD5k reihe verhindern zu wollen.
 
Zuletzt bearbeitet:
Schade, ich hatte gehofft dass Nvidia endlich von diesen Monsterkarten abkommt und sich was max. Leistungsaufnahme und Chipgröße betrifft etwas mehr an ATi annähert.

Hoffentlich gibts diesmal dann wenigstens eine neue Mittelklasse und nicht wieder umgelabelte G92 Chips...

Die einzig erfreuliche Nachricht: Als Freund von hochauflösenden Texturen begrüße ich natürlich die Mindestausstattung von 1,5GB VRAM :D (sollten sich die ersten Gerüchte als wahr herausstellen)
 
Zuletzt bearbeitet:
War mir schon länger klar, dass die von Nvidia jetzt schnell mit Fakten kommen müssen, sonst kaufen sich zu viele Leute halt ATI. Feine Sache, das wir HEUTE damit dann wohl endlich grob eine Übersicht erhalten, was da auf uns zukommt und ob sich das Warten lohnen wird. Ich werde aber frühestens im Frühjahr zuschlagen, wenn der Weihnachtsrummel vorbei ist und die Preise sich eingependelt haben.
 
Scheiss auf Energieverbrauch, wenn die Karte richtig stark performt, ist mir persönlich der Stromverbrauch völlig schnuppe. Wer hat so ein Monster schon den ganzen Tag auf Anschlag laufen!?
 
GPU-Computing macht den Chip komplizierter, grösser und damit teurer. Also verkauft sich die billigere Konkurrenz besser, hat somit einen höheren Marktanteil und GPU-Computing setzt sich bei den Spielen nicht durch.

Nur ein Szenario, aber so wirkt das ganze aktuell auf mich. 3 Milliarden Transistoren... bis bezahlbare Mittelklasse draussen ist, hat schon jeder zweite eine ATI-Karte verbaut.

Es wäre schön, wenn sich erst mal alle auf eine Schnittstelle (OpenCL als offener Standard) einigen können und dann Bibliotheken verwenden, die auf der Hardware aller Hersteller läuft. Vorher bleibt eine Grafikkarte eben nur eine Grafikkarte und die schönen neuen Möglichkeiten bleiben ungenutzt.
 
3Mrd Transistoren nicht glauben, wäre ja abartig viel und hört sich hungrig und vor allem sehr teuer an.

hast du schon mal die anzahl bei den neuen atis gesehen? die liegen ja nicht grad weit drunter bei den verhältnissen... nur so nebenbei...

aber 6gb vram, WTF?

na man kann noch gespannter sein^^

greez
 
also ich versteh die sache mit dem energieverbrauch nicht... ihr fahrt doch alle ein auto oder ? und euch kümmerts auch n dreck ;)
 
domidragon schrieb:
hast du schon mal die anzahl bei den neuen atis gesehen? die liegen ja nicht grad weit drunter bei den verhältnissen... nur so nebenbei...

Die waren zumindest bisher aber deutlich dichter gepackt. Und 50% mehr ist schon eine Hausnummer.

also ich versteh die sache mit dem energieverbrauch nicht... ihr fahrt doch alle ein auto oder ? und euch kümmerts auch n dreck

Gutes Argument. Zumindest im Leerlauf sollte sie aber so in der Nähe der ATI-Karten liegen.
 
Zuletzt bearbeitet:
wenn die Leistung stimmt, interessiert mich der Verbrauch gegen 0
 
Numrollen schrieb:
Ne ich würde die 5870x2 SOFORT kaufen. Das ist das beste was du machen kannst.

Als wäre die schon draußen :rolleyes:. Ohne Konkurrenz kann ATI einfach so den Preis bestimmen. Ich würde da erst auf die Konkurrenz warten.

davediehose schrieb:
Ich dachte, nVidia hätte vielleicht aus der GTX 280 ein paar Lektionen gelernt.

GPU/CPU`s werden längerfristig entwickelt. Man hatte den Weg der großen GPU eingeschlagen. Wenn man zur Teit der GTX280 umgedacht hat, dann würde die umgedachte Architektur irgendwann in 2 Jahren erst kommen.
 
Diversen Aussagen zufolge wird der GT300 auf mehr als drei Milliarden Transistoren setzen.

Das ATI die Führungsspitze z.Zt. inne hat, wird nicht von langer Dauer sein. Ich hab mir dass schon gedacht, das NVIDIA ein Ass im Ärmel hat. Sind zwar bis jetzt nur Gerüchte, aber ich denke sobald die GT300 Released wurde, wird NVIDIA wieder ganz schnell ihren alten Spitzenplatz einnehmen in puncto schnellste GPU-Karten. Wenn die GT300 dann noch in puncto Idle- Vollastverbrauch glänzen kann, dann bleibt ATI (wieder) nur der zweite Platz.

BTW: Gibt es schon einen NDA-Termin ?^^ :)
 
crYquZ schrieb:
also ich versteh die sache mit dem energieverbrauch nicht... ihr fahrt doch alle ein auto oder ? und euch kümmerts auch n dreck ;)

Hauptsache die takten im Idle ordentlich runter, der Rest interessiert mich bei einer Single GPU-Karte nur peripher, da kommt es in erster Linie auf die Performance an - wobei ich erstmal auf das Spiel warten muss, welches diese auch aufsaugt, selbst Crysis sollte damit absolut flüssig laufen.
 
Wenn die Daten wirklich stimmen... :o. Kann man sich ja kaum vorstellen, aber wenn doch dann wird ATi innerhalb von einem Monat die Preise drastisch senken müssen oder die nVidia Karte wird so teuer, dass sie sich kaum jemand leisten kann :lol:.

Ich bin gespannt.
 
Mir ist der Stromverbrauch nicht schnuppe, bei meiner letzten Jahresabrechnung soll ich 182€ nachzahlen das als Singlehaushalt ca 2800kwh hatte ich!

Das kann ich nur auf meinen Hauptrechner zurückführen weil der viel läuft und ich viel damit mache, die anderen sind selten an.

Daher würde mich eine Entwicklung freuen in richtung mehr leistung und weniger verbrauch, wechseln werde ich meine Graka eh erst mit der folgegeneration von der 300 oder wenn ich eine hinterhergeschmissen bekomme...

mache ich schon immer so min 2 jahre fahre ich mit meinen Hauptkomponenten.
 
Für alle die Leistung suchen, mag dies eine oder die einzige Option sein. Da der Teil aber auf den Markt gerechnet wohl gering ist, bleibt Ati weiter interessant.

Mir bringt die hohe Leistung wenig, da primär halt Silentbetrieb und Stormeffiziens eine Rolle spielen. Ich werde mich also nach der 5770 richten sofern Nvidia nicht doch noch mit ungeahnter Stromeinsparung überrascht.

Festzuhalten bleibt, gut für den Wettbewerb und die Entwicklung im Grafikkartenmarkt ist es auf jeden Fall, mich freuen gute Nachrichten immer, egal von welcher der beiden Firmen.
 
Bitte entschuldigt meine Noob-heit :)

Was genau hat ein "384-Bit breites Speicherinterface" fuer eine Bedeutung?
 
Hab mir schon gedacht das Nvidia was größeres plant. Aber 6gb Vram sind ein wenig übertrieben, 3 passen da schon eher in die Zukunft (auch wenn diese wohl kaum ausgenutzt werden können)
Wird wohl wieder so ablaufen, das Ati die P/L Krone bekommt/behält und Nvidia die Leistungskrone.
Ich würde mich jedenfalls freuen wenn sie die 8800 Ultra endlich erneuern ;)
 
Zurück
Oben