G80 NewsFlash

btw.

Kleiner Tipp!

Die Aegaia (wie auch immer, lol) PhysX Karten werden zur Weihnacht fast um die Hälfte billiger! denn 210€nen für ne Physikkarte, nee danke. Aber für 120€ ists ne Überlegung wert!
 
@Ptrk
was willst du unter 1024 mehr performance?
ob 100 oder 200fps merkt kein mensch
mal davon abgesehen das auch bei dieser auflösung eine g80 ins schwitzen kommen kann
hängt nur von den einstellungen ab

man nehme 4x4 ssaa und schon sacken die fps tief in den keller
 
bensen schrieb:
@Ptrk


man nehme 4x4 ssaa und schon sacken die fps tief in den keller

Seh ich genauso!

Wer macht das schon?;)

Ich frage mich warum man so tolle Dinge wie SLI-Antialiasing oderr 8xS Antialiasing eingeführt hat, wenn sowieso die meisten Spiele auf diesen Einstellungen unspielbar sind.

Ich wette mit einem G80 wird sich das nicht ändern!
 
FÜr alle die, die es interessiert, hier ist schonmal ein kleiner preview! Sogar auf deutsch für die, die des englsichen nicht mächtig sind...;-)


MfG

Fezza
 
Das Preview ist wirklich interessant. Es bestätigt die schon seit einiger Zeit aufgetauchten Specs.

Das der G80 nun doch US beherrscht finde ich richtig klasse. :daumen:

mFg tAk
 
Ich habe mir den ganzen Artikel auch durchgelesen von PC Welt. Und muss sagen das der G80 nichts für mich ist. Das lange PCB gefällt mir schon nicht und warum wird immer noch auf 90nm gefertigt, wenn schon 80nm möglich ist. Aber gut, das die Grafikkarte angeblich nicht so heiß werden soll. Naja bei dem Monsterkühler wahrscheinlich auch. Der Stromverbrauch bei "Volllast bis zu 200 Watt " ist nicht ohne, aber zu erwarten. Naja ich denke, ich werte erstmal auf den R600 warten oder auf die Refresh Chips. Nimmt man alles zusammen, sind die Spezifikationen aber nicht schlecht. Kaufen werde ich mir einer von den High-End Modellen aber erstmal nicht. Meiner Ansicht nach lohnen sich solche Karten für Gamer erst lange nach Weihnachten eben wann Crysis kommt.
 
In dem Bericht der Pcwelt steht das die GTX nur 30% schneller sein soll als die x1950xtx und die GTS sogar nur gleichauf. Das wäre echt bescheiden!
 
Psylocitz schrieb:
In dem Bericht der Pcwelt steht das die GTX nur 30% schneller sein soll als die x1950xtx und die GTS sogar nur gleichauf. Das wäre echt bescheiden!
Das wäre nur normal...PCWelt-Leser sind aber auch selber schuld...

ich denk dass es der PS3chip ist aufgrund der 128shaderUnits und der nicht so durchdachten Stromversorgung...

iLL
 
Psylocitz schrieb:
In dem Bericht der Pcwelt steht das die GTX nur 30% schneller sein soll als die x1950xtx und die GTS sogar nur gleichauf. Das wäre echt bescheiden!

Sag ich ja... :freak:
 
-.- ihr Helden ;)

Es ist allerdings davon auszugehen, dass die 3D-Leistung noch steigen wird, wenn Nvidia in den nächsten Monaten den Forceware-Treiber für die Geforce-8-Familie optimiert.

Mal abwarten....

MfG B@dehose
 
Psylocitz schrieb:
Das wäre echt bescheiden!


Hmm, allerdings halte ich die Verdoppelung der Leistung noch für unsinniger...

Denke aber 30% sind ein wenig dünn, ich hoffe mal dass das nur ein Gerücht war.


Zitat ausm Bericht:

"Trotzdem kommt die Geforce-8800-GTX-Referenzkarte mit einer Luftkühlung aus, die erstaunlich leise arbeitet. Und trotz des hohen Stromverbrauchs wird das Topmodell im laufenden Betrieb nicht so heiß, wie wir das für ein solches Grafikkartenmonster erwartet hätten."



Wäre ja super
 
Zuletzt bearbeitet:
Hey ich hab nie behauptet dass das beim Release der Fall sein wird
:p

Ich kann mir ohnhin vorstellen dass es en extra Treiber gibt wegen der neuen Architektur. Aber immerhin werden dann die 30% "etwas" überboten, außerdem hat ja eh keiner en sample....

MfG B@dehose
 
Zuletzt bearbeitet:
Ja ich befürchte fast das wirs einfach abwarten müssen:)

OT: Was, Ahrtal? Is ja lustig ich komm aus dem Aartal, hehe ...tztz Ahrtal...:D
 
Jo kenn ich, aber das liegt etwas weiter von hier weg :P
Das Ahrtal ist zwischen Bonn und Koblenz auf der linken Rheinseite...

@Topic

Was ich aber sehr interssant finde, ist dass die GTS 640MB RAM verbaut bekommt und nicht einfach 512. Ich frage mich ob das nur dem locken von kunden dienlich ist, die dann die 512 1950XTX als schlechter empfinden sollen, oder ob der Chip wirklich die Power hat den RAM auch auszunutzen oder ihn sogar benötigt.

Denn im mom sind 512MB ja mehr als ausreichend, 256 sind erst vor gut einem Jahr in den Bereich "Könnte knapp werden bei neuen Games" geraten.

Natürlich kann ich nicht über D3D10 richten, zudem sind ja die Unreal3 Engine und CryEngine 2 [ich verweiße auf diese MEGA Engine MadeInGermany :) https://www.computerbase.de/news/gaming/crysis-engine-gegen-realitaet.17320/ am Start.

Naja, zudem müssen wir abwarten ob der R600 wirklich mit 1GB DDR4 Daher kommt, es sprechen 2 Dinge dagegen:

  • 1. Der preis wird kaum an nVidia angleichbar sein
  • 2. Wer bitte hat so viel DDR4 RAM zur Verfügung der auch noch schneller takten soll als der GTX RAM

Fragen über Fragen, was meint ihr?
 
ja, gddr4 speichzer ist zur zeit noch unverhältnismaßig teuer im gegensatz zu gddr3! Das liegt daran, dass dieser noch relartiv neu ist und die unternehmen ihre produktion noch nicht von gddr3 auf gddr4 umgestellt haben, also nur in sehr kleinen stückzahlen produzieren.

Infineon hat zum beispiel letztens noch bekannt gegeben, dass man erst gar nicht gddr4 herstellen möchte und direkt auf gddr5 umsteigen möchte, da sie meinen mit gddr3 noch taktraten von bis zu 1,2ghz zu erreichen. und da der einzige vorteil von gddr4 im grunde die höheren taktraten sind scheint dieser vorteil nun doch nicht so gravierend zu sein und aufgrund des günstigeren preises von gddr3 zu verpuffen...

MfG

Fezza
 
B@dehose schrieb:
Was ich aber sehr interssant finde, ist dass die GTS 640MB RAM verbaut bekommt und nicht einfach 512. Ich frage mich ob das nur dem locken von kunden dienlich ist, die dann die 512 1950XTX als schlechter empfinden sollen, oder ob der Chip wirklich die Power hat den RAM auch auszunutzen oder ihn sogar benötigt.

da ist eigentlich nichts komisches dran
ein speicherchip hat momentan eine kapazität von 64mb und eine busbreite von 32bit

für ein 320bit SI benötigst du also 10 bausteine
kannst dir ja ausrechnen wie groß dann die kapazität ist ;)

die krummen zahlen kommen von der krummen busbreite
bisher hat man die immer verdoppelt, aber 512bit waren wohl zu aufwendig und man hat 384bit genommen

warum man jetzt aber wirklich in 64bit schritten variiert versteh auch nicht ganz
da hätten sie auhc früher 193bit SI bringen können, hätte der einen oder anderen karte gut getan
 
bensen schrieb:
die krummen zahlen kommen von der krummen busbreite
bisher hat man die immer verdoppelt, aber 512bit waren wohl zu aufwendig und man hat 384bit genommen

Man hat das wohl auch aus Kostengründen nicht gemacht, schätze ich.

mFg tAk
 
Jo dass ist denke ich grund Nr.1, deßhalb würde es mich auch wundern wenn ATI dann 1GB auf die karten klatscht......

MfG B@dehose
 
Halli hallo,

also sobald es für die Karten Wasserkühler gibt, werd ich mir so ein Monster holen.
 
Zurück
Oben