News Nvidias Antwort auf ATis HD5K-Serie Ende November?

@Turbostaat: Habe doch gesagt, dass die "1,7%" mit Vorsicht zu genießen sind und es keine verlässlichen Quellen gibt. ;)
 
Irgendwie kommen bei mir gerade Erinnerung an die FX 5800 Ultra Zeiten hoch ... war ja auch son X-Mas Flopp ^^
 
Pickebuh schrieb:
Ist ja auch logisch.
Woher soll den bitteschön die Leistung für 3 Monitore kommen ?
Eyefinity ist nichts für Gamer.
Wenn man mal von den Rändern absieht ist die Leistung für 3 Monitor absolut zu wenig.
Erst in 2 Generationen wird es vielleicht reichen aber Heute bestimmt nicht.
Man muss sich doch ersteinmal überlegen warum sich Leute die HD5870 kaufen welche ja stolze 300 Euro kostet.
Sie machen das weil ihnen ihre alte Grafikkarte einfach zu langsam ist für nur 1 Monitor !

Sicherlich gibt es einige Spiele, die bei solchen Auflösungen von einer HD5870 nicht bewältigt werden können, aber dafür wird es ja noch die HD5870x2 geben und wenn selbst das nicht reicht, muss man eben einen Gang runterschalten. Es wird aber sicherlich genügend Spiele geben, bei denen die Leistung reichen wird. Vor allem in Hinblick auf die Grafikleistung der Konsolen, die bei Multiplattform-Titeln dafür sorgen, dass die Ansprüche nicht so stark steigen, wie es bei PC-only Titeln möglich wäre.


Pickebuh schrieb:
Da bin ich auch gespannt was Nvidia für ihr neues Flaggschiff verlangen wird.
Teurer als ATI bestimmt aber im wieviel ?
600 Euro währen schon eine Menge Geld aber was ist wenn der GT300 nun doppelt so schnell ist wie die HD5870 ?
Dann währe der Preis gerechtfertigt.
Bei nur 20% schneller währe er es nicht.

AMD siedelt die HD5850/HD5870 im mittleren/oberen Performance-Bereich an. Die High-End-Karte wird durch die HD5870x2 repräsentiert und soll ja ~500€ kosten. NVidia wird ja vermutlich ähnlich wie bei der 200er Serie den unteren/mittleren High-End-Bereich mit einer 360/380er Karte abdecken. Entsprechend tippe ich mal auf ~350-400€ für die GT360 und auf 450-500€ für die GT380. Leistungsmäßig würde ich die GT380 25-30% über einer HD5870 ansetzen und die GT360 in etwa auf deren Niveau oder minimal darüber. Vom Preis-/Leistungsverhältnis hatte AMD in letzter Zeit eigentlich immer die Nase vorne und in Anbetracht der Größenverhältnisse der Chips vermute ich, dass sich daran nicht viel ändern wird.
 
WiseGuy schrieb:
Sie liegt im Mittel etwa 50% vor einer 4870. Es kann daran liegen, daß die CPU limitiert, aber definitiv bestätigen läßt sich das erst, wenn man anhand einer anderen Architektur vergleichen kann.
.

ähm, wieso wird die 5870 immer langsamer gemacht?

sie liegt im schnitt 50% vor einer 4890, zur 4870 sinds über 65%.

gruß
 
Screemer schrieb:
du hast dir das video aber schon auch angesehen, oder? die ruckler sind eindeutig keine grafikkarten bedingten ruckler sonder nachladerucker. erinnert sehr an die nachladeruckler aus gothic 3.

Selbstverständlich habe ich mir das Video komplett angesehen.
Sonnst könnte ich ja nicht behaupten das es ruckelt.
Es ruckler durchweg und sobald mehr Details ins Feld kommen entstehen regelrechte Slide-Shows.
Deshalb fliegt ja auch der Vorführer absichtlich hoch und durch den Himmel.

weil physikberechnungen prädestiniert sind um auf gpu-architekturen ausgeführt zu werden. massive viele gleichzeitige parallele berechnungen. cpus erreichen bei weitem nicht die performance bei physikberechnung wie gpus. physik ist ein absolutes feld für GPGPU.

Das bestreitet ja auch keiner.
Nur wird die GPU durch diese Belastung während des Spiels ausgebremst.
 
noch so als Anmerkung zu Physx, wenns eine Karte nicht mehr schafft kann man ja auch ne 2. kleinere damit beauftragen... (ich habs noch nicht getestet, würde aber bei mit die GTX260² in den SLi schalten und die 9600 physx berechnen lassen - ist bei mir auch so eingestellt, nur spiele ich nie bzw. habe auch kein Spiel das physx könnte)

ich bin echt gespannt was der GT300 können und kosten wird, was ATI noch nachschiebt (5890?) und wie sich das bis Ende des Jahres preislich entwickelt
 
Ich hoffe dass die Nvidia Karten noch vor Weihnachten verfügbar werden. Anfang 2010 wird dann entweder ATI oder Nvidia gekauft. Tendentiell AMD :D
 
Wird es denn diesmal endlich wieder eine komplette neue Generation oder werden alte Karten einfach umbenannt und als neue Mittelklasse verkauft? Eine stromsparende, leise und einigermaßen flotte nvidia Karte in 40nm würde ich nämlich sofort kaufen.
 
@AvenDexx
Ganz ehrlich. Was soll nvidia schon sagen? "Ja es stimmt"? Dann würden sie ja zugeben das ihr Termin ein Paperlaunch sein muss und sie nicht in vernünftigen Stückzahlen liefern können. Aber wir werden es ja sehen was in den nächsten 8-12 Wochen passiert.

@Pickebuh
Ich hab offenbar ein anderes Video gesehen als du. Es ruckelt keineswegs durchweg und verkommt nicht zu einer Slide Show... Relativ am Anfang kommt es zu einem massiven Nachladeruckler, der nichts mit der Grafikkarte zu tun hatte, und auch in Bodennähe läuft das Spiel ziemlich flüssig. Das was du villeicht siehst und als Ruckerl erkennen willst ist nachdem der Nachbrenner gezündet wurde und danach wieder ausgeschaltet und das Flugzeug merklich langsamer dadurch wurde.
 
Ich glaube Nvidia kauft massig HD5870 und labelt sie zum GT300 um. :D nur um ein paar Karten mit ihrem Logo verkaufen zu können...
 
Turbostaat schrieb:
@Pickebuh
Ich hab offenbar ein anderes Video gesehen als du. Es ruckelt keineswegs durchweg und verkommt nicht zu einer Slide Show...

Vielleicht kann da jemand Videos an seinem PC nicht flüssig ansehen :lol:

P.S.: Sorry, aber das konnte ich mir nicht verkneifen.
 
Caphalor schrieb:
Wird es denn diesmal endlich wieder eine komplette neue Generation oder werden alte Karten einfach umbenannt und als neue Mittelklasse verkauft?
ich denke, dass wir einige refresh chips von nvidia sehen werden. angeblich sollen die 40nm refresh-chips der g2xx reihe zwar nur für den oem-markt kommen, irgendwie bezweifle ich das. aber wir werden sehen.

Caphalor schrieb:
Eine stromsparende, leise und einigermaßen flotte nvidia Karte in 40nm würde ich nämlich sofort kaufen.
und eine leise, sparsame und flotte karte von ati nicht?
 
Zuletzt bearbeitet:
Also ich hoffe, dass ATI von den 5870gern ne Menge verkauft, bis Nvidia mit dem GT300 auf den Markt kommt. Die müssen ja auch mal Ihre Kassen füllen, um gegen Nvidia gewappnet zu sein.

Ich kauf mir zwar den GT300 wenn er mal rauskommt (ausser Eyefinity funzt mit der 5870X2), da er wahrscheinlich ne bombenleistung haben wird. Aber für mich wäre es dass schlimmste, wenn ATI irgendwann (aus finanziellen Gründen) nicht mehr mithalten kann, und Nvidia dann alleine die Preise bestimmen kann (und sich auch mehr Zeit lassen, was neues zu entwickeln)

Also ATI - produzieren, produzieren, produzieren, (bzw. TSMC)
 
MasterWinne schrieb:
dann wird die unterstützende software sehr rar sein
Es gibt bereits 80 Spiele, die es unterstützen und es werden mehr.

SH501 schrieb:
Wobei für mich alles ein Papuerlaunch ist,wenn 2 Wochen nach Vorstellung keine Karten zu kaufen sind.

Diesbezüglich läuft auch ATI noch Gefahr, mit der 58xx Karten einen Paperlaunch gemacht zu haben.
Beim Presselaunch der HD 5870 war aber schon klar (und das wurde auch gesagt), dass die HD 5870 erst anfang Oktober verfügbar sein werde

Pickebuh schrieb:
Also wenn Volker schreibt das CB schon unter NDA steht dann glaube ich nichtmehr an Gerüchte sondern wirklich daran das der GT300 noch dieses Jahr erscheinen wird.
Naja. vielleicht fällt ja auch unter das NDA, dass es nur ein Presselaunch ist und die Karten er in dem Jahr erscheinen, in dem wir wieder Weltmeister werden^^

blackiwid schrieb:
da ist für jeden was dabei, selbst für dumme leute wie man beim Ergebnis feststellen musste. (Sorry das konnte ich mir nicht verkneifen nenne ja keine Partei(en) beim Namen)
Da das Ergebnis wahrscheinlich schwarz-gelb ist gehe ich mal davon aus, dass du nicht damit einverstanden bist den Urhebrrechtschutz ins irrationale zu steigern, Atomkraftwerke zu bauen, damit unsere Nachfahren noch in einer Million Jahren an uns denken und dafür zu sorgen, dass Studenten 20semester studieren, weil sie es sich ohne Nebenjob oder reiche Eltern nicht mehr leisten können.

Raucherdackel schrieb:
Ich glaube Nvidia kauft massig HD5870 und labelt sie zum GT300 um. :D nur um ein paar Karten mit ihrem Logo verkaufen zu können...
Mit dem Umlabeln haben sie ja schon Erfahrung. Ich freu mich schon auf die 8800 bald aka GTS 305
 
Verstehe ich auch nicht warum die GPU die PhysX-Berechnung übernehmen sollte während die CPU kalt bleibt.
Man sieht es ja besonders in Games wo PhysX aktiviert ist. Da brechen die Frameraten total ein weil die GPU nun zusätzlich belastet wird.
Das bestreitet ja auch keiner.
Nur wird die GPU durch diese Belastung während des Spiels ausgebremst.
Hier kommt es darauf an. Wenn die CPU schwach ist, bereits voll beschäftigt (z.B. KI Berechnung) oder aber die Physikberechnungen zu aufwendig, dann beschleunigt PhysX (oder ähnliches) das Spiel sogar. Und gerade PhysX ist auf CPU Basis selbst auf flotten CPUs Mords langsam (ganz anders Havok)! Gerade bei PhysX Spielen und Ati Grafikkarten merkt man ja, dass hier die Frames enorm einbrechen, weil die Atis kein PhysX können, so dass die CPU das übernehmen muss, welche aber gnadenlos überfordert ist mit dem ganzen.

Dass die CPU aber nix tut während die GPU alles tut (so bietet Havok in der kommenden Version ja sogar eine Schnittstelle für KI) kann auch nicht der Sinn der Sache sein. Aber gerade hierfür hat AMD ja einen Ansatz, nämlich dass bei OpenCL sich die Last auf CPU und GPU verteilt, was aber soweit ich weis nur funktionieren soll wenn man eine AMD GPU und eine AMD CPU nutzt.

Mittel- oder Langfristig sehe ich aber keine Zukunft für PhysX, Cuda oder Stream (zumindest in der jezigen Form), sehr Wohl aber eine Ausweitung der Rechenarbeit von einer CPU auf eine GPU. Bei Computerspielen sehe ich das größtes Potenzial in Havok und Compute Shadern (Direct X) oder in OpenCL. Im professionellen Bereich sehe ich OpenCL aber ganz klar vorne, besonders weil hier die Kopplung von CPU und GPU problemlos möglich ist und das ganze auch plattformunabhängig funktioniert.



Ansonsten bezweifel ich es mal sehr stark, dass die neue Grafikkarte von NVidia vor Januar noch jemals in großen Stückzahlen vorhanden sein wird, wenn sie überhaupt vor Januar erscheint.
 
Screemer schrieb:
und eine leise, sparsame und flotte karte von ati nicht?
Ich nutze ati karten seit 5 Jahren und war irgendwie nie so richtig zufrieden. Ich hatte mir eben vorgenommen, nvidia mal eine Chance zu geben. Wenn es so eine Karte von ati geben würde und nvidia nichts vergleichbares im Angebot hat, dann wirds aber natürlich wieder eine ati.
 
Zuletzt bearbeitet:
Turbostaat schrieb:
@Pickebuh
Ich hab offenbar ein anderes Video gesehen als du. Es ruckelt keineswegs durchweg und verkommt nicht zu einer Slide Show... Relativ am Anfang kommt es zu einem massiven Nachladeruckler, der nichts mit der Grafikkarte zu tun hatte, und auch in Bodennähe läuft das Spiel ziemlich flüssig. Das was du villeicht siehst und als Ruckerl erkennen willst ist nachdem der Nachbrenner gezündet wurde und danach wieder ausgeschaltet und das Flugzeug merklich langsamer dadurch wurde.

DvP schrieb:
Vielleicht kann da jemand Videos an seinem PC nicht flüssig ansehen :lol:

Es gibt da ein berühmtes Zitat:
Man sollte niemals den Glauben eines Mannes in Zweifel ziehen oder hinterfragen.

Nun wer tatsächlich glaubt das eine einzelne Grafikkarte 3 Monitore flüssig versorgen kann den sollte man einfach in dem Glauben lassen.

P.S.: Sorry, aber das konnte ich mir nicht verkneifen.

Ja sehr sachlich...
 
ich schaue mal wer ne bessere P/L hatt, aber ich denke ich hojle mir ne HD5850.
 
Caphalor schrieb:
Wenn es so eine Karte von ati geben würde und nvidia nichts vergleichbares im Angebot hat, dann wirds aber natürlich wieder eine ati.
genau das ist ja gerade bei der 58xx serie der all. keine vergleichbare karte bei nvidia, sparsamste und leiseste highperformace-karte. deswegen hab ich halt noch mal nachgefragt.

Pickebuh schrieb:
Nun wer tatsächlich glaubt das eine einzelne Grafikkarte 3 Monitore flüssig versorgen kann den sollte man einfach in dem Glauben lassen.
deine kommentare bringen mich schon seit tagen zum schmunzeln.
 
Pickebuh schrieb:
Nun wer tatsächlich glaubt das eine einzelne Grafikkarte 3 Monitore flüssig versorgen kann den sollte man einfach in dem Glauben lassen.

Ja sehr sachlich...

kommt drauf an mit was sie "versorgt" werden müssen, wie gesagt nicht alle Leute spielen :rolleyes:

Dennoch, wenn Eyefinity in Verbindung mit einem Spiel beworben wird das man auch hierfür wieder "spielen" herbeiholt, verstehe ich schon auch. Für mich ist die Leistung in Spielen relativ egal (klar wenn ne Karte hier ne Bombe is, ist sie es meist im Rest auch) aber für mich ist dieses Feature einfach genial da ich mir Matrox-Tripple-Head2Go spare (sogar noch mehr versorgen kann).
 
Zurück
Oben