News ATis Antwort auf Fermi: spezielle HD 5970?

@y33H@, hast du auch eine Quelle dafür?:)
 
Empfohlene Systemanforderungen: Metro 2033
- Quad Core oder 3.0+ GHz Dual-Core CPU

Hä? Quad Core oder 3.0+ Ghz Dual Core, ja was jetzt? Nen niedrigen Quad Core, oder nen hochgetakteten Dual Core über 3Ghz!, sehe ich das richtig!:D

Optimal:

8Gig und Fermi der noch gar nicht auf den Markt ist! Ich lach mich schepp! Für was brauch man dann optimal?

Für 30" Zoll in 2560*... mit 8*MSAA?

Da kann ja selbst "Crysis2" mit seinen Systemanforderungen einpacken!

PS: wehe das Spiel läuft nicht bei mir!:(
 
Also wenn die Karte auf 400€ sinkt, ist diese meine sabber :D da kann die Fermi aufm Kopf stellen. Allein rein optisch passt diese 100% in mein modding System, ist kein Kaufargument, aber man muss sich ja mal was göhnen =)
 
Stalker war ja auch nicht gerade Hardwareschonend.
Die anforderungen gehen in Ordnung mich regen die 8gb lediglich auf, das ist viel
 
Stalker hat eine der miesesten Engines die ich jeh gesehen habe, und Spielbar war das Game ja eh nie.

Was auch immer dieses Metro 2033 ist, es sieht auf den Screens bei Google eher gewöhnlich aus und erinnert an die Stalker Engine. Da muss man Angst bekommen das dieses Spiel selbst auf einer HD8850 nicht laufen wird.
 
ich denk ma die 3 stromanschlüsse sind nur für extrem übertakter^^
die karte wird wohl auch locker mit den 2x 8pin steckern laufen.

aber bei extremer spannungserhöhung und stickstoffkühlung wird vllt bisschen mehr benötigt
 
Übersoldier75 schrieb:
Was heisst hier gehen in Ordnung, nicht jeder hat ein Quad Core, und schon gar kein Fermi!:D
Geht doch auch mit schnellem Dual-Core (~3 GHz)

Übersoldier75 schrieb:
Zur Zeit reichen noch 4Gig für alle Games(ausser GTA4), jetzt brauch man 8Gig und ne schnelle "High-end-Graka", kann doch nicht deren Ernst sein!

Dann will ich nicht wissen, wie es auf der Xbox aussieht! (minimale Details)!:D

Auf der Xbox gibts dann kein Physik. Und bei Verwendung einer langsameren Graka kannst du ja auch Phyisik runter stellen oder dir eine kleine zweite nvidia Karte für Physik dazu kaufen, oder die Grafikeffekte runter stellen...
 
Übersoldier75 schrieb:
Wenn die Karte genug Rohpower hat, sollte das kein Problem sein!

Falsch!, Stalker mit Texturemod in 1920*1200 mit 8*MSAA 1500MB ca.!

Die HD4870 hat zu wenig Rohpower für 2Gig, hier wäre der Vergleich zwischen 512MB und 1Gig besser gewesen, da sieht man schon wie die HD4870 erst ihre Reserven entfaltet.

Fazit: Die HD5870 hat genug Rohpower um knapp 2Gig vollzu füllen, mit den richtigen Texturemods und Einstellungen sollte das möglich sein!

MfG!

erkläre mir mal bitte kurz,warum eine karte mit mehr rohpower mehr Vram verbraucht?
wenn der vram ausgeht, bricht sie ein, wenn nicht, gibts keine limitierung durch die größe. seit wann gibt es eine halbe limitierung?


entweder limitiert die speicher größe, oder nicht. wenn sie nicht limitiert, ist es egal ob 50 fps oder 150fps. Das hat mit dem speicherverbrauch rein gar nichts zu tun.

Kasmopaya schrieb:
Übrigens ist sogar 2GB zu wenig für Enthusiasten: 30" + SSAA + Texturmods + Eyefintiy = 4GB Vram Verbrauch ergo 2GB schon wieder zu wenig :D
Oder Dragon Age mit Eyefintiy + SSAA + Texturmods
Oder wie einer schon sagte ein popliges Half Life mit Texturmods -> 2GB zu wenig

jetzt übertreibst du aber völlig... 2gb sollten nicht genug sein? die rohleistung diesre kombination reicht nie im leben für SSAA + eyefinity...abe dann wrids halt wieder aufn speicher geschoben..lol.
im übrigen läuft seit dem Cat 9.12 (eyefinity support für dragon age) auch Dragon age mit 1gb Vram bei einer 5870 mit 4xSSAA ohne nachladeruckler butterweich.

Diese poplige Half Life mod, die 2gb fressen soll, zocke ich gerade zufällig mit meiner Radeon samt 4xSSAA mit 60fps ohne Nachladeruckler, kannst du mir das mal bitte erklären? Ihr geilt euch viel zu sehr an theoretischen Messungen auf, die nix über die Leistung aussagen. Nur weil ein spiel 2gb füllen kann, heißt dass noch nicht, dass es bei 1gb irgendwelche spürbaren einbußen gibt. man kann quasi immer alles füllen, nur braucht mans nicht.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Nur, wenn der VRAM limitiert.
Andersherum: Man weiß, dass man dieses Jahr die Leistungskrone verlieren wird - sagt Richard Huddy.

Was Herr Huddy da sagt ist doch auch Psychologische Kriegsführung. Nvidia hat den Fermi Release nicht umsonst auf einen Freitag gelegt, kann sich jemand an einen GPU Release an einem Freitag erinnern? Der Grund dafür ist doch ganz klar, am Freitag Abend hat die Börse geschlossen... und so kann ein entäuschender Fermi die Nvidia Aktie nicht direkt in den Keller drücken.
 
am Freitag Abend hat die Börse geschlossen... und so kann ein entäuschender Fermi die Nvidia Aktie nicht direkt in den Keller drücken.

Nach jedem Ende kommt ein Neuanfang. Das gilt auch für Wochen.^^
 
Fetter Fettsack schrieb:
Nach jedem Ende kommt ein Neuanfang. Das gilt auch für Wochen.^^

Yep, und wenn man http://www.semiaccurate.com/2010/02/17/nvidias-fermigtx480-broken-and-unfixable/ gelesen hat dann weiß man das der Montag ein schlechter Tag für Nvidia's Aktie wird. Fermi ist eine Fehlentwicklung, ich wette 100 Dollar das die Karte selbst im Juni noch nicht verfügbar sein wird.

Der letzte Absatz aus dem Artikel trifft es auf den Punkt

As we have been saying since last May, Fermi GF100 is the wrong chip, made the wrong way, for the wrong reasons. Dear Leader has opened the proverbial can of Whoop-Ass on the competition, and on top of that criticized Intel's Larrabee for everything that ended up sinking Fermi GF100. Intel had the common sense to refocus Larrabee and take a PR hit rather than pouring tens of millions more dollars down the drain for no good reason. It doesn't look like Nvidia has the management skills to make that call. The company not only designed a 'Laughabee', it went against all sense and built that too.
 
@ ja schon aber Analysten beruhigen sich ganz gern mal nach 2 Tagen WE in ihrer Luxusvilla.
 
Bitte bedenke aber, dass SA aufgrund seiner Tendenziösität immer mit Vorsicht zu genießen ist, was die Neutralität betrifft. Zwar sind die Grundinformationen meist richtig, die Färbung des jeweiligen Artikels sollte man aber zwecks neutraler Betrachtung ausblenden, da diese zumeist etwas einseitig ist.

Das ein nicht gelungener Fermi den Aktienkurs drücken wird, ist aber durchaus naheliegend.
 
Zitat von OSJF
Stalker hat eine der miesesten Engines

Falsch! Stalker läuft sogar auf einer Geforce3 mit DX8!, und auf meinem Läppi mit Intel X3100, also so wie es aussieht, weißt du nicht wovon du redest!

erkläre mir mal bitte kurz,warum eine karte mit mehr rohpower mehr Vram verbraucht?

Hab ich nie behauptet!, ich habe lediglich gesagt, umso mehr Rohpower die Karte hat, desto sinnvoller ist es, mehr VRam zu verbauen!

entweder limitiert die speicher größe, oder nicht. wenn sie nicht limitiert, ist es egal ob 50 fps oder 150fps. Das hat mit dem speicherverbrauch rein gar nichts zu tun.

Falsch!, also laut deiner Aussage wäre dann eine 7600GT mit 1Gig Vram so schnell wie eine 8800GT mit 1Gig, da ja der Videospeicher limitiert!

Ausserdem muß man unterscheiden, zwischen 512MB und 1Gig, ne 8800GT mit 512MB kann 25fps schaffen, je nach Game und Setting, und ne die 1Gig-Variante kann hier noch 35fps schaffen, also schon zwischen nicht ganz flüssig und flüssig!

PS: so nebenbei: eine 8800GT GS GLH mit 1Gig-Vram, macht jede 8800GTX platt!;)


PS3: 8 Kerne / Xbox360: 3 Kerne
 
Zuletzt bearbeitet:
Wenn AMD das macht, dann finde ich es echt lächerlich.
2x8 Pin + 1x6 Pin, dass würde ich keinem Boardpartner erlauben, selbst nicht, wenn er Sapphire heist.

Das sprängt die PCIe Specs gleich doppelt. Max zertifizierbar 1x8 + 1x6.
Die Fermi wird sicher nicht an die Leistung der bisherigen 5970 ranreichen, wenn Nvidia sich an die PCIe Specs hällt. Maximal genauso schnell vermute ich mal. Vielleicht nen Tick schneller wenns für NV gut läuft.

Das sage ich mal so als überzeugter ATI Käufer der letzten Jahre.

Zur hölle AMD haltet euch an dei Specs. Es wird doch wohl möglich sein, dursch besseres PCB Design und Qualitativ hochwertigere Komponenten sich noch an die Specs zu halten.
Dazu siehe: https://www.computerbase.de/news/arbeitsspeicher/4-gbit-ddr3-bausteine-in-40-nm-von-samsung.27026/ Wird sicher auch bald passende GDDR Chips in 40nm geben.
Auch, wenn es bedeutet, dass die Karte im Vergleich einiges teurer wird. Im "Prestige Segment", das warscheinlich eh ein Verlustgeschäft ist, wäre das sowas von Wurst.

Wenn die Karte so kommt kauf ich nen Fermi - rein aus Protest. Obwohl ich noch bis zur HD6 warten wollte.

@göschle
Klar AMD hat schon 3 probe Fermis von NV bekommen, damit AMD Angst bekommt. Oder die haben ne gute Wirtschaftsspionageabteilung... dann hätte AMD warscheinlich aber deren Chipdesign geklaut...
AMD will nur sicher stellen, das die Leistungskrone dieses mal im eigenen Haus bleibt bei Singel PCB.
Ne Dual Chip Fermi wirds sicher wegen der hohen Leistungsaufnahe selbiger nicht geben.

Ich werf mal das Gerücht in den Raum, bezogen auf die Leistungsaufnahme wird weder die HD5970 (@PCIe Spec kill) noch die Fermi Karte die Nase vorne haben.

Ich will endlich den Fermi sehen, dass dieses ganze Gemutmaße hier ein Ende findet. Besser aber ich lese solange nicht mehr im Forum.
 
Zuletzt bearbeitet:
Ein 450W Monster als Antwort auf einen Fermi der abgeblich nur 5% schneller ist als eine HD5870.
Hmmm mir scheint, Ati weiß wohl mehr als Mr.SA Charlie.
 
Zurück
Oben