News Die-Plot des Nvidia GT200 und Überblick

Man muss bedenken, dass die Preise (auch die aktuellen) immer ganz klar so ausfallen, dass Euro und Dollar schon korrekt umgerechnet werden. Wenn man sich die Preise bei Ebay.com anschaut, wird man schnell feststellen, dass es kaum 3870 und 8800gt für unter 160$ gibt. Bei uns sind 120€ Preise dann schon die richtige Umrechnung.

Im übrigen bin ich auch sicher, dass der 4870x2 die Performance Krone erringen wird. Denn zwei 280er auf einem PCB wird es nicht geben, schon allein durch Stromhunger und Architektur.
 
bis jetzt sieht's eigentlich nicht so toll für nvidia aus. wird übel, wenn AMD NVIDIA platt mach und dann von INTEL fertig gemacht wird.:(
 
klasse, endlich mal wieder konkurenz für nvidia, kann uns allen nur recht sein, jeh mehr kunden die wollen, desto bessere preisschlachten wird es (hoffentlich) geben
 
LoL ein echt Klasse Fred ist das hier:D

Also wenn das so ist werde ich mir sogar echt ne HD4870x2 kaufen. Ich hab ja nen Großen Bildschirm (obwohl meine GT ausreicht) werde ich mir ne ATI kaufen. Ich fand Nvidia echt ok bis zur 9xxxer Reihe. Da gings nur noch bergab. Aber Nvidias 9er Reihe verkauft sich gut. MM und Saturn profitieren davon :D

Und vom Stromverbrauch ganz zu schweigen. Ich mein mein PC läuft eigentlich den ganzen Tag. Und dann einen GTX 280 Nein Danke. Meine Eltern bringen mich um:D
Ich könnt mir sogar vorstellen dass die HD4870x2 weniger verbraucht als der GTX 280.


Aber lassen wir uns überraschen. Das wird witzig. Und ATI GO GO GO. Lass uns nicht hängen. Sonst bist du geliefert:evillol:


Mfg Kivi
 
mad1688 schrieb:
Im übrigen bin ich auch sicher, dass der 4870x2 die Performance Krone erringen wird. Denn zwei 280er auf einem PCB wird es nicht geben, schon allein durch Stromhunger und Architektur.

Da hast du schon recht, es dürfte auch schwierig werden eine zwei-PCB-Lösung wie bei der GX2 zu basteln.. Vom Preis mal gar nicht zu sprechen.. So ein grosser und komplexer Chip wird die Ausbeuten nach unten treiben..

Lustig ist's schon: NVIDIA stellt sich stur gegen eine Verkleinerung des Fertigungsverfahrens(Was imo schon bei der 9X00-Generation fällig gewesen wäre) und kriegt hoffentlich dafür mal eine auf's Maul..
 
Ich frage mich, wie Nvidia diesen Preiskampf bestreiten will. Die magere Ausbeute und extremst imensen Herstellungskosten und dazu kommen noch Entwicklungs und andere Vertriebskosten. Nein nein das wird nicht günstig und der Gewinn wird sich damit auch stark in Grenzen halten.

Nun ist denke ich, endlich wieder AMD am Zug und bringt Fortschritt, Inovation und Zukunftssicherheit - und hey das alles zu einem humanen Preis.

Nvidia kann da nur noch mit einem Die-Shrink kontern ansonsten seh ich ganz schnell rot :D
 
d-Raven-b schrieb:
Da hast du schon recht, es dürfte auch schwierig werden eine zwei-PCB-Lösung wie bei der GX2 zu basteln.. Vom Preis mal gar nicht zu sprechen.. So ein grosser und komplexer Chip wird die Ausbeuten nach unten treiben..

Lustig ist's schon: NVIDIA stellt sich stur gegen eine Verkleinerung des Fertigungsverfahrens(Was imo schon bei der 9X00-Generation fällig gewesen wäre) und kriegt hoffentlich dafür mal eine auf's Maul..
Tja, das Gegenteil ist der Fall. nvidia hat aus dem NV30 Geforce 5800-Desaster gelernt. Fürs High End kommt ein ausgereifter Fertigungsprozess zum Zuge und fürs später kommene Mid Range dann die neuen Verfahren. Das ist schon wie gesagt seit NV40 der Fall.

Und die Bilanzen der letzten Jahre geben nvidia Recht. Sry,

/edit
ohje, macht euch nicht zu viele Hoffnungen auf ATIs neuen Chip. Preisleistungsverhältnis wird gut sein, keine Frage. Aber die Leistung wird deutlich unter nvidias High End Chip liegen.
Die 1.4 Millionen Transistoren sind nicht sinnlos verplempert worden.
 
Zuletzt bearbeitet:
In der Zeit steigender Energie und Rohstoffpreise mit sowas anzukommen was Nvidia da fertig bringt ist echt ein hartes Stück. Wer will schon so eine Stromrechnung haben und das auch noch ohne Stromsparfunktion OMFG... Ganz zu schweigen von der extra Heizung in der Wohnung pünktlich zum Sommer ;)
 
nVidia hat im High End Bereich so lange gewartet bis ATi aufholen konnte und jetzt bringen Sie so ein Monster raus, dass mit dem Leistungsrekord nunmal auch alle Negativrekorde bricht, die man so brechen kann.
Der Leistungshunger, bis auf Hybrid SLI (das nur unter Vista und mit neuen Nvidia Chipsätzen läuft) kein Stromsparmodus, der gigantische Preis, kein D3D10.1 (wobei ich persönlich den Hype darum nicht verstehe...), einfach das (voraussichtlich) schlechtere Preis-Leistungs-Verhältnis.

Wer weiß, wenn Nvidia nicht bald von seinem hohen Ross absteigt, wars das das letzte mal mit der uneingeschränkten Führung im Pixelbeschleunigermarkt?
Der RV770 wird den G92(b) jedenfalls ablösen und wenn Nvidia diesen wichtigen Markt nicht schnell genug zurückerobert, dann wirds Gewinneinbußen geben; und alles nur, weil sie sich so lange auf ihren Lorbeeren ausgeruht haben, immer das GT200 Ass im Ärmel, das man auf den Markt wirft, falls die in Kanada doch mal was zu Stande bringen. Aber so nicht, nicht auf Dauer zumindest ;)

ATi machts richtig, effizient produzieren, immer den Markt im Blick. So viele Enthusiasten gibts nämlich sicher nicht, dass Nvidia am GT200 die Forschungsarbeit schnell wieder reinholt. Da bedienen die Kanadier schon ein anderesa Milieu.

(Alle Angaben ohne Gewähr! Wenig von dem hier ist bewiesen und kann durch kommende Benchmarks und Verkaufszahlen völlig widerlegt werden.)
 
MixMasterMike schrieb:
In der Zeit steigender Energie und Rohstoffpreise mit sowas anzukommen was Nvidia da fertig bringt ist echt ein hartes Stück. Wer will schon so eine Stromrechnung haben und das auch noch ohne Stromsparfunktion OMFG... Ganz zu schweigen von der extra Heizung in der Wohnung pünktlich zum Sommer ;)
Ja, die Stromkosten. Schrecklich.

Mal angenommen, ein Rechner frisst insgesamt 400 Watt und läuft permanent unter Volllast:

400 --> 0.4 Kilowatt
1kwh kostet hier 18 Cent.

0,4 * 24 * 365 * 0,18 = 630,72 €

Tja, und jetzt rechne das auf realistische Spielzeiten runter.... das überlass ich dir.
 
Wieso denken beim Stromverbrauch eigentlich immer alle nur ans Geld? Es geht schliesslich auch um die Umwelt. Der Strom muss ja irgendwie produziert werden.

Finanziell gesehen macht der höhere Stromverbrauch nicht sonderlich viel aus (ausser man spielt 24/7), aber okölogisch gesehen sind die kommenden nVidia-Karten absoluter Mist.
Ich mag es AMD/ATi echt gönnen. Weiter so!
 
mu_fi schrieb:
Wieso denken beim Stromverbrauch eigentlich immer alle nur ans Geld? Es geht schliesslich auch um die Umwelt. Der Strom muss ja irgendwie produziert werden.

Finanziell gesehen macht der höhere Stromverbrauch nicht sonderlich viel aus (ausser man spielt 24/7), aber okölogisch gesehen sind die kommenden nVidia-Karten absoluter Mist.
Ich mag es AMD/ATi echt gönnen. Weiter so!

Die Leistung pro Watt wird aber besser sein als es bei allen vorigen Chips bei nvidia war.
 
mapel110 schrieb:
Die Leistung pro Watt wird aber besser sein als es bei allen vorigen Chips bei nvidia war.

Das mag sein, trotzdem sind die Karten ein ökologisches Verbrechen.
 
CPUs haben mal mehr verbraucht. Und hier gibts ein ganzes Brett mit Spannungswandlern und RAM.

Ökologisch gesehen kannst du erst mal woanders sparen: So ziemlich überall, aber nicht wegen 30W bei der Grafikkarte, das ist Erbsenzählerei. Allein der Gedanke daran verbraucht mehhr Energie.....
Im Idle sind die Karten sogar sparsamer als alles zuvor dank Hybrid Power.
 
Oh nein... es geht wieder los... irgendwo tauchen irgendwelche Marketingzahlen auf und alle zerreißen sich das mowl über Karten die es noch garnicht gibt... Abwarten Tee trinken, das kaufen was einem besser in Kram passt und den anderen net erzählen man habe nen längeren... ehm die besssere Karte.

gruß
monkey
 
Unyu schrieb:
Im Idle sind die Karten sogar sparsamer als alles zuvor dank Hybrid Power.



Ja aber nur wenn man Hybrid Power benutzen kann! ;)
 
Nvidia geht den einzig richtigen Weg den man jetzt und heute gehen kann. Den weg OHNE SLI, OHNE Microruckler, etc. etc.
So lange SLI und CF in den Kinderschuhen stecken ist das der einzig richtige Weg, koste es was es wolle...
Ob die GTX 260 wirklich ein schlechtere Watt/Performance als die 4870, oder ein schlechteres Preis/Leistungsverhältnis hat werden wir in ein paar Wochen sehen. Die GTX 280 ist ein ganz anderes Monster und hat sowieso andere Käuferschichten.


Klar ist der neue GeForce Chip ein "Brute-Force-Chip"
So soll er unter den Herstellern liebevoll als "Brute-Force-Chip" bezeichnet werden.
Aber das ist mir 1000 mal lieber als SLI oder CF kaufen zu müssen.


Hybrid SLI schaltet die neuen Karten komplett ab, sie verbrauchen also nichts und sind im daher auch lautlos im 2D da ihre Lüfter auch nicht laufen.
Einige sagen: Das ist nicht das gelbe vom EI! Sind die X2 Karten auch nicht! Zb. der Idle Stromverbrauch ist stark gestiegen, gegenüber den single Karten mit Power Play und von lautlos im 2D, sind die Karten sehr weit entfernt.

@MixMasterMike

Selber einen AMD Phenom X4 9850 betreiben, aber über die angebliche Ineffizienz von neuen Produkten lästern. Da bin ich echt mal gespannt ob die NV die Watt/Performance Krone abgeben muss, die seit Jahren halten.

MfG Kasmo
 
Ich binn mal gespannt wie die neuen Grafikkarten so Abgehen, die GTX280 liegt ja jenseitzs von gut und böse vom Preis die 260 ist da schon interesant aber auch zuviel Stromverbrauch vorallem wenn die im idle nicht so runterschalten wie die ATIs , habe mich schon mit der 4870 angefreundet hoffentlich stimmen die 30% mehr zur 9800 dann ist meine 8800GTX weg, und dann evtel "Kreuzfeuer" ausprobieren.^^
 
@Kasmopaya

Nvidia geht den einzig richtigen Weg den man jetzt und heute gehen kann. Den weg OHNE SLI,
und das ist genau der falsche Weg ! Zukünftige Grafikbeschleuniger kann und wird es nur als Multi-GPU Einheiten auf einem Die geben, man sieht doch an dem Nvidia Produkt das die bisherige Technik ausgereizt ist . Dann muss man das Rucklerproblem eben lösen.
 
@Voyager10
Dann muss man das Rucklerproblem eben lösen.

Dir ist schon klar das ATI gesagt hat das es NICHT zu lösen ist und Microsoft schuld daran hat...
Auch NV bekommt das Problem so schnell nicht gefixed, das wird noch sehr lange dauern.

Viel Spaß mit Multi-Core!
Mal schauen wer den richtigen Weg gehen wird und wer nicht-> abwarten und Tee trinken -> wir müssen gar nicht warten, die 3870X2 ist heute schon draußen und ist aufrund von no-go Nachteilen zb. nicht lösbaren Rucklern NICHT kaufbar...

Ergo NV geht den richtigen Weg, die Frage ist doch wie lange können sie noch "Brute-Force-Chips" realisieren(Herstellungskosten) und wann muss SLI endlich gefixed sein.
Gut das man von NV das SLI nicht aufgezwungen bekommt, wenn man High End will...
Man hat ja immer noch die Wahl 2 extra Mid-Range Karten zu kaufen, dann hast du dein "ach so tolles Multi-GPU" System...

MfG Kasmo
 
Zuletzt bearbeitet:
Zurück
Oben