News Kommt Nvidias GK110-GPU als „GeForce Titan“ in den Handel?

Krautmaster schrieb:
naja wenn Nvidia denselben Chip für paar 1000€ als Tesla oder Quadro verkaufen kann, wieso soll man sie dann für Consumer verschleudern

Genau dasselbe dachte ich auch.
Die Karte wird überhaupt nur der Imagepflege wegen erscheinen: Die schnellste Single-GPU-Grafikkarte kommt wieder von Nvidia...
Und dient damit indirekt der Verkaufsförderung in darunterliegenden Marktsegmenten.
 
Chesterfield schrieb:
die gtx 660ti ( kepler) hat mehr als doppelt soviele shader als die gtx 580 ( fermi) und hat nicht mal 5% mehr leistung in games. ( soviel zur neuen technik immer besser)


du musst aber bedenken, dass die gtx 580 noch hot clocks hatte. shaderanzahl alleine sagt nicht viel aus.
 
Kamikaze_Raid schrieb:
Die Preise werden immer witziger. Sorry, ich habe mehrere große Systeme hier stehen inkl. mehreren 30" Display. 900,-€ für ne Graka zu zahlen, welche wenn der HErsteller wollen würde, auch für 400,-€ verkaufbar wär (und sicher noch immer mit Gewinn) sind schon hart und für mich indiskutabel.

Darf ich mal fragen, was du für die 30" Displays bezahlt hast? Die Dinger wären für 1/5 des Preises mit Gewinn verkaufbar. Das ist aber nicht indiskutabel weil....?
 
Viele, die hier über den Preis jammern, verkennen eindeutig die Umstände. Die Produktion in 28nm ist - auf die Chipfläche gerechnet - wesentlich teurer als 40nm und wird es auch noch lange bleiben. Das bedeutet, dass ein Chip, der in 28nm 550mm² Die-Fläche einnimmt sehr viel teurer ist, als ein 550mm²-Chip in 40nm gefertigt. Fermi hatte 3Mrd Transistoren, während der erscheinende GK110 ("Titan") auf 6-7 Mrd. Transistoren gehandelt wird. Als der 28nm-Prozess neu war, wurde (ich glaube auch hier, bin aber gerade zu faul es rauszusuchen) eine Grafik veröffentlicht, die gezeigt hat, dass Anfang 2012 die Produktionskosten pro Transistor für 40nm und 28nm etwa gleich hoch waren. Deswegen war Kepler auch kaum billiger als Fermi: Er war zwar nur gut halb so groß, hatte aber mehr Transistoren (~3,2Mrd.). Zugegeben, die Situation hat sich bis heute etwas entspannt, dennoch sind wir weit davon entfernt, dass 28nm auch tatsächlich nur halb so viele kostet wie 40nm.

@Chesterfield: In deiner Shaderrechnung berücksichtigst du nicht, dass die Shaderdomain weggefallen ist und daher der Shadertakt von Kepler auf Fermi massiv gesunken ist (von 1,5 auf 1Ghz). Außerdem stagnierte die Bandbreite, da Fermi noch ein 384bit-Speicherinterface hatte.
 
@Halskrause
Klar, ich zahle ca. 700,-€ für ein 30" Display. (gut wir haben hier auch welche für 2000,-€). Und wenn du der Meinungs bist das du ein 30" Display für 140,-€ verkaufen kannst und dennoch Gewinn damit machst, dann brauchen wir nicht weiter zu diskutieren. Da Epic Fail.
 
Die die hier jammern hört einfach auf ihr müsst euch die Karte nicht kaufen ist doch ganz einfach. Jedes mal das gejammer wenn eine neue Karte kommt aber kaufen tun dann hier immer reichlich das so teure Stück.
 
Der Preis kann nicht stimmen, das kauft doch kein Mensch außer es ist schneller als eine 690. Wen würde man denn damit erreichen wollen? Also ich habe ja eigentlich auf die 780 gewartet um meine 8800 gt in Rente zuschicken und hoffe mal dass ich eine gute Karte in meinem Budget bekommen werde...
 
Zuletzt bearbeitet:
Naesh schrieb:
Sind sie es nicht ? Wo hat AMD noch gleich CUDA und PhysX? :D 2% mehr Speed aber dafür geniale Features nicht.

Zumal AMD bei DX9 Titeln Probleme macht wenn man mal so im "Probleme mit AMD" Bereich schaut.


Also bei gleichem Preis (=HD 7970Ghz vs. GTX 670) sind es schonmal eher in Richtung 10 % Mehrleistung.
(Quelle: Klick mich )

Und was hat eine proprietäre Lösung wie CUDA denn OPENCL voraus? Also ich encodier hier mit Sony Vegas wunderbar auf der Grafikkarte. Kommt wohl eher auf die Software(-Unterstützung) an.

Dazu mehr Ram und ein dickeres Speicherinterface....es geht ja auch n bisschen um morgen...die Nvidias rennen dann wieder ins einkalkulierte Bandbreiten und Speicherlimit....alles schonmal dagewesen, man erinnere sich an an die 460/560 Ti...die 580er war da die löbliche Ausnahme und auch ihr Geld wert. Dagegen ist die gesamte heutige obere 600er Serie von Nvidia praktisch Midrange und dementsprechend kastriert. Die Auswirkungen wurden durch eher anspruchslose Konsolenports der letzten Zeit allerdings abgemildert.

3D ist momentan das einzige Feature was mich länger bei Nvidia halten würde. Physix halte ich für eine Randerscheinung. schau dir Havoc auf der CPU an, z.B. in Battlefield 3, da weiß man Physix braucht kein Mensch, nur Nvidia fürs Marketing.

---> achso zurück zum Thema^^
 
Zuletzt bearbeitet:
Srefanius schrieb:
Der Preis kann nicht stimmen, das kauft doch kein Mensch außer es ist schneller als eine 690. Wen würde man denn damit erreichen wollen? Also ich warte ja persönlich auf die 780 um meine 8800 gt in Rente zuschicken und hoffe mal das ich eine gute Karte in meinem Budget bekommen werde...

Äh, die 580 war auch nicht schneller als 560 Ti SLI. Vergesst nicht, GK104 ist der Performancechip der Keplergeneration, nur etwas mit mehr Takt aufgepumpt. Außerdem kann man Single-GPU und Dual-GPU eh nicht vergleichen.
 
Kasjopaja schrieb:
:-) Ich guck grad so in die Ecke und bin eigentlich sehr froh das mein 570er SLI Gespann und der olle 1156er i7870 soweit noch jedes game rocken ^^

Jaja, die alte Shice an zu wenig Vram, Saft saugend ohne Ende......

--------------------

Eigentlich steh ich ja mehr auf Carbon an meiner Mofa, aber Titan ist auch gut. :D

Ich hab die letzten 3 Jahre stromerhöhungs Preise gehabt obwohl ich nicht beim teuersten Anbieter "wohne". Ich zahl jetzt 26,5 Cent die KW/h und mit meinen Dual Thermis (480/580) bin ich über die Zeit gut 200€ im Jahr an Kosten rauf geschossen. Wenn man bedenkt das uns die 28nm Gen noch lange begleiten wird dann könnte man mit nur einer titanischen Karte möglicherweise schon 300€ in 3 Jahren sparen nur am Strom. Und das bei ein wenig mehr Performance zu meinem Ursprungssetup (Weil keine MGPU Probs).

----------------------

Und warum kein Vollausbau (15 SMX) ? Warum soll NV nicht im Wissenschaftlich/Technischen-Bereich die schmalen Chips raushauen (die natürlich zuverlässig laufen müssen). In dem Bereich ist paralellisierung unter den Karten kein Problem. Bei SLi (AFR) sieht das schon anders aus.....Deshalb lieber realy BigK for G-Force....
 
@Dittsche

Da muss ich dir zustimmen. Physik ist wirklich ne Randerscheinung. Schade wie ich finde, den Havoc ist genauso wenig Physik wie das Pedant von Nvidia in manchen fällen. Wenn ich mir anschaue wie unrealistisch die ganze Geschichte im Spiel dann abläuft würde ich mir in der Zukunft schon mehr davon wünschen. Das Feeling in Spielen würde sicherlich um einiges gesteigert werden wenn Objekte wirklich mal zu 100% Physikalische Verhaltensweisen aufzeigen würden.

Ich vermute aber mal schlicht das dort die Entwickler der Spiele den Aufwand scheuen. Bei Havoc sowieso und bei Nvidias Pedant sicherlich der Leistung zu liebe. Den ich vermute einfach mal das selbst wenns ne GPU only Physik engine genutzt wird die GPU mal ganz schnell an die grenzen kommt wenn man mal wirklich alles berücksichtigt was Physikalische Gesetze anbelangt. Gegen eine Dedizierte Physik Karte hätte ich nichts einzuwenden wenns wirklich Real im Spiel umgesetzt werden würde.

Man merkt das einfach wenns ne gpu oder cpu berechnet. Rein vom Leistungsstechnischen Standpunkt kann man auf der GPU wohl mehr umsetzten und berechnen lassen als wenns auf der CPU rennt. Schade wie ich finde.


@Pumpi

Du ganz ehrlich, ich bin ganz zufrieden. Hab bisher keine Probleme mit den spielen gehabt. Kann gut sein das es bei neuen Probleme geben wird, aber solange alles Flott läuft bin ich zufrieden. Bisher hatte ich halt keine. Seis Vram oder sonst was. Und der Stromverbrauch is mir eigentlich wirklich scheiß egal den so oft wie ich zum Spielen komme tut das nicht mal weh.

Zumal, wenn ich jedesmal neu kaufen müsste um strom zu sparen und den vram auszukosten, spare ich sicherlich mehr geld wenn ichs so belasse wies is als wenn ich alle 3 monate neues system kaufe ^^ Wie gesagt, bin Wochenend- Spieler wenn überhaupt..
 
Zuletzt bearbeitet:
Pumpi schrieb:

kleiner tipppppppppp: neukundenrabatt ist das stichwort bei stromanbietern, ich wechsle jedes jahr, seit 4jahren jetzt die anbieter und kassiere ein rabat von 20-30%, ist viel effizienter als irgendwelche grafikkarten zu wechseln/kaufen
 
Wer sich 480er und 580er im SLI holt sollte nicht so weit ausholen was den Stromverbrauch anbelangt. Das ist man sich meist im Vornherein klar das der unter halt kostet. Da muss man sich nicht wundern.
 
Mal sehen was die (hoffentlich) bald erscheinenden Benchmarks zeigen werden.
Leistung hat eben seinen Preis. Dafür muss die Leistung dann aber auch stimmen.
 
krutoistudent schrieb:
kleiner tipppppppppp: neukundenrabatt...

Ja logisch, ich kann ständig hopping betreiben....^^ Ich kann aber auch bei z.Bsp Flexstrom ein Jahr im Vorraus zahlen und muß mir nicht ständig über einen neuen Anbieter und meine Stromversorgung Gedanken machen (googlen kann ich auch)...
 
Die Karte wird schon schneller sein als alle bisherigen Single-GPU-Karten. Überteuert ist sie erst, wenn es eine billigere Konkurrenzkarte mit gleicher Leistung gibt.
 
Kasjopaja schrieb:
Wer sich 480er und 580er im SLI holt sollte nicht so weit ausholen was den Stromverbrauch anbelangt. Das ist man sich meist im Vornherein klar das der unter halt kostet. Da muss man sich nicht wundern.

Ist so auch nicht ganz richtig. Die Preissteigerungen in letzter Zeit sind enorm wie noch nie, konnte keiner mit rechnen. Und Du sagtest es bereits, jede Gen neu kaufen rechnet sich auch nicht, speziell bei nem Speicher und Bandbreitenkrüppel (680 SLI).

Das der Titan quasi geschenkt sein wird sag ich ja auch nicht, man muß ihn erstmal an seiner Leistung bemessen....
 
Zuletzt bearbeitet:
Krautmaster schrieb:
naja wenn Nvidia denselben Chip für paar 1000€ als Tesla oder Quadro verkaufen kann, wieso soll man sie dann für Consumer verschleudern.
nVidia hatte jetzt genug Zeit die Teile exklusiv für den professionellen Markt zu produzieren, irgendwann ist dieser aber (vorerst) gesättigt. Die Nachfrage wird geringer, die Produktion bleibt auf dem gleichen Level und die "überschüssigen" Chips, welche nicht im prof. Segment untergebracht werden können, schmeißen sie auf den Consumer-Markt und verkauft sie ggf. etwas günstiger, aber immer noch mit reichlich Gewinn. Allemal besser, als die Lager zu füllen oder die Produktion zu senken.
 
steve127 schrieb:
Falls die Leistung gegenüber der gtx680 um mehr als 50% steigt sag ich nix mehr gegen den preis;)

Sollte sie aber auch mindestens.
Wäre sonst bisschen peinlich, wenn die seit mittlerweile seit einem Jahr als absolute "Über-GPU" angepriesene Karte nicht Niveau der Dual-GPU der Vorgängergeneration erreicht.
 
Zurück
Oben