News Angebliche Bilder und Spezifikationen der GeForce GTX Titan

Pilstrinker schrieb:
(...)
Davon abgesehen bezweifel ich, das Publisher wegen übergroßer Sorge um ein gleichmäßiges Gamingerlebnis auf allen Plattformen ein möglicherweise nützliches Feature wegfallen lassen. ;)

Verfolgen wir den gleichen Spielemarkt und die gleiche Entwicklung? Die Publisher machen sich bestimmt keine Sorgen hinsichtlich eines gleichmäßigen Erlebnisses auf allen Plattformen, denn in den meisten Fällen wird das schon allein dadurch garantiert, dass für den kleinsten gemeinsamen Nenner entwickelt wird.
 
Kepler fehlen

Target-Independent Rasterization (2D-Rendering)
16xMSAA Rasterization (2D-Rendering)
Orthogonal Line Rendering Mode
UAV in non-pixel-shader stages


Insbesondere das http://msdn.microsoft.com/en-us/library/windows/desktop/hh404562%28v=vs.85%29.aspx#use_uavs_at_every_pipeline_stage könnte wichtig werden.

Und ist, so weit ich das sehe, nicht bei Kepler verfügbar.

Edit:

Es ist nur so das kein Game dieses Feature einsetzen wird wenn bei einer GTX680 dann 20 FPS rauskommen und bei einer HD7850 60 FPS, oder eben die Optik auf Nvidia Systemen sich dahingehend von AMD Karten sichtlich unterscheidet.

Das kann man mittels simpler Featuresetabfrage regeln, so dass es nur auf Hardware ausgeführt wird, die dazu auch fähig ist. Das muss dann andere Hardware nicht bremsen, lediglich der Vorteil bspw. eventuell noch besserer Darstellung geht dort dann flöten.
 
Zuletzt bearbeitet:
@Pilstrinker
Kannst du denn auch nur annähernd abschätzen, ob die paar fehlenden DX11.1-Features, bzw. deren Umsetzung durch Software statt durch Hardware, irgendwelche Nachteile bringen?

Ich gebe zu, ich bin kein GPU-Experte, DX-Programmierer oder sowas. Aber zwei der vier fehlenden Features sind offensichtlich reines 2D. "Orthogonal Line Rendering Mode" sagt mir jetzt nichts. Gut möglich, dass auch das ein reines 2D-Feature ist. Bei letzten Feature handelt es sich um die Vereinheitlichung einiger DX-Kommandos. Das macht vieleicht nur das Programmieren etwas einfacher, aber ob es Leistung bringt?

Es gibt von Nvidia die ausdrückliche Aussage, dass die Kepler-GPUs alle für 3D-Spiele relevanten DX11.1-Features unterstützten. Man kann das natürlich anzweifeln, aber für das Gegenteil sollte man dann auch ein paar Beweise vorlegen.

Nvidia hat einfach die Entscheidung getroffen, einige DX11.1-Features nicht in Hardware sondern in Software zu realisieren. Also Aufwand bei der GPU-Entwicklung zu sparen und die Arbeit der Software-Truppe aufzuhalsen. Das kann, beim voller Erfüllung der Funktion, bei Anwendungen (aber eher nicht in Spielen), die diese Features nutzen, in DX11.1-Umgebungen theoretisch Leistung kosten. Das wird sich dann in entsprechenden Benchmarks niederschlagen.

Ich kenne aber keinen Benchmark, nicht mal einen noch so praxisfernen, der diesen Nachteil wirklich zeigen würde.

Als damals die HD5000er unter Vista/DX10 gar kein GPU-beschleunigtes 2D mehr beherrschten, war das etwas anders. Da gab es immerhin ein paar sehr arg konstruierte Szenarien, in denen die Radeons dadurch messbar gebremst wurden. Aber es war vorher monatelang keinem aufgefallen. (Und deshalb fand ich die gespielte Empörung der Nvidia-Fans auch einfach nur albern.)
Auch bei Kepler hat niemand die fehlenden Features vorab bemerkt und ich warte immer noch auf die Klagen von Leuten, bei denen z.B. der IE10 unter Win8 wegen der verkrüppelten Kepler-GPUs zu lahm sei. (Alle anderen leben ja eh schon immer ohne diese Features bzw. mit entsprechender Umsetzung in Software.)
 
Zuletzt bearbeitet:
@Pilstrinker

gut, zugegeben maße ich mir nicht an über die "Wichtigkeit" und hardwareabhängigkeit dieses Feature Auskunft geben zu können. Mag sein dass du mit der DX11.1 API des öfteren konfrontiert wirst.

Man sollte aber folgende Aussage im Hinterkopf haben:

In Kreisen der Spieleentwickler sorgt diese Nachricht anscheinend für wenig Aufregung: Gegenüber Bright Side Of News habe ein nicht genannter Entwickler eines AAA-Titels für diverse Plattformen geäußert, dass ohnehin 90 Prozent der Unterschiede zwischen DirectX 11.1 und DirectX 11.0 die Software betreffen. Ein Kollege habe gemeint, dass fast alle Funktionen der neuen Version auch mit DirectX-11.0-Hardware realisierbar seien, was Nvidias Äußerungen bezüglich der Gaming-Features stützt.

https://www.computerbase.de/2012-11/nvidias-kepler-gpus-unterstuetzen-directx-11.1-nur-zum-teil/
 
Na ja, wenn ein "nicht genannter Entwickler" sagt, "ein Kollege habe gemeint" ist das für mich nicht ganz so ernst zu nehmen.

@Herdware

Kannst du denn auch nur annähernd abschätzen, ob die paar fehlenden DX11.1-Features, bzw. deren Umsetzung durch Software statt durch Hardware, irgendwelche Nachteile bringen?

Das ist schwer zu schätzen, aber jede Hardwareverdrahtung ist einer Softwarelösung um Lichtjahre überlegen, was die Ausführungsgeschwindigkeit angeht.
 
Zuletzt bearbeitet:
solange nicht "Vorgänge" passieren wie bei Assassins Creed 1 wo Radeon Karten mit DX 10.1 mit aktiviertem MSAA wesentlich schneller liefen (oder MSAA überhaupt erst ermöglichten), dann aber ein Patch Version 1.1 kam um diese Vorteile wieder rauszupatchen solls mir egal sein.

Die fehlende hardwareseitige Unterstützung einiger weniger DX 11.1 Features seitens Nvidia wird aber denk ich eh keine Auswirkungen auf die Performance haben. Nur schade dass sie falsche Tatsachen vortäuschen mussten.
 
Nur mal so nebenbei wenn es nicht schon da ist... titan.jpg
 
Fehlt da nicht noch Nvidia Surround? Oder führen sie das nicht explizit auf?
 
Pilstrinker schrieb:
Das ist schwer zu schätzen, aber jede Hardwareverdrahtung ist einer Softwarelösung um Lichtjahre überlegen, was die Ausführungsgeschwindigkeit angeht.

Ohne Frage. Wahrscheinlich wäre eine Hardwareumsetzung sogar um Größenordnungen schneller.

Aber wenn man die Dimension der Ausgangsgröße betrachtet, um die es hier wahrscheinlich geht, relativiert sich das möglicherweise schnell wieder. Eine halbwegs moderne Multi-Core-CPU erledigt zumindest die 2D-Darstellung auch ganz ohne weitergehende GPU-Beschleunigung praktisch im Halbschlaf. Ein paar mehr GPU-beschleunigte Aspekte mehr oder weniger, das sind Bruchteile von Prozenten in CPU-Auslastung, die die CPU wahrscheinlich nicht mal aus dem Idle-Modus ziehen. Da lohnt es sich nicht zwangsläufig, das durch Hardwareimplemetation auf hundertfach kleinere Pozentbruchteile zu reduzieren.
Wie gesagt ist 2D-Beschleunigung (also beim Texte darstellen, Linen, Rechtecke, Flächen füllen und verschieben usw.) durch Grafikkarten schon seit 486er-Tagen kein Thema mehr. Die aktuellen CPUs machen das mit Links. Deshalb wird sowas in GPU-Reviews auch gewöhnlich schon ewig nicht mehr getestet.

Auf Tablets mit mickrigen ARM- oder Atom-SoCs der <5W-Klasse, die wiederum um Größenordungnen schwächer sind, als typische Desktop-CPUs, kann das natürlich anders aussehen. Besonders angesichts des Trends hin zu hohen Display-Auflösungen auch in kleinen Mobilgeräten. Das ist der Grund, warum es diese Features in DX11.1 überhaupt gibt. Aber solche Mini-CPUs werden niemals mit Kepler-GPUs kombiniert werden. Jedenfalls nicht mit den Modellen, die in den Desktop-Karten stecken.

Deshalb kann ich Nvidias Entscheidung nachvollziehen. Sie haben sich etwas Aufwand an der GPU-Hardware erspart, auf Kosten von etwas mehr Arbeit am Treiber und schlimmstenfalls etwas mehr CPU-Last in einigen Situationen. Letzteres können sie sich aber schon deshalb ganz gut leisten, weil Nvidias Treiber/GPUs generell etwas weniger von der CPU-Leistung abhängen, als AMDs.
Letztlich kommt es auf das Endergebnis an (das Verhältnis von Grafikleistung und CPU-Auslastung), nicht darauf, ob bestimmte Features in Hard- oder Software realisiert sind. Davon bekommen weder Anwender noch Softwareentwickler etwas mit.
 
Fabulous13 schrieb:
Nur mal so nebenbei wenn es nicht schon da ist... Anhang anzeigen 323562

jep war schon da, aber intererssanter finde ich das hier:

333.jpg


Selbe Quelle sozusagen, die Daten von dir passen exakt zum Referenzmodell Nvidias, anzunehmen dass diese OC Karten Daten somit auch stimmen.

ne ganze Ecke mehr Takt zudem...
 
Krautmaster schrieb:
Und versuch bitte nicht schon wieder eine persönliche AMD vs "Rest der Welt" Diskussion draus zu machen... denn genau darauf zielt dein Quote/Post ab.
Bitte unterstell doch mir nichts falsches. Ich schrieb doch nicht von Trinity & Co.
Nein, es ziehlt nicht drauf ab. Nur weil du nicht verstehst, dass die Software-Entwicklung jetzt auf DX11 statt DX11.1 abziehlt, brauchst du nicht gleich auf alle losgehen, die nicht deine Wahrheit als solches sehen.

Und wenn es erst Tablets & Co sein sollte, dann wäre es umsonwichtiger, wenn es in einem Bereich (High-End-PC-Markt) unterstützt wird. Denn der Tablet- & Smartphone-Markt ist so dominant wie noch nie und Games gibts auch abseits deiner PC-Desktop-Only-Welt.

Wenns genau andersrum wäre, NV DX11.1 bieten würde und AMD "nur" DX11 , wärs mir genauso Banane.
Das glauben sicher nur jene, die auch sonst nur deine Märchen glauben.

Ich mach technologischen Stillstand nicht an DX11 / DX11.1 fest.
Nur weil du es der Meinung bist, muss du es nicht gleich anderen Aufdrücken.
Ein sogenannter Stillstand ist immer ein Hinterherlaufen, was dann zu einem Rückschlag führen kann, wenn die Konkurrenz-Entwicklung @ Smartphone & Tablet schneller vorpresht.

ich glaube du hast den "Sinn" der TITAN noch nicht ganz verstanden. Die Stückzahl ist absolut unerheblich, genauso der Preis. Bei der Karte geht es darum das Prestige Modell zu haben, und der Launch selbst / die Karte selbst kostet Nvidia kaum was da man die Tesla Karten / Chips ohnehin schon hat.

Die Karte ist nicht einfach neues High End, sie differenziert sich über den Preis.
Typischer Fall von gleichgeschaltenem Marketing-Denken.
Es wird ein Mythos über Preis & Enkoppelten Namen aufgebaut, sodass klares denken über Preis-Leistung & Co wegrationalisiert wird.

Stückzahlen sind nicht unerhelbich, sondern wenn diese 10.000 Stimmen, dann zeigt es mehr als deutlich, dass Nvidia nicht anders kann und die Paar Stück dann mit hocheffizienten teuren Komponenten hochzüchtet.

Noch im 3Q 2012 wurde ich ja belehrt, Weil ich ja nichts verstehen, dass Nvidia nach K20-Auslieferung, den Desktop-Markt schwemmen wird. Leider ist das nicht eingetreten. Da im FY 3Q 2013 (FY = Finanz-Jahr = 3Q 2012 + 1 Monat) quasi nur K20-Tesla verkauft wurden (siehe Top500-Liste, wo nur mehr 2 K20-Tesla-Systeme hinzukamen), kannst du davon ausgehen, dass im FY 4Q 2013 die K20-Stückzahl-Auslieferungen @ Telsa zurückgegangen sind, weil die Umsätze von Telsa im FY 4Q 2013 zurückgegangen sind.

Im Klartext heißt es, auch wenn wenn wenn die 10.000 Stück bis Ende FY 4Q 2013 herstellt wurden, bedeutet dass der GK110-Destop-Ramp deutlich geringer ist als im 3Q 2013. Und das übrigens mit besseren Yields !!!.

(FY 3Q 2013 = Finanz-Jahr = 3Q 2012 + 1 Monat)

Bei dieser kleinen Rechnung muss man aber auch erwähnen, dass jetzt schon fast 1 Monat um ist (als der Februar 2013, welche im 1Q 2014 Finanz-Jahr mitgerechnet wird), was ich jetzt einmal vernachlässigt habe und so die Situation schöner darstelle, als es ist. Also, du sollst nicht die Symotome als Grund sehen, sondern die Quelle und die Liegt in der Problematik der Big-Die-Herstellung. Und daraus lassen sich auch die Gerüchte über eine GK110-Einführung Mitte 2013 erklären.

Die jetztige Problematik wird jetzt schon ignoriert, weil GK110 wieder nur Teildeaktiviert daherkommt, wie es bei GF100 passierte. Nur sollte man wissen, dass bei GF100 ein Desgin-Fehler zum deaktiviere des immer gleichen SM der Grund war.

Viele sehen die Problematik (Preis, Verfügbarkeit) nicht so schlimm, weil sie ja an einem 20nm @ Ende 2014 und somit GM110 @ Ende 2015 glauben. Aber gut, vor über einem Jahr wurde man ja auch als naiver Mega-Fanboy bewertet, wenn man an einem GK100 @ Anfang 2012 glaubte, der mit +100% gegenüber GTX 580 und 600$ den achsoüberteuren HD 7970 sowas von Wegfegen wird, dass der Preis massiv fallen wird. 1 Jahr und 400$ später macht es laut den selben Leuten noch mehr Sinn diese hoffentlich +100% Performance doch um 1000$ in limitierter Stückzahln zu verkaufen.

PS: Der Fehler an den Preis-Vergleichen liegt übrigens auch daran, dass mit den GTX 680 verglichen wird, der Preis-Leistungsmäßig schonmal hinterherinkt.
 
die News dazu auch ;)
Ergänzung ()

aylano schrieb:
Bitte unterstell doch mir nichts falsches. Ich schrieb doch nicht von Trinity & Co.
Nein, es ziehlt nicht drauf ab. Nur weil du nicht verstehst, dass die Software-Entwicklung jetzt auf DX11 statt DX11.1 abziehlt, brauchst du nicht gleich auf alle losgehen, die nicht deine Wahrheit als solches sehen.

bitte? Da geht es doch direkt weiter...
Ich schrieb lediglich davon dass ich "technologischen Fortschritt" nicht an der Problematik DX11 vs. DX11.1 festmache, zumal 2 von vielen DX11.1 Features fehlen.
Du stellst das Fehlen dieser Features so dar als ob es massiv den Fortschritt bremst und die Entwicklung an 11.1 hindert - ich sagte lediglich dass ich das nicht so sehe.
Das hat nichts mit "meiner Wahrheit" zu tun, das ist schleicht Ansichtssache die diverse Leute offensichtlich auch geteilt haben. Problem an deiner Argumentation ist die dass du mit Kommentaren wie

aylano schrieb:
Aber u bist dann auch einer der ersten der schreit, wenn es einen sogenannten "technischen" Stillstand wieder gibt. Bei dir ist es immer unbedeutend oder ein nettes Features, wenn AMD wo technisch vorne ist.
Nix neues.

offensichtlich nicht fähig bist neutral deine Ansicht zu posten und auf einzelne Aussagen einzugehen sondern meine persönlichen "angeblichen" Vorlieben hervorheben willst was ich dir im letzten Post auch zu verstehen gab.

Das glauben sicher nur jene, die auch sonst nur deine Märchen glauben.

Und schon geht es weiter. Ich habe dich gerade darum gebeten keine Persönliche Diskussion draus zu machen und was macht der Herr, genau das Gegenteil. Was hat das jetzt mit "Märchen" zu tun wenn ich absolut neutral vom Besten gebe dass ich es nicht als kauf-entscheidend sehe ob eine Grafikkarte die zwei Fehlenden DX11.1 Features unterstützt oder nicht?

Ich habe nicht umsonst mit Trinity ausgeholt oder geschrieben dass andersherum (AMD DX11, Nvidia DX11.1) meine Entscheidung dieselbe wäre, weil der Herr mir ja immer gerne einen gewissen "AMD Hass" unterstellt.

Nur weil du es der Meinung bist, muss du es nicht gleich anderen Aufdrücken.

Naja, ich weiß ja nicht was du als "aufdrücken" verstehst aber die Meinung neutral im Forum zu posten oder andere versuchen in eine persönlich beleidigende Diskussion zu verstricken sind zweierlei Schuhe...
Wenn ich dir meine Meinung zu sehr "aufdrücke" solltest du die Posts vielleicht überlesen.


...
zeigt es mehr als deutlich, dass Nvidia nicht anders kann und die Paar Stück dann mit hocheffizienten teuren Komponenten hochzüchtet.
...
ahja, wenn man schon selbst anderen "Märchen" unterstellt sollte man eventuell nicht selbst mit "Märchen" umherwerfen.

Die jetztige Problematik wird jetzt schon ignoriert, weil GK110 wieder nur Teildeaktiviert daherkommt, wie es bei GF100 passierte. Nur sollte man wissen, dass bei GF100 ein Desgin-Fehler zum deaktiviere des immer gleichen SM der Grund war.

das ist deine Theorie. Ich frage dezent zurück welchen Sinn es hätte einen komplett aktiven GK110 zu bringen, den man bis hin zu 20nm kaum oder gar nicht überholen könnte?
Mit einem teildeaktivierten GK110 hält man sich erst die Option zur GTX 780 gegen Ende des Jahres - eher Anfang 2014 offen.

Ich erkenne den Zugzwang nicht den du hier bei Nvidia siehst... die Verkaufszahlen und Gewinne sind iO, die GTX 680 läuft gut gegen die HD7970 die Topmodell bis Ende 2013 bleiben wird.

Weder AMD noch Nvidia hat Zugzwang. Abgesehen davon wird sich die GTX 680 günstiger fertigen lassen und die Marge entsprechend besser ausfallen.

Wichtigste Eigenschaft ist wohl der höhere Preis der GTX680 im vergleich zur Konkurrenz bei günstigerer Fertigung. Wieso sollte Nvidia also aus "Bedrängnis" den GK110 bringen? Viel eher würde man seinen vermeidlichen Preisvorteil (in der Fertigung) ausnutzen und den preis der GTX 680 erstmal nach unten korrigieren.

PS: Der Fehler an den Preis-Vergleichen liegt übrigens auch daran, dass mit den GTX 680 verglichen wird, der Preis-Leistungsmäßig schonmal hinterherinkt.

genau. Und wieso? Weil sie sich trotz höheren Preis genauso gut verkauft ;)

Das ist eher Pro GTX680, nicht kontra.
Wäre auch das erste "Rad" an dem Nvidia in Falle einer Bedrängnis drehen würde.
 
Zuletzt bearbeitet:
StYleR schrieb:
Also die Max. DVI Auflösung von 4096x2160 hört sich nicht schlecht an :)
Wenn du gerne 30hz hast ^^

Messu schrieb:
Die Karte ist doch noch nicht draussen.Aber Evga bereitet sich schon mal vor:
Ach das hast du bisher noch nicht mitbekommen? Unwinder hat EVGA vor 1-2 Wochen darüber gelobt wie toller Support die von Nvidia bekommen um Titan Software zu optimieren!


Herdware schrieb:
Ich frage mich, ob der MSI-Afterburner mit einer Titan funktionieren würde, bzw. ob es ein entsprechendes Update geben wird.
EVGA precision wurde auch von Unwinder entwickelt, welcher auch MSi Afterburner entwickelt hat.... die Chancen stehen gut, und sonst hast du mit Precision ein ähnliches Programm.


Interessant finde ich eigentlich dieses hier:
titan-press-leak-6.png

Wo doch sonst alle 680 im moment gesperrte Voltage haben oder ?
 
Krautmaster schrieb:
bitte? Da geht es doch direkt weiter...
Ich schrieb lediglich davon dass ich "technologischen Fortschritt" nicht an der Problematik DX11 vs. DX11.1 festmache, zumal 2 von vielen DX11.1 Features fehlen. Du stellst das Fehlen dieser Features so dar als ob es massiv den Fortschritt bremst und die Entwicklung an 11.1 hindert - ich sagte lediglich dass ich das nicht so sehe. Das hat nichts mit "meiner Wahrheit" zu tun, das ist schleicht Ansichtssache die diverse Leute offensichtlich auch geteilt haben. Problem an deiner Argumentation ist die dass du mit Kommentaren wie
Du gibts nicht auf gell?
Du zwingst mir richtig deine Wahrheit aufzudrücken.
Du verstehst nicht, dass es nur deine Meinung ist (und das noch ohne konkreten Bezug) und wenn es mehrere Leute sagen, dann glaubst du automatisch, dass es Fakt ist.

offensichtlich nicht fähig bist neutral deine Ansicht zu posten und auf einzelne Aussagen einzugehen sondern meine persönlichen "angeblichen" Vorlieben hervorheben willst was ich dir im letzten Post auch zu verstehen gab.
Wie kommst du eigentlich immer darauf, dich über andere Menschen zu stellen und sie zu beurteilen & Belehren.

Ich habe dich gerade darum gebeten keine Persönliche Diskussion draus zu machen und was macht der Herr, genau das Gegenteil.
Ich hatte schon mehrmals gesagt, dass mich deine Meinung nicht interessiert. Dass du wiedermal auf meine Meinung reagiert hast, zeigt mehr als offensichtlich deine gezielten Anfeindungen.

Wenn ich dir meine Meinung zu sehr "aufdrücke" solltest du die Posts vielleicht überlesen.
Guter Ratschlag.
Und Nö, ich überlese nicht deine gezielten Attacke versteckt hinter einer unschuldigen "Meinung".
Wie ich schon sagte, guter Ratschlag.
Denn du könntest auch mal meine Meinungen überlesen. Aber da du es selber nicht tust, zeigt eben, wie Wertlos deine Ratschläge basierend auf deinem achsotollen Wissen sind.

Nur ein Tipp: Ratschläge müsse auch bei sich selber gelten.

das ist deine Theorie. Ich frage dezent zurück welchen Sinn es hätte einen komplett aktiven GK110 zu bringen, den man bis hin zu 20nm kaum oder gar nicht überholen könnte?
In Meiner Theorie hat Nvidia immer noch non-Teildeaktierte Karten rausgebracht.
Und die M2090 (erste non-Teildeaktivierte GF100) kam so 6 Monate vor HD 7970.

Mit einem teildeaktivierten GK110 hält man sich erst die Option zur GTX 780 gegen Ende des Jahres - eher Anfang 2014 offen.
Keine Ahnung, was du da redest.

Ich erkenne den Zugzwang nicht den du hier bei Nvidia siehst... die Verkaufszahlen und Gewinne sind iO, die GTX 680 läuft gut gegen die HD7970 die Topmodell bis Ende 2013 bleiben wird.
Es geht darum, dass Nvidia es immer schwieriger hat, den Big-Die mit kleinerer Feritgung am Markt zu bringen. Das ist eine technische Entwicklung, die ich übridgens seit GT200b vorsagte. Also, das ist viel Technisches Wissen gefragt, um sinnvolle Prognose für die Zukunft zu machen und nicht deinens, wo du nur paar aktuelle Finanz-Zahlen vorliest. Dass Nvidia momentan Finanz-Technisch gut da steht, liegt primär daran, dass a) AMD momentan nicht mehr diesen Preiskampf macht wie früher und b) momemtan mit Tesla & Co einige Monopole hatte.

Weder AMD noch Nvidia hat Zugzwang. Abgesehen davon wird sich die GTX 680 günstiger fertigen lassen und die Marge entsprechend besser ausfallen.
Wir reden von Preis-Leistung.
Ich hatte nach all den jahrenlangen Preis-Leistungs-Diskussionen geglaubt, die immer auf einer akutellen Single-GPU-Krone bzw. irgnedwann kommender Single-GPU-Krone von einer Nvidia-Karte abgeleitet wurde, dass die Aussagen auch gelten.
Interessant, dass es aufeinmal nicht mehr gilt, wenn Nvidias-Top-Karte sich komplett von der Preis-Leistungs-Schiene entkoppelt.

Wichtigste Eigenschaft ist wohl der höhere Preis der GTX680 im vergleich zur Konkurrenz bei günstigerer Fertigung. Wieso sollte Nvidia also aus "Bedrängnis" den GK110 bringen?
Richtig, Nvidia hat die besondere Eigenschafft, dass ihre Kunden sich bei gleicher Performance sehr gerne abzocken lassen.
Man konnte eh lesen, wie viele Leute eine GK110 kaufen, egal wie die Performance aussieht. Wenn eine Firma einen Mythos aufbaut (siehe Apple), dann kann man den Leute noch mehr Geld verlangen.
 
Im falschen Topic gepostet! ;-)
 
Zuletzt bearbeitet:
@ alyano

das is doch Quatsch. Im Vergleich heute (GK104 vs. Tahiti) fährt AMD diese "Big-DIE" - die Zeiten kleiner DIE in 4D/5D sind bei AMD gezählt.

Preis Leistung hat erstmal wenig damit zu tun, denn Nvidia würde den Preis der jetzigen GTX 680 nicht so hoch ansetzen wenn man die Karten schwer losbringen würde.
Alles auf Preis-Leistung zu reduzieren ist Quark und sagt doch nichts über die Bedrängnis des jeweiligen Unternehmens aus...

Mal abgesehen davon, wie bereits erwähnt, hat Nvidia vermutlich mehr Spielraum beim Preiskampf mit der GTX 680 / GK104. Günstigeres PCB da kleineres SI, weniger RAM (3 -> 2 GB) , den kleineren Chip mit weniger TDP (folglich günstigere Versorgung und Fertigung).

Auch sage ich nicht das wenn "ich" etwas meine dieses automatisch Fakt ist - beim Posten einer solchen "Meinung" wird es immer jemand geben der diese stützt und jemand dagegen argumentiert da er eben nicht diese Meinung hat.

Und meine Meinung zu deinem "Nvidia ist in Bedrängnis und launched deswegen TITAN"-Post kennst du.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@ alyano
das is doch Quatsch. Im Vergleich heute (GK104 vs. Tahiti) fährt AMD diese "Big-DIE" - die Zeiten kleiner DIE in 4D/5D sind bei AMD gezählt.
Unsinn.
a) HD 5870 & HD 6970 war kaum kleiner als HD 7970.
b) Big-Die ist grundsätzlich 500+mm² gemeint.
c) GK104 ist einen non-GPGPU und HD 7970 eine GPGPU-CPU. Das Problem bei Maxwell wird sein, dass die Telsa-Big-Die-Variante nicht so einfach 1 Jahr nach HD 9000 (= FirePro-Einführung????) kommen kann. Und selbst wenn GM104 mit 350mm² & GPGPU kommen wird, wird es aber leider nicht so eifnach sein wie GK104, welches eben schonmal 1 Quartal später kam.

Preis Leistung hat erstmal wenig damit zu tun, denn Nvidia würde den Preis der jetzigen GTX 680 nicht so hoch ansetzen wenn man die Karten schwer losbringen würde. Alles auf Preis-Leistung zu reduzieren ist Quark und sagt doch nichts über die Bedrängnis des jeweiligen Unternehmens aus...
Was soll daran Quatsch sein?
Nur weil deine Lieblingsfirma in Preis-Leistungs-Mäßig nicht mithalten kann, sollen auf einmal die Kaufargumente der letzten vielen Jahre auf einmal Quatsch sein?
Aber du kannst gerne direkt statt indrekt sagen, dass der typische Nvidia-Käufer sowieso nur Nvidia kauft, egal wie performance-Schwach das Produkt ist. Genau das drückst du nähmlich aus, weil du ja sagst, dass die leute eh das Preis-Leistungstechnische schwächere produkt gerne kaufen und daher Nvidia nicht gezwungen ist, die GK104-Preise zu senken.

Auch sage ich nicht das wenn "ich" etwas meine dieses automatisch Fakt ist - beim Posten einer solchen "Meinung" wird es immer jemand geben der diese stützt und jemand dagegen argumentiert da er eben nicht diese Meinung hat.
Natürlich, sonst würdest du nicht anderen Sagen, dass sie Quatsch erzählen oder sonst was nicht verstehen.
Mit einer Meinung kann man nicht eine Aussage als falsch oder Quatsch beurteilen.
Natürlich wird das gemacht, nur verstehen diese Leute nicht, dass es keine Meinung war. Das zeigt sich halt auch durch dein Oberlehrer-Verhalten, wo du andere belehrst.

Und meine Meinung zu deinem "Nvidia ist in Bedrängnis und launched deswegen TITAN"-Post kennst du.
Warum sollte mich deine interessieren?
Ich kenne dich ja, dass du zuerst das Produkt abwartest und dann dann obergscheiten spielst und dabei irgendwelche Meinungen ableitest. Natürlich macht es Sinn in dieser Situation Mega-Preise für GK110 zu bringen. Dass du es sinnig siehst, beweißt wie gut Nvidias-Marketing- funktioniert. Und Marketing ist nunmal da, um naive & unwissende Leute so zu fangen, dass sie den Sinn eines Produktes erkennen, welches je nach Geld-Potential dann zu einem Kauf-Option werden kann.
 
aylano schrieb:
Unsinn.
a) HD 5870 & HD 6970 war kaum kleiner als HD 7970.

Und? Die waren auch 40nm. Für die Größe/Transistorzahl von Tahiti verglichen mit Cayman fällt die Gaming Mehrleistung eher mager aus.

b) Big-Die ist grundsätzlich 500+mm² gemeint.
Die "Big-DIE" stand bei der G80 extrem gut da, bei den danachfolgenden Nvidia Generationen eher schlecht da AMD eine sehr effiziente 4D/5D Architektur hatte, Nvidia seit G80 auf 1D setzte. Schaut man sich die Rohdaten an, merkt man, dass 1D bezüglich Leistung / Transistorbudget praktisch immer deutlich im Nachteil war, aber konstantere Leistung zeigte. Und genau das zeigt sich auch in Tahiti - die Gaming Mehrleistung zur Cayman oder gar Cypress steht in keiner Relation zum Mehraufwand an Transistorbudget - auch weil man wie du richtig sagst viel in GPGPU investiert hat (was Nvidia zb beim GF100 genauso getan hat- worunter die Gamingeffizienz / Transistor leidet)

Jetzt mit 1D lassen sich die Architekturen und Chips weit besser vergleichen als bei den Vorgänger Generationen.

c) GK104 ist einen non-GPGPU und HD 7970 eine GPGPU-CPU. Das Problem bei Maxwell wird sein, dass die Telsa-Big-Die-Variante nicht so einfach 1 Jahr nach HD 9000 (= FirePro-Einführung????) kommen kann. Und selbst wenn GM104 mit 350mm² & GPGPU kommen wird, wird es aber leider nicht so eifnach sein wie GK104, welches eben schonmal 1 Quartal später kam.
bezog sich auf was genau?

Was soll daran Quatsch sein?
Nur weil deine Lieblingsfirma in Preis-Leistungs-Mäßig nicht mithalten kann, sollen auf einmal die Kaufargumente der letzten vielen Jahre auf einmal Quatsch sein?

Naja, abgesehen davon dass du schon wieder mit deinem unangebrachten persönlichen Krams anfängst denke ich, dass generell Preis/Leistung, vor allem bei einer Karte wie TITAN, wohl die geringste Bedeutung hat. Wenn alle Käufer nur nach Preis/Leistung schreien würden dann hätten wohl alle einen kleinen Trinity oder Celeron gepaart mit einer gebrauchten HD5870 im PC... würden keine iPhones und Porsche kaufen.

Dass die GTX 680 einen höheren Preis als die HD7970 fährt ist kein "Con" Nvidia, viel eher eher Resultat der Nachfrage. Und hier sind diverse Käufer wohl der Meinung einen höheren Preis zu zahlen, da sie eventuell auf Dinge wie PhysX und Anderes wert legen, oder eben mit Nvidia liebäugeln. Ganz egal was die Käufer antreibt ... das Resultat ist der Preis den Nvidia festsetzt. Nvidia bunkert sicher keine GK104 - heißt die Karten werden sich verkaufen. Würden sie das nicht würde man mit dem Preis nach unten gehen.

Aber du kannst gerne direkt statt indrekt sagen, dass der typische Nvidia-Käufer sowieso nur Nvidia kauft, egal wie performance-Schwach das Produkt ist. Genau das drückst du nähmlich aus, weil du ja sagst, dass die leute eh das Preis-Leistungstechnische schwächere produkt gerne kaufen und daher Nvidia nicht gezwungen ist, die GK104-Preise zu senken.

Zu "Leistung" in Preis/Leistung gehört ja nicht nur die Performance. Ich bestreite ja nicht dass die GTX 680 die schlechtere Karte bei Preis/Leistung ist, im Gegenteil, umso nachdenklicher sollte es dich machen wieso Nvidia trotz der offensichtlichen "schlechteren" Preis/Leistung einen höheren Preis fahren kann - bei offensichtlich guter Nachfrage.

Was ist deiner Meinung nach Grund für den höheren Preis der GTX 680 bei aus deiner Sicht schlechterer Preis/Leistung?

Natürlich macht es Sinn in dieser Situation Mega-Preise für GK110 zu bringen. Dass du es sinnig siehst, beweißt wie gut Nvidias-Marketing- funktioniert. Und Marketing ist nunmal da, um naive & unwissende Leute so zu fangen, dass sie den Sinn eines Produktes erkennen, welches je nach Geld-Potential dann zu einem Kauf-Option werden kann.

Genauso funktioniert das Apple Marketing, Intel Marketing usw usw. Apple hat vorgemacht wie ein "Hype" eine enorme Kaufkraft erzeugen kann, auch bezogen auf vollkommen überteuerte Produkte, selbst dann wenn die Konkurrenz aufgeholt hat. Der iPhone Preis war seinerzeit absolut berechtigt als es nichts Vergleichbares gab. Solangsam lässt dieser Hype nach...

Marketing wie es Nvidia betriebt ist doch nichts schlechtes. Wenn sie den Chip haben und nun bringen, egal zu welchem Preis, ist das doch nur positiv da der CHip einen Fortschritt bedeutet. Schnellste Single GPU Karte. Welchen Preis das einem wert ist sei doch jedem selbst überlassen, oder?
Es müssen nicht unbedingt naive & unwissende Kunden sein... oder bin ich auch naiv und unwissend wenn ich mir ne Rolex statt einer Tshibo Armbanduhr hole?
Vielleicht ist es schlicht "Hobby" , vllt. Enthusiasmus? Ging es dir noch nie so, dass du für etwas mehr Leistung verhältnismäßig viel Aufpreis gezahlt hast?

Natürlich macht es Sinn in dieser Situation Mega-Preise für GK110 zu bringen. Dass du es sinnig siehst, beweißt wie gut Nvidias-Marketing- funktioniert. Und Marketing ist nunmal da, um naive & unwissende Leute so zu fangen, dass sie den Sinn eines Produktes erkennen, welches je nach Geld-Potential dann zu einem Kauf-Option werden kann.

ich sehe es nicht sinnig, ich sehe es logisch und verstehe es wenn Nvidia einen hohen Preis fährt. Mir persönlich würde eine 500€ Karte auch besser schmecken, allerdings müsste ich dann Nvidias Marketing als "selten dämlich" bezeichnen. Wir leben in keiner Gesellschaft in welcher ne Firma wie AMD oder Nvidia dem Kunden Technik hinterher wirft, schon gar nicht konkurrenzlose Technik.

Ich kann nichts dafür dass du gerne in diesem Schlaraffenland leben würdest ... mit meiner Meinung zum Preis der GTX TITAN steh ich nicht alleine da. Er ist unschön hoch, für sich aber auch verständlich.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Und? Die waren auch 40nm. Für die Größe/Transistorzahl von Tahiti verglichen mit Cayman fällt die Gaming Mehrleistung eher mager aus.
Über dich kann man nur lachen.
Also, ein 350mm²-Big-Die ist bei 28nm ein Big Die, aber bei 40nm nicht.
Lustig, wie die deine Welt immer weider schön redest und du dann glaubst, irgendwas zu wissen.

Wenn du ja so Obergscheit bist, dann erklär auch, warum Thaiiti sooo schlecht mit ihrer größe ist, wo Nvidia es nicht schaffte 2012 einen schnellere GPU am Markt zu bringen. Einfach zu sagen, dass ist falsch und irgendwelche nichttechnischen Gründen zu begründen, hat nichts mit Gscheitheit zu tun, sondern ist einfach nur Aroganz & Feindlich.

Nur ein Tipp:
a) Es war nicht möglich 500mm² im Jahr 2012 sinnvoll (= in guten Preise) rauszubringen, wodurch 350mm² sehrwohl High-Ehd ist.
Mit bischen Technisch-Ahnung würdest du wissen, dass die Fertigungs-Entwicklung immer stetig passiert und nicht in Sprungen und schon gar nicht in großen Sprüngen. Deshalb zeigt TSMC, GF & Intel & Co immer Defect-Yieldraten mit schönen Linen bzw. Kurven.

Die "Big-DIE" stand bei der G80 extrem gut da, bei den danachfolgenden Nvidia Generationen eher schlecht da AMD eine sehr effiziente 4D/5D Architektur hatte, Nvidia seit G80 auf 1D setzte. Schaut man sich die Rohdaten an, merkt man, dass 1D bezüglich Leistung / Transistorbudget praktisch immer deutlich im Nachteil war, aber konstantere Leistung zeigte. Und genau das zeigt sich auch in Tahiti - die Gaming Mehrleistung zur Cayman oder gar Cypress steht in keiner Relation zum Mehraufwand an Transistorbudget - auch weil man wie du richtig sagst viel in GPGPU investiert hat (was Nvidia zb beim GF100 genauso getan hat- worunter die Gamingeffizienz / Transistor leidet)
Kein Mensch versteht, was das mit Big-Die-Diskussionen zu tun hat.
Bzw. Wo der Grund liegt, dass Nvidia es immer schwieriger hat einen Big-Die am Markt zu bringen.

Nachhineingesehen war R600 zu früh, wo das Front-End mit nur 4 SIMD viel zu überdimensioniert war.
Oder GTX480 hatte ja auch zu früh bzw. zu viel Tesselation-Performance, wo AMD dann z.B: mit HD 6970 nachziehen musste.
Aber selbst R600 ändert nichts and der Tatsache, dass G80 in großen Stückzahlen verfügbar war.

Naja, abgesehen davon dass du schon wieder mit deinem unangebrachten persönlichen Krams anfängst denke ich, dass generell Preis/Leistung, vor allem bei einer Karte wie TITAN, wohl die geringste Bedeutung hat. Wenn alle Käufer nur nach Preis/Leistung schreien würden dann hätten wohl alle einen kleinen Trinity oder Celeron gepaart mit einer gebrauchten HD5870 im PC... würden keine iPhones und Porsche kaufen.
Ein Prosche wurde nie zu günstigen Preise verkauft.
Und ja, es ist mein Vorwurft, dass Intel die Leute abzockt, dass sie ihnen einen viel teueren Intel andrehen lassen, anstatt einen wo der viel günstigere Trinity für die meisten auch ausreicht.

Du musst nur verstehen, dass die 500mm²-Big-Dies bisher immer ein Massen-High-End-Produkt waren.

Zu "Leistung" in Preis/Leistung gehört ja nicht nur die Performance. Ich bestreite ja nicht dass die GTX 680 die schlechtere Karte bei Preis/Leistung ist, im Gegenteil, umso nachdenklicher sollte es dich machen wieso Nvidia trotz der offensichtlichen "schlechteren" Preis/Leistung einen höheren Preis fahren kann - bei offensichtlich guter Nachfrage.
Wir kennen übridgens auch keine Stückzahlen, sodass wir es nicht so sagen können. Preise senken muss die Voraussetzung haben, genügend Stückzahlen/28nm-Wafer zu haben. Und genau da mangelt es auch.

Aber du kannst gerne zum Ausdruck bringen, dass die Nvidia-Experten in den letzten Jahren immer falsch lagen, wo sie mit Performance-Krone & dadarf schlussendlich beseren Preisleistung immer Nvidia als bessere Karte sahen und verkündeten.

Ich frage mich jetzt, warum jene Nvidia-Experten, die jetzt unüblich die Mega-Preise verteidigen jetzt aufeinmal recht haben sollten, wenn sie in den letzten Jahren falsch mit ihrer Performance-Krone & dadurch Preis-Leistungbetrachtung falsch lagen?

Was ist deiner Meinung nach Grund für den höheren Preis der GTX 680 bei aus deiner Sicht schlechterer Preis/Leistung?
So wie die sagtest. a) Dass viele nur ihre Marke kaufen und b) weil Nvidia 28nm-Wafer für Tegra spart und so nicht die GK104 massiv steigert, wie es früher üblich war bzw. bei geringen Preisen üblich ist.

Genauso funktioniert das Apple Marketing, Intel Marketing usw usw. Apple hat vorgemacht wie ein "Hype" eine enorme Kaufkraft erzeugen kann, auch bezogen auf vollkommen überteuerte Produkte, selbst dann wenn die Konkurrenz aufgeholt hat. Der iPhone Preis war seinerzeit absolut berechtigt als es nichts Vergleichbares gab. Solangsam lässt dieser Hype nach...
Jupp, und genau dieser Hype funktioniert bei Intels CPU-Only-Performance betrachtung genauso.

Marketing wie es Nvidia betriebt ist doch nichts schlechtes. Wenn sie den Chip haben und nun bringen, egal zu welchem Preis, ist das doch nur positiv da der CHip einen Fortschritt bedeutet. Schnellste Single GPU Karte. Welchen Preis das einem wert ist sei doch jedem selbst überlassen, oder?
Sagt ja keiner, nur glauben die Leute, die auf das Marketing reinfallen, dass sie was verstehen, wenn sie mit den Marketing-Folien gleichgeschalten denken. Deshalb ist es dir ja so schwierig bei Intel, dass du mal ein klarerers Bild siehst.

Es müssen nicht unbedingt naive & unwissende Kunden sein... oder bin ich auch naiv und unwissend wenn ich mir ne Rolex statt einer Tshibo Armbanduhr hole?
Du musst verstehen, dass eine Rolex kein Massen-Produkt ist.
Was du bei Intel glaubst ist, dass die Mainstream-Masse (so 40-60%) neben den (20-40%)Billigware eine Rolex braucht.

Vielleicht ist es schlicht "Hobby" , vllt. Enthusiasmus? Ging es dir noch nie so, dass du für etwas mehr Leistung verhältnismäßig viel Aufpreis gezahlt hast?
Natürlich habe ich hobbys, wo ich mehr Geld als nötig ausgebe.
Aber wenn ich Empfehlungen gebe, dann empfehle ich sagen, was die Masse benötigt und da dränge ich nicht mein Hobby ihnen auf, sodass sie vieles Haben, was sie nicht brauchen.
Und das ist der Fehler von dir, das du ja nicht verstehen willst, dass die Leute CPU-Only weit weniger brauchen als du es glaubst.

ich sehe es nicht sinnig, ich sehe es logisch und verstehe es wenn Nvidia einen hohen Preis fährt. Mir persönlich würde eine 500€ Karte auch besser schmecken, allerdings müsste ich dann Nvidias Marketing als "selten dämlich" bezeichnen. Wir leben in keiner Gesellschaft in welcher ne Firma wie AMD oder Nvidia dem Kunden Technik hinterher wirft, schon gar nicht konkurrenzlose Technik.
Wenn du was nicht verstehst, beginnst du immer herumzuphilosofieren.
GK100 war nicht von Anfang an als 1000 Euro Gamer-GPU geplant. Dass du es schönredest, liegt daran, dass Nvidia im 300-600$ Markt zweite Geige spielt und die Leute dort nur ihre Markte kaufen.

Ich kann nichts dafür dass du gerne in diesem Schlaraffenland leben würdest ... mit meiner Meinung zum Preis der GTX TITAN steh ich nicht alleine da. Er ist unschön hoch, für sich aber auch verständlich.
Dass es früher 500mm²-Karten um 300-550 Euro gab, war nicht nur mehrmals Realität sondern Alltag.
Du verkraftest es nicht, dass deine Lieblingsfirma im 300-550 Euro Markt bei weitem nicht mehr Konkurrenzfähig ist, wie sie es früher waren.

Bevor du weiter mit deiner Unwissenheit den Obergscheiten über das erschienene Produkt spielst, solltest einmal sagen, wie AMD & Nvidia es beim 20nm-Wechsel machst.

Deine falschen Aussagen (= deine Meinung) über die Verfügbarkeit & Preis von Titan interessiert mich von dir sowas von überhauptnicht, nachdem die schlimmen Prognosen von 1,5 Jahren ja eingetreten sind. Und zwar anders (keine Mega-TDP sondern Mega-Preise), aber primar dass es keinen GTX Titan im 2Q 2012 mit +60-100%-Performance um 500 Euro geben wird.

PS: Ich hätte nicht erwartet, dass man die GTX Titan die wirkliche Qualität (Stückzahlen, Performnace-pro-Watt & Co) nach der Erscheinung noch immer nicht einschätzen kann. Nach 1 Jahr warten, heißt es wieder warten & warten.
 
Zurück
Oben