News Angebliche Bilder und Spezifikationen der GeForce GTX Titan

Suizid schrieb:
Verdammt, hallo Opa! XD

Und ich habe meinen 386 auf 4 x 1 MB SIMM eigenhändig aufgerüstet,

img_A_110298_dba8bf55bc9ef345daeda5fb8aa937d3.jpg


weil sonst die Datenbank nicht lief (Borland Paradox). Fragt nicht, was das gekostet hat. Aber es musste sein.

Später hat man sich dann dass hier gegönnt:
Et4000ax.jpg

Tseng ET4000. Na, wer kennt die noch?

Da lief "Commander Keen" drauf. Und später: "Larry".
 
Zuletzt bearbeitet:
cust0m schrieb:
Klingt komisch, ist aber so.

Das ist nicht komisch, das ist Prozentrechnung Grundschule.


blöderidiot schrieb:
Und ich habe meinen 386 auf 4 x 1 MB SIMM eigenhändig aufgerüstet, weil sonst die Datenbank nicht lief (Borland Paradox). Fragt nicht, was das gekostet hat.

386? 4Mbit RAMs? Jungspund! :D

Die Aufrüstung meines Macintosh Plus auf 4MB hat damals über 2500 DM gekostet. Zuzüglich Mac-Opener, den man extra aus den USA importieren mußte.
Wie schön, daß Hardware heute nichts mehr kostet.
Der Nachteil ist, daß sich die alten Grafikkarten und Motherboards im Keller stapeln.
Der Vorteil ist, man muß nicht mehr selber Assembler-Routinen in den ROMs umschießen, nur um auf neue Hardware wenigstens Low-Level-Zugriff zu haben - wie hell die EPROMs doch vor ihrem Tod aufstrahlten, wenn man sie aus Versehen mit der falschen Voltzahl beschickte :freaky:

Aber btt:

Wieso glauben eigentlich viele, so ein 7Mrd.-Transistor-Brocken wie der GK110 ließe sich genau so einfach übertakten wie eine GK104?
Seltsam auch das in manchen Publikationen gezeigte Verhältnis von SP : DP von 3,5:1, das eigentlich 3:1 betragen sollte. Hat da NV den GK110 kastriert oder jemand beim Türken der Zahlen gepennt?
 
Zuletzt bearbeitet von einem Moderator:
calluna schrieb:
@Sonyfreak

Du hast noch nie ein CF-Profil bei einer DualGPU Karte benötigt? Wie soll man dich eigentlich noch ernst nehmen?

Ebenso das andere... "sry aber manche leut scheinen hier in diesem forum nicht mehr ganz sauber zu sein." ... und das von jemanden, der eine Asus Mars als gute Geldanlage betrachtet.

Wenn man sich anschaut, was du so schreibst, habe ich das Gefühl, dass du immer gerade das schreibst, was dir gerade in dem Moment am ehesten passt, ohne darauf zu achten, ob das im Kontext deiner früheren Äußerungen schlüssig ist.

lol , naja ich verwende normalerweise nich den cf mod: AFR sondern anderes.:p

Das kann man ganz gut auf dich schieben:
Wenn man sich anschaut, was du so schreibst, habe ich das Gefühl, dass du immer gerade das schreibst, was dir gerade in dem Moment am ehesten passt.:)

aber mal ab davon:

du schreibst fast identisch wie einer auf hwluxx der nach dem release der 600er für seinen schreibstill einen perm. bann bekamm.:)
 
Zuletzt bearbeitet:
Der Drall zur Nostalgie hier ist zwar recht OffTopic, aber zu begrüßen :)

Im Gegensatz zu den Themen auf die man normalerweise ausweicht^^
 
für WQHD Maxed out BF3 wird die auch nicht reichen. Ich werde die überspringen da ich 670 habe Full HD 144 Hz und ich vollkommen zufrieden bin.
Trotzdem schickes ding. Wie jede neue Graka die rauskommt^^

Die Tabelle von Max ist absoluter schwachsinn.
 
Zuletzt bearbeitet:
Ich frage mich, ob der MSI-Afterburner mit einer Titan funktionieren würde, bzw. ob es ein entsprechendes Update geben wird. Schließlich soll es die Titan ja (erstmal?) nur von ASUS und EVGA geben. Irgendwie hab ich mich an den Afterburner gewöhnt, bzw. eher durchwachsene Erfahrungen mit den Tools von anderen Herstellern gemacht.

Und zur Nostalgie:
Ich hab damals ne RAM-Floppy (eine Art früher Vorläufer der SSD ;) ) für meinen C64 selbst zusammengebaut. Wer kann das toppen?
Wenn sich hier noch jemand findet, der sich (zu der Zeit) einen KIM 1 oder ähnliches gebastelt hat, ziehe ich ehrfürchtig meinen Hut. :)
 
sonyfreak1234 schrieb:
sry aber manche leut scheinen hier in diesem forum nicht mehr ganz sauber zu sein.

Bitte führe deine Selbstgespräche irgend wo anders ;) sowas hat hier nichts zu suchen.

Du wirst sehen, was GPUs angeht ist TITAN lange nicht die schlechteste Alternative wenn man die Leistung unter OC betrachtet. Klar, ein Prestige Modell wird wohl niemals Preis/Leistungs Sieger sein, logisch oder - dennoch, wenn man mit 50% Vorsprung zur GTX 680 rechnet -(mit dezentem OC) oder aber direkt auf Wasser geht und das Teil auf 1100 Mhz + fährt (1000 Mhz gehen ja schon direkt mit dem ASUS OC Modell) dann hat man eine Karte die wirklich lange vorne Mitspielen wird, da bis 20nm nichts außer ein vollaktiver GK110 & MultiGPU diese Karte toppen kann.
Ergänzung ()

aylano schrieb:
Witzig,
Wieder nur DX11
Wirkt schon fast veraltet bevor es überhaupt draußen ist.

genau deswegen kaufen Games wie Hitman (DX11) auch problemlos auf DX10 Karten ^^ - ich behaupte niemand wird irgendwann etwas davon merken ob DX11 oder 11.1 (genauso wenig wie heute) und mich würde es nicht wundern wenn die Karte DX11,1 kann oder gar 12 "kann", das meiste ist ja eh in Software umgesetzt ... naja whatever, für mich wärs absolut gar nicht kauf-entscheidend ob 11.1 oder 11 - schon gar nicht anhand irgendwelcher Whitepaper die gern mal lügen ^^
 
Zuletzt bearbeitet:
Zu diesem DX11.1-Thema wird von den Kritikern ja immer wieder (absichtlich?) ignoriert, dass die Kepler-GPUs die meisten neuen Feartures von DX11.1 sehr wohl unterstützen. Was für 3D-Spiele relevant ist, funktioniert. Was fehlt sind im Wesentlichen ein paar Features für 2D-Rendering, die MS speziell für Tablets eingeführt hat, deren kleine ARM oder Atom eventuell zu schwach sind, um damit allein fertig zu werden.

Es ist völlig schnurz, ob Desktop-Grafikkarten diese Tablet-Features unterstützen. Sie werden einfach nicht gebraucht. 2D-Performance von Grafikkarten ist bei PCs seit den 486er-Tagen kein Thema mehr. Es ist kein Problem, die fehlenden DX11.1-Features "per Software" (also mittels CPU) zu realisieren, wenn die in PC-Anwendungen denn überhaupt mal genutzt werden.
Im Prinzip wird es ja bis heute immer so gemacht. Jeder der nicht einen AMD-DX11.1-Karte und Windows 8 und spezielle (crossplattform) Anwendungen, die diese Features nutzen (eventuell der IE10) hat, macht es genauso, wie die bösen verkrüppelten Kepler. Er lässt die Arbeit von der CPU machen, die dafür nicht mal aus dem Idle-Modus aufwachen muss.

Das alles macht die Tatsache, dass Nvidias PR-Abteilung mit nicht unterstützten Features geworben hat, natürlich nicht wirklich besser.

Andererseits sehe ich es auch irgendwie so, dass Leute, die nicht verstehen für was die fehlenden Features eigentlich gebraucht würden, die selben auch in keinem Fall vermissen würden.
Man regt sich halt auf, weil man sich aufregen will. In den meisten Fällen wohl einfach nur, weil man ein Fan der anderen Marke ist.

Fazit: Selbst wenn die Titan nur das selbe unvollständige DX11.1-Featureset hat, wie die anderen Kepler-Karten, ist das kein reales Problem.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
genau deswegen kaufen Games wie Hitman (DX11) auch problemlos auf DX10 Karten ^^ - ich behaupte niemand wird irgendwann etwas davon merken ob DX11 oder 11.1 (genauso wenig wie heute) und mich würde es nicht wundern wenn die Karte DX11,1 kann oder gar 12 "kann", das meiste ist ja eh in Software umgesetzt ... naja whatever, für mich wärs absolut gar nicht kauf-entscheidend ob 11.1 oder 11 - schon gar nicht anhand irgendwelcher Whitepaper die gern mal lügen ^^
Natürlich wird es unbedeutend, wenn einer den Standard nicht komplett verzögert und die Software-Verbreitung des gesamten Standard für 2 Jahre verhindert. Aber du bist dann auch einer der ersten der schreit, wenn es einen sogenannten "technischen" Stillstand wieder gibt. Bei dir ist es immer unbedeutend oder ein nettes Features, wenn AMD wo technisch vorne ist.
Nix neues.

Herdware schrieb:
Zu diesem DX11.1-Thema wird von den Kritikern ja immer wieder (absichtlich?) ignoriert, dass die Kepler-GPUs die meisten neuen Feartures von DX11.1 sehr wohl unterstützen. Was für 3D-Spiele relevant ist, funktioniert.
Damit die Software-Entwicklung bei Standards schneller vorangehen, muss komplett alles umgesetzt werden.

Und wer sich durch selbstdefinition technischer in Führung sieht, sollte wenigestens auch Technisch in allen Standards vorne sein und sich nicht nur dort technisch entwickeln, wo man seine Kunden am besten abzocken kann. (PhysX & Co).

Interessant ist ja, dass jene letztes Jahr HD 7970 permanent als überteuer bezeichnen, GTX Titan mit >800 Euro als irgendwie berechtigt sehen. Das ist nichts anderes als ein schönreden seiner welt, weil sie die Folgen aus solchen extremen Preisen nicht sehen und dann in Zukunft die überteuere Karten nicht sehen können. Das war bei Nvidia beim 100er & 300er-Label-Aktion genauso, wo viele das zuerst verteidigten und dann später sich aufregten, wenn die Konkurrenz nachziehen musste und dann das Labeln ebenfalls zum Standard geworden ist.

@Topic
Ich dachte, bei Bilderbuch-Launch kann ich mir heute früh offizell freigegebene Bilder von GTX Titan anschauen.
GF110 kam 13,5 Monate nach HD 5870 (= erster 350mm²-Die) wenigstens non-teildeaktiviert. GTX Titan kommt nach 13,5 Monate hingegen noch immer teildeaktiviert. Und von den Stückzahlen Hundert-Tausenden vs 10.000 braucht man noch gar nicht reden.
 
aylano schrieb:
Damit die Software-Entwicklung bei Standards schneller vorangehen, muss komplett alles umgesetzt werden.

DX11.1 ist voll umgesetzt. Nur nicht komplett in Hardware, sondern teilweise in Software (Grafiktreiber). Die Anwendung bemerkt von den fehlenden DX11.1-Features der Kepler-GPUs also nichts und läuft ganz genauso, wie sie soll.

Der Nachteil dieser Methode, die höhere CPU-Belastung, ist in diesem Fall für PCs wie gesagt nicht relevant.

Tatsächlich war es wahrscheinlich sogar eine durchaus vernünftige Entscheidung von Nvidia, diese speziellen Features nicht in Hardware sondern in Software umzusetzen.
Fragwürdig ist nur, wie das in diesem Fall kommuniziert wurde.

Ach ja, und noch was zum eigentlichen Topic:

Hat eigentlich jemand ein Gefühl dafür, oder noch besser wirklich Ahnung, ob 10.000 Stück (zumindest für die erste Auslieferungswelle) bei so einem 900-Dollar-Enthusiastenprodukt besonders wenig sind?

Wie viele GTX690 wurden bisher verkauft? Wie viele HD7990?

Ich weiß nur, dass ASUS seine Ares und Mars gewöhnlich auf unter 1000 Stück limitiert. Aber tun sie das nur um sie zu exklusiven Sammlerstücken zu machen (wobei ich mich fragen würde, ob wirklich jemand alte Grafikkarten sammelt) oder würden sie sowieso nicht viel mehr davon los?
 
Zuletzt bearbeitet:
aylano schrieb:
Aber du bist dann auch einer der ersten der schreit, wenn es einen sogenannten "technischen" Stillstand wieder gibt. Bei dir ist es immer unbedeutend oder ein nettes Features, wenn AMD wo technisch vorne ist.
Nix neues.

Ich würde mal behaupten ich bin noch jemand der vergleichsweise viel von diversen technologischen "Vorsprüngen" profitiert, z.B. AES welches AMD selbst bei den kleinsten Trinitys anbietet wo man bei Intel viel Asche hinlegen muss. Für mich wäre das ein Kaufgrund - weil ich es einsetze.

Jetzt darf man sich die Frage stellen wie hoch der Anteil der Trinity Käufer ist die im kleinen Preissegment AES wirklich nutzen - ich behaupte der ist über den markt gesehen verschwindend gering. Und AES ist noch sicher eins der meist genutztesten Features. Dass Intel AES nur ab i5 anbietet ist klar ein Fall von Differenzierung da Intel sich das leisten kann. Wenn jemand wie ich, darauf angewiesen ist, dann zahl ich eventuell auch mehr davon.

Bei DX11.1 vs DX11 ist es ähnlich. Kein Game Publisher wird explizit sein Game mit 11.1 anpreisen, 99,99% der Anwender ist es juck ob 11.1 oder 11 da DX 11 schlicht DX11 ist und in Games keiner auch nur einen geringen Unterschied merken wird, ganz gleich ob die Kepler karten nun DX11.1 unterstützen oder nicht.

Bei AES würde ich für meinen Teil eher mit Trinity liebäugeln sofern ich wirklich darauf angewiesen wäre und dabei nicht den hohen Preis eines i5 ausgeben will, bei GPUs wärs mir dagegen Banane ob DX11 oder DX11.1 draufsteht.

Und versuch bitte nicht schon wieder eine persönliche AMD vs "Rest der Welt" Diskussion draus zu machen... denn genau darauf zielt dein Quote/Post ab.
Wenns genau andersrum wäre, NV DX11.1 bieten würde und AMD "nur" DX11 , wärs mir genauso Banane.

Ich mach technologischen Stillstand nicht an DX11 / DX11.1 fest.


Edit:

ich glaube du hast den "Sinn" der TITAN noch nicht ganz verstanden. Die Stückzahl ist absolut unerheblich, genauso der Preis. Bei der Karte geht es darum das Prestige Modell zu haben, und der Launch selbst / die Karte selbst kostet Nvidia kaum was da man die Tesla Karten / Chips ohnehin schon hat.

Die Karte ist nicht einfach neues High End, sie differenziert sich über den Preis. Man macht sich nicht selbst Konkurrenz wo sich doch aktuelle Karten sehr gut verkaufen... und auch weiter sollen. Die GTX480 war damals bitter nötig um überhaupt ein Gegenstück zu haben. Heute verdienen beide gut an den aktuellen Serien.

Die TITAN fällt schon namentlich aus der Reihe. Peislich und optisch genauso. Sie erfüllt denselben Zweck wie eine ASUS Ares II - rein Marketing - aktuell zu bleiben. Allein der Mehrwert durch die News, die Diskussion (schau dir die Anzahl der Posts hier an) rechtfertigt die Karte. Das ist günstige Werbung, günstiger als die Karte selbst zu entwickeln.
Nvidia gewinnt mit dieser Aktion, ganz gleich wie viel / wie wenig TITAN verkauft werden.

Man kurbelt sogar indirekt die Verkäufe kleinerer Karten damit an.

Wäre Nvidia im Sommer 2012 in der Situation wie damals zur GTX480 gewesen, hätte man die Karte schon da zu weit niedrigeren Preisen auf den Markt geworfen.
 
Zuletzt bearbeitet:
@Herdware

Was für 3D-Spiele relevant ist, funktioniert. Was fehlt sind im Wesentlichen ein paar Features für 2D-Rendering, die MS speziell für Tablets eingeführt hat, deren kleine ARM oder Atom eventuell zu schwach sind, um damit allein fertig zu werden.

Das ist so nicht korrekt. Von den 4 fehlenden Features sind nur 2 für den 2D-Bereich vorgesehen, die beiden anderen können sehr wohl im 3D-Bereich wichtig sein.

Es ist kein Problem, die fehlenden DX11.1-Features "per Software" (also mittels CPU) zu realisieren, wenn die in PC-Anwendungen denn überhaupt mal genutzt werden.

Klar kann man jede Hardwareschaltung per Software nachstellen, mit dem Ergebnis, dass die Softwarelösung, na ja, sagen wir mal konservativ geschätzt, 100000 mal langsamer funktioniert als die Hardwareverdrahtung.
 
Pilstrinker schrieb:
Klar kann man jede Hardwareschaltung per Software nachstellen, mit dem Ergebnis, dass die Softwarelösung, na ja, sagen wir mal konservativ geschätzt, 100000 mal langsamer funktioniert als die Hardwareverdrahtung.

klar, das mag durchaus zutreffen, aber würde das Feature massiv Performance kosten, dann würden die Game Publisher direkt einen Bogen um das Feature selbst machen da es in ihrem Interesse liegt ein gleichmäßiges Gamingerlebnis auf allen Plattformen zu liefern.

Und wenn das Feature für 0,01% der Gesamtperformance verantwortlich ist dann ist es relativ unerheblich wenn es in Software etwas langsamer läuft.
ZB ist Tessellation bei Nvidia auch softwareseitig umgesetzt worden während es bei AMD in Hardware lief. Dennoch, softwareseitig hatte den Vorteil dass

1. mehr Maximal Tessellations Leistung zur Verfügung stand
2. die Leistung nach Bedarf abgerufen werden kann => ich kann die GPU dynamisch auslasten

heißt nicht, dass das Nvidia Konzept besser war, aber auch nicht wirklich schlechter als ein Hardware Tessellator.

Crysis lief zb über einen "Hack" mit DX9 und aktiven DX10 Features kaum - gar nicht langsamer, bei selber Optik. Das meiste sogenannter DX11 Titel ist also auch eher Marketing. und bei DX11-DX11.1 fürfte das noch weit weniger relevant sein als bei DX9 -> DX10.

Ich bleib dabei, dass es in 99,99% der Fälle Wurst sein wird. Natürlich gibt es wie bei allen Techniken immer einzelne Individuen die eventuell genau auf dieses Feature angewiesen sind.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
(...)
Ich mach technologischen Stillstand nicht an DX11 / DX11.1 fest.
(...)
Mit der folgenden Aussage lehne ich mich vielleicht weit aus dem Fenster, aber ich glaube, dass DX11.1 - sofern es nicht für Win7 erscheint - relativ bedeutungslos bleibt, selbst für hardcore-gamer.
 
klar, das mag durchaus zutreffen, aber würde das Feature massiv Performance kosten, dann würden die Game Publisher direkt einen Bogen um das Feature selbst machen da es in ihrem Interesse liegt ein gleichmäßiges Gamingerlebnis auf allen Plattformen zu liefern.

Das ist reine Spekulation. Es ist kein übermäßig großer Programmiermehraufwand, diese Features zu implementieren (falls man sie braucht, und so Situationen kann ich mir durchaus vorstellen).

Davon abgesehen bezweifel ich, das Publisher wegen übergroßer Sorge um ein gleichmäßiges Gamingerlebnis auf allen Plattformen ein möglicherweise nützliches Feature wegfallen lassen. ;)

Man kann es nicht anders sagen: Durch das fehlende DX11.1 Feature spielt Kepler technologisch in diesem Bereich nur in der 2. Liga.
 
@Pilstrinker

haste mal ne Quelle zu genau dem Feature auf das du ansprichst?

Und dann bitte noch eine in einem Jahr um zu sehen wie viele Games dieses Feature nutzen und welchen Einfluss dass auf das Gaming unter Win 8 hat.

Sicher ist es kein großer Programmieraufwand DX11.1 Features zu integrieren, genauso wenig wie es für NV ein Aufwand wäre dieses in Feature zu unterstützen (sofern sie es nicht schon tun).

Es ist nur so dass kein Game dieses Feature einsetzen wird wenn bei einer GTX680 dann 20 FPS rauskommen und bei einer HD7850 60 FPS, oder eben die Optik auf Nvidia Systemen sich dahingehend von AMD Karten sichtlich unterscheidet.
 
Zuletzt bearbeitet:
Zurück
Oben