News Erste Hersteller zeigen die GeForce GTX 900

|paladin| schrieb:
Das ist die AMD Entwicklung: http://videocardz.com/52302/amd-radeon-r9-390x-cooling-pictured

Während Nvidia versucht effizienter zu werden, wird der Hubraum bei AMD weiter ausgebaut.
Jetzt wird nicht nur die dual-GPU 295X2, sondern auch kommende 300er single Karten mit Wasser gekühlt.
Ich vermute mal nicht weil das total sexy ist... sondern weil es einfach nicht anders geht?!

Wo haben wir das schon gelesen...?
ACH JA! Beim FX-9XXX mit WaKü, der als Neuheit vorgestellt wurde!

Omg danke für den Link :D
Wo ist das Problem? Ich freue mich eher, dass man nicht mehr versucht, eine 250W TDP Karte mit einer Radiallösung zu kühlen. Und wie du sicher mitbekommen hast, soll damit AMD's nächste HIGH END GPU gekühlt werden. High End. Da darf der Chip ruhig seine 250+W ziehen, bei entsprechender Leistung. Und wenn man bedenkt, dass er wohl wieder in 28nm kommen wird, kann man verstehen, dass man entsprechend mehr Shader draufpacken wird und die Kühlung deshalb nicht leichter wird.

Wie gesagt, im Gegensatz zu Nvidia bringt AMD mit der nächsten High End Grafikkarte auch einen High End Chip.

Edit:
Ich könnte mir vorstellen, dass AMD ähnlich wie bei der 295X2 früher dran ist mit dem Big Chip. Und wenn der Chip tatsächlich 4000+ Shader hat, dann wird er nicht nur mindestens 40% schneller sein als eine 290X, sondern auch der größte und teuerste AMD Chip überhaupt.
Btw scheint diese Synapse Folie zu stimmen: Tonga mit >350mm², Fiji mit über 500. Demzufolge taktet Tonga XT wohl mit AMD-typischen 1000MHz.
 
Zuletzt bearbeitet:
ACH JA! Beim FX-9XXX mit WaKü, der als Neuheit vorgestellt wurde!

Und was genau ist an einer GESCHLOSSENEN WaKü für Komponenten so viel schlechter als eine Kühlkörper der von Luft umströmt wird ?!?

Man könnte auch überall Liquid Metallkühler draufbauen (und dann über Lüfterwärmetauscher in der Umgebung verteilen) - ist halt eine Kostenfrage. Aber wenn die geschlossene WaKü ggü. einem nur Kühlkörper/Lüftkühler dasselbe kostest dann nehm ich persönlich die WaKü die wesentlich effizienter kühlt. Zumal ich als Endkunde bereits eine fertigverbaute Kühlung bekomme und nicht mehr selbst noch Kühlkörper montieren muss etc.
 
|paladin| schrieb:
Das ist die AMD Entwicklung: http://videocardz.com/52302/amd-radeon-r9-390x-cooling-pictured

Während Nvidia versucht effizienter zu werden, wird der Hubraum bei AMD weiter ausgebaut.
Jetzt wird nicht nur die dual-GPU 295X2, sondern auch kommende 300er single Karten mit Wasser gekühlt.
Ich vermute mal nicht weil das total sexy ist... sondern weil es einfach nicht anders geht?!

Wo haben wir das schon gelesen...?
ACH JA! Beim FX-9XXX mit WaKü, der als Neuheit vorgestellt wurde!

Wenn sie nicht wieder so einen totalen Billiglüfter draufpacken ^^ Auch schön, dass sie emdlich etwas hochwertiger werden, wobei Nvidia zumindest mit der 970 davon ein Stück abrückt. Auch schön das man sich eingestanden hat, dass man keine ordentlichen Kühler bauen kann, denn die AMD referenzkühler waren schon immer ziemlicher '§&%§$. Wenn sie sich da ein wenig Hilfe holen okay. Aber schon ein wenig bedenklich, dass sie mal wieder versuchen mit der Brechstange die maximale leistung rauszuholen. An den doch ehr unterdurchschnittlichen Übertaktungsergebnissen der 290x sieht man ja, dass die recht nahe am Limit arbeitet.

Kompromisslose Karten finde ich ganz cool, aber das ganze als Serienmodell... ich weiß ja nicht. Zum einen leidest die Vielfältigkeit am markt, da es dann kaum andere Modelle geben wird. zum anderen sollte man im normalen Segment nicht übertreiben. Sieht man ja gut an der 295x2, die haufenweise spezifikationen bricht (zumindest 3x8 Pol sollten drinne sein). Wenn die Nvidia karten dann irgentwann nur noch die Hälfte verbrauchen wird die negativ PR nicht gerade Geschäftsfördernt sein. Da finde ich Nvidia ein wenig smarter. Out of The Box ist zum beispiel ne 780ti ein musterknabe. Für den ottonormalkunden (der 90% der Käufer ausmacht) eine runde Karte, teuer, aber dass kennt man bei nvidia ja nicht anders. Auf der anderen Seite ist der GK110 ein Biest. Fast jeder Chip (passendes PCB vorrausgesetzt) lässt mindestens 30% mehr Takt zu. Spezielle OC versionen mit stark modifiziertem PCB ( Matrix, Kingpin, Galaxy Hof) machen da sogar noch deutlich mehr mit. Ab 1300mhz macht ein GK110 schon ganz gut Laune. Der verbrauch steigt dann auch auf AMD Niveau. Man hat quasi zwei völlig verschiedene Karten, trotz gleichem Aufbau. Einmal im lieben zahmen Modus und einmal als böses Biest. So ein mit der Brechstange hochgezüchteter Chip ist dagegen nicht so geil.
 
Mhmmm...

Erstmal auf Tests warten.. Ob eine +98x GTX meine in die Jahre gekommene 580er GTX ablösen kann ist Fragwürdig abgesehen vom Leistungsschub^^ (das ganze packet muss halt passen).. Mhmmm... :o
 
Meine GTX 560 Ti wird definitiv erlöst, freue mich schon auf den Schub. :)
Sollte die 970 doch irgendwie nicht das Wahre werden (hängt am ehesten am Preis), wird es halt eine R9 290.
 
Ob 780 Ti oider 980 macht also dann keinen Unterschied außer beim Verbrauch..meh. Und dafür musste man 1 Jahr warten?
 
Es macht überhaupt kein Sin mehr sich noch irgend welche neue PC Hardware zu kaufen.
Die meisten neuen PC spiele benutzen die neune Grafikkarten nicht mal zu 50% ganz zu schweigen vom Grafikartenram oder den Ram des Pc´s selbst.
Die messlatte für PC Spiele sind die neuen Spiel Consolen und die Hardware da drin ist ja schon alt.
Man merkt auch wenn die Spiele auf nextgen und PC raus kommen das der PC gar nicht richtig genutzt wird.
Tut mir leid das ich das so sage aber es macht wirklich kein Sin mehr sich noch neue PC Grafikkarten und co zu kaufen.
 
Also ich fände es gar nicht so schlimm, wenn sich die Leistung nur marginal ändert, dafür aber die Effizienz besser wird.
Wenn die GTX 970 z.B. nur etwa 5% schneller als eine GTX 770 ist, dafür aber 30% effizenter, wäre das für mich auch in Ordnung.


@Godspeed0
Selten so einen Schrott gelesen. ^^
 
Skatch schrieb:
Also ich fände es gar nicht so schlimm, wenn sich die Leistung nur marginal ändert, dafür aber die Effizienz besser wird.
Wenn die GTX 970 z.B. nur etwa 5% schneller als eine GTX 770 ist, dafür aber 30% effizenter, wäre das für mich auch in Ordnung.
Ähm eine 970 wird eher ca. 5% schneller sein als eine GTX 780... aber das nur so am Rande.
 
|paladin| schrieb:
Ähm eine 970 wird eher ca. 5% schneller sein als eine GTX 780... aber das nur so am Rande.

Abwarten.. ich denke 5% vor der GTX780, was aber auch ok wäre.. Aber nicht zu einem Preis von 400€ Da ist dann Hawaii, trotz vermeindlich schlechterer Effizienz, eben vorzuziehen.. Nvidia merkt man leider immer stärker an, dass Huang den Blick fürs Wesentliche verloren hat. K1 wird Floppen, Shield ist völlig am Konzept vorbei, Maxwell ist nicht das was es werden sollte und Pascall ist verschoben

Meine Vermutung:
GTX 970 etwas unter GTX 780 Niveau bei 20% weniger Lastverbrauch
GTX 980 ~ GTX 780TI Niveau also GK110 gegen GM104, was beachtlich wäre
GTX 960 ~ GTX 770 Niveau bei ebenso besserem Lastverbrauch

Ich denke aber dass NV Hierfür die DP Performance noch weiter beschnitten hat, um Anreize für die Titan zu schaffen. Viele Vergessen immer, dass AMD Volle GPGPU Unterstützung anbietet für ihre Karten, eine Reine Perfomancekarte, wie Pitcairn, würde auch wesentlich besser dastehen.. Hier Verwundert es mich, dass GCN 1.1 also Tonga eben nicht in der GPGPU Leistung gestutzt wurde, dann wären auch die 150W TDP dringewesen.. Ich hoffe endlich, dass NV die GTX 960 mit nur einem 6Pin Stecker bringt, was Effizientechnisch ein Fortschritt wäre. Wenn ich aber Sehe dass Maxwell nur durch Zugabe eines 6Pin Steckers wirklich Taktfreudig wurde (750Ti klebt förmlich an ihrer TDP), dann frage ich mich ob ein Doppelter 750Ti wirklich ausreicht um AMD mit der Minimal Schnelleren 290X bei besserem Preis und auch besseren Featureset nur durch bessere Effizienz zu schlagen. Naja Ich bin sehr gespannt was die Offiziellen Ergebnisse sagen werden, die Leaks sind ja zwischen Unglaubwürdig und Enttäuschend
 
Tegra K1 wird im Nexus eingesetzt.
Shield wird heute schon genutzt um Playstation/Xbox zu emulieren (lol)
Maxwell übertrifft all eure Skeptiker Erwartungen ganz sicher
Und Pascall ist schlicht nicht notwendig, weil kein Pferd höher spring als es muss :)
 
Rock Lee schrieb:
Sorry, aber was soll der Blu-Ray standard mit heutigen 4K TVs zu tun haben??? Das wird lediglich Blu-Ray-Player betreffen.
Falls du meinst, dass ein neuer Codec oder sowas kommt, falls man seine externe Platte an den TV anschließt....dafür gibts ja Firmware Updates.
Die einzigen Early Adopter, die in die Röhre schauen, sind die mit HDMI 1.4-Anschluss...

Es geht nicht um den Codec. Es geht um Farbraum, Farbtiefe, HDR etc. Das sind alles Sachen, da gibts noch keine ofizielle Norm für. Momentan wird REC.2020 als neuer Farbraum für 4k gehandelt mit 10 oder 12 bit Farbtiefe. Wenn das so kommt und NVidia und AMD wirklich 4k fähig werden wollen, dann müssen sie zB auch 10 bit Farbtiefe auf Geforce Karten ermöglichen. Wenn das ganze auf 12 bit hinausläuft muss sogar noch mehr gemacht werden als nur ein Treiberupdate.

Bei TVs sieht das heute nicht großartig besser aus. Momentan gibt es noch kein TV-Gerät, das den Rec.2020 auch nur ansatzweise darstellen könnte geschweige denn Farbtiefe von 10/12bit. HDR für TVs soll auch frühestens nächstes Jahr kommen.

Solange es noch so viele Baustellen gibt und keinen offiziellen Standard kann ich verstehen, wenn sich NVidia und AMD eher bedeckt halten was 4k angeht und lieber erst dann auf den Zug aufspringen, sobald es Klarheit in diesen Dingen gibt.
 
Kann doch nicht sein, dass jemand der dieses Jahr eine GTX 780 Ti gekauft hat darüber nachdenkt auf eine GTX 980 upzudaten. Da warte ich doch, was da sonst noch in den nächsten Monaten so kommt.
 
Shoryuken94 schrieb:
Sieht man ja gut an der 295x2, die haufenweise spezifikationen bricht (zumindest 3x8 Pol sollten drinne sein). Wenn die Nvidia karten dann irgentwann nur noch die Hälfte verbrauchen wird die negativ PR nicht gerade Geschäftsfördernt sein.
"Haufenweise" Na dann zähl mal auf ;)
Warum soll man 3x8 verbauen, wenn auch 2 reichen? Temperatur? Die werden nicht wärmer als 58°C http://www.youtube.com/watch?v=YCIZJW-aPaE
Die Leistungsaufnahme ist auch kein Problem.
Btw, die Titan Z hat auch nr 2x8 und zieht ähnlich viel, wenn man sie auf R9 295X2 Niveau taktet...

Shoryuken94 schrieb:
Da finde ich Nvidia ein wenig smarter. Out of The Box ist zum beispiel ne 780ti ein musterknabe. Für den ottonormalkunden (der 90% der Käufer ausmacht) eine runde Karte, teuer, aber dass kennt man bei nvidia ja nicht anders. Auf der anderen Seite ist der GK110 ein Biest. Fast jeder Chip (passendes PCB vorrausgesetzt) lässt mindestens 30% mehr Takt zu.
900 MHz auf 1100 MHz zu übertakten ist für dich beeindruckender als 1000 auf 1100?
https://www.computerbase.de/2013-11/geforce-gtx-780-ti-gigabyte-inno3d-test/3/
https://www.computerbase.de/2014-04/sapphire-radeon-vapor-x-r9-290-luefter-aus-lautstaerke-test/4/

Es mag ja sein, dass sich der GK110 wegen der geringeren Packdichte stärker übertakten lässt, aber so furchtbar groß ist der Unterschied nicht.
Und ich finde es nicht smart eine GPU unnötig niedrig zu takten.
 
Zuletzt bearbeitet:
SimsP schrieb:
Es geht nicht um den Codec. Es geht um Farbraum, Farbtiefe, HDR etc. Das sind alles Sachen, da gibts noch keine ofizielle Norm für. Momentan wird REC.2020 als neuer Farbraum für 4k gehandelt mit 10 oder 12 bit Farbtiefe. Wenn das so kommt und NVidia und AMD wirklich 4k fähig werden wollen, dann müssen sie zB auch 10 bit Farbtiefe auf Geforce Karten ermöglichen. Wenn das ganze auf 12 bit hinausläuft muss sogar noch mehr gemacht werden als nur ein Treiberupdate.

Bei TVs sieht das heute nicht großartig besser aus. Momentan gibt es noch kein TV-Gerät, das den Rec.2020 auch nur ansatzweise darstellen könnte geschweige denn Farbtiefe von 10/12bit. HDR für TVs soll auch frühestens nächstes Jahr kommen.

Solange es noch so viele Baustellen gibt und keinen offiziellen Standard kann ich verstehen, wenn sich NVidia und AMD eher bedeckt halten was 4k angeht und lieber erst dann auf den Zug aufspringen, sobald es Klarheit in diesen Dingen gibt.

HDR wird so ziemlich niemanden interessieren... Und bei der Farbtiefe wird man die Unterschiede sicher mit der Lupe suchen dürfen. Wenn auf den aktuellen Farbraum bei den derzeitigen Modellen runterskaliert wird, dürften das die wenigstens bermerken.
Niemand MUSS sich da einen neuen TV kaufen ;) Du tust so als würden Besitzer aktueller Fernseher ab 2016 ein schwarzes Bild sehen. Das wird aber nicht der Fall sein.
Außerdem wird es IMMER etwas neues geben.
in 2 Jahren könnte man auch Argumentieren: "warum sollte AMD/Nvidia noch hdmi 2.5 verwenden? Bald kommen schon 8k-TVs und die brauchen wieder mehr Bandbreite!!!11einself"
 
Zuletzt bearbeitet:
MikelMolto schrieb:
Kann doch nicht sein, dass jemand der dieses Jahr eine GTX 780 Ti gekauft hat darüber nachdenkt auf eine GTX 980 upzudaten. Da warte ich doch, was da sonst noch in den nächsten Monaten so kommt.

Doch doch..... für ein par Kröten aufpreis schon ;)
 
EcOnOmiC schrieb:
Doch doch..... für ein par Kröten aufpreis schon ;)

Nein. Das macht kein Sinn, du sparst nicht so viel Stro,m damit sich das rentiert
Und die Karte ist nicht schneller als eine 780 ti. Das wäre ein absolutes Verlustgeschäft für dich... aber vermutlich geht es dir nur darum ne höhere Zahl drauf stehen zu haben weil das cool ist, immer das neueste zu kaufen
 
Zurück
Oben