News GeForce GTX 1080: Nvidias neuer Kühler nimmt martialische Formen an

Allein GTX 1080 hört und fühlt sich schräg an. Wenn nvidia das wirklich macht, dann haben die bei der Kennzeichnung Federn gelassen. Ich finde die 100er Benennung schon besser, halt GTX100Ultra. Eine Geforce 1 GTX oder Ultra klingt auch schöner. Bei einer 1000er Kennung würde ich lieber die letzte Ziffer durch Buchstaben ersetzen. Geforce 100X, das war wohl nix.:D

Mit der neuen Architektur sollte es was besseres als 1080 werden. GTX1850 wäre auch besser geeignet.
 
|SoulReaver| schrieb:
Die Meisten bauen wie ich Custom Kühler drauf und gut ist.
Wie kommt man bitte zu solchen Mutmaßungen?
Die Minderheit baut irgendwelche Custom Kühler drauf, die meisten Käufer lassen den Original Kühlkörper auf der Karte drauf und modifizieren an der Hardware rein gar nichts.

Vollkommen an der Realität vorbei.
 
Naja, vom Design her würde es glatt zu meinen Tower passen :D Mal sehen wie die Preise sich für die 980/Ti entwickeln, wenn die neue im Sommer kommt, die richtig fetten Karten kommen eh erst deutlich später.
 
SavageSkull schrieb:
Wenn sie das nicht hat und immer noch kein Async Compute unterstützt ist die Karte trotz kleiner Strukturbreite ein Witz bevor sie released wird.

Wie soll die GTX1080 HBM 2.0 haben, wenn HBM erst noch in die Massenproduktion geht? Oo
Auch GDDRX5 geht erst im Sommer in Massenproduktion.

Da musst du wohl auf den Refresh oder die großen Ableger warten.
 
Ununhex schrieb:
Das bisherige Design fand ich schöner.
9-1080.3698889372tbu4o.jpg

vs

1-1080.2597588627znujb.jpg


Versteh mich nicht falsch.. aussehen ist ja geschmackssache.. aber du siehst die Karte doch eh meist gar nicht da das Design zum Towerboden zeigt..
 
Mir ist vollkommen egal wie die GPU aussieht und welche Farbe die hat! Leistung, Preis, Stromaufnahme und Lautstärke müssen passen.
 
möchte ich gerne wissen...dat ding steckt doch im pc und ist somit unsichtbar...ich würde ein design bevorzugen, das einzig und allein der funktionalität folgt, dh bestmögliche kühlung bei geringstmöglicher lautstärke und dh wiederum weniger ecken und kanten wo die luft unnötig verwirbelt wird und ein anderer ventilator...
 
Miuwa schrieb:
Faszinierend, wie viel man über das mögliche Aussehen eines Vorserienprodukts diskutieren kann, das die meiste Zeit sowieso nicht sichtbar ist.

^^ so ist das halt früher wurde im kleinen Freundeskreis über ähnliche Dinge "getuschelt" und hier sind es Bilder von ner Graka
Ergänzung ()

Rulf schrieb:
möchte ich gerne wissen...dat ding steckt doch im pc und ist somit unsichtbar...ich würde ein design bevorzugen, das einzig und allein der funktionalität folgt, dh bestmögliche kühlung bei geringstmöglicher lautstärke und dh wiederum weniger ecken und kanten wo die luft unnötig verwirbelt wird und ein anderer ventilator...

Warten wir ab, es gibt ja nur die Einschränkung von SLI Gespannen die Bauhöhe ist da die Bremse wegen der Kühlleistung, letztlich wenn nicht extra drauf achtet sieht man die Graka überhaupt nicht mehr im PC es kann halt für Modder was werden um darüber ein CaseMod zu machen.

^^
 
Zuletzt bearbeitet von einem Moderator:
Rulf schrieb:
möchte ich gerne wissen...dat ding steckt doch im pc und ist somit unsichtbar...ich würde ein design bevorzugen, das einzig und allein der funktionalität folgt, dh bestmögliche kühlung bei geringstmöglicher lautstärke und dh wiederum weniger ecken und kanten wo die luft unnötig verwirbelt wird und ein anderer ventilator...

Spätestens seit Apple ist doch bekannt, dass Form vor Funktion steht.
Ich selbst kann es auch nicht nachvollziehen, warum man da überall Ecken und Kanten rein machen muss, außer, um Kunden anzulocken.
 
Ist auch beim Putzen ätzend so ein verwinkeltes Design.
 
Conceptions schrieb:
Wie kommt man bitte zu solchen Mutmaßungen?

Kellerkind mit einer etwas verzerrten Realität und fertig ist die eigene Welt. :D

Allgemein wird das Marketing auf dieser Welt immer besser. Anscheinend haben sich schon mehrere entschieden die neue Generation zu kaufen obwohl fast nur Spekulationen und keine Tests verfügbar sind. Also sind die Marketinggenies soweit, dass das rationale Denken von dem kindlichen Verlangen es einfach haben zu wollen abgelöst wird.


Das ist die sogenannte Katze im Sack.

(zu den 80% Marktanteil von Nvidia....: "Intels Marktanteile gehen daher von 72,8 auf 71,6 Prozent zurück. Davon bekommen AMD 0,3 (11,8 insgesamt) und Nvidia 0,9 Prozent (16,6 insgesamt) ab." Quelle: http://www.pcgameshardware.de/Grafi...ws/GPU-Marktanteile-AMD-Nvidia-Intel-1187395/ )
 
Zuletzt bearbeitet: (Orthografie)
ohne Witz, die nächste News Meldung ist dann, neue GPU von NV hat eine andere Schriftart im Kühlergehäuse...omg...wie man einfach es ist viele viele Posts (wie auch meinen) zu erzeugen...:)
 
SavageSkull schrieb:
Wenn sie das nicht hat und immer noch kein Async Compute unterstützt ist die Karte trotz kleiner Strukturbreite ein Witz bevor sie released wird.

1.: HBM2.0 geht erst im Herbst in die Massenproduktion

2.: Die jetzt kommenden Karten sollen performance-mäßig im "Mainstream"-Bereich liegen

3.: GDDR5X ist fertig, kam aber noch nicht zum Einsatz

Wo sonst sollte denn GDDR5X eingesetzt werden, wenn nicht auf den Mainstram-Karten, die ein halbes Jahr vor den High-End-Karten kommen, sobald HBM2.0 marktreif ist? Dass sie mit nur 4GB HBM1 kommen, kann ich mir nicht vorstellen. Somit bleibt nur GDDR5X.
 
Solle ich mir eine Pascal Karte kaufen, werde ich wohl erst mal auf die Partner-Karten mit eigenem Layout und guter "Ab-werks-Übertaktung" warten, bis die aber kommen wird es eh noch eine Weile dauern...
 
Gibt's schon Infos ob HBM zum Einsatz kommt mit mindestens 8GB oder wirds wieder ne Generation veraltete Technik?
 
Für mich entscheidend ist ob der Speicher die Karten ausbremst oder nicht. Solange die neuen 30% mehr Performance raushauen mit dem alten Speicher ist mir das lieber als 20% mit hbm...
 
Micha der erste schrieb:
Bei Nvidia ist die kommende Architektur so aktuell das sie immer noch nicht das DX12 Feature Async Compute unterstützt ;-)

SavageSkull schrieb:
Wenn sie das nicht hat und immer noch kein Async Compute unterstützt ist die Karte trotz kleiner Strukturbreite ein Witz bevor sie released wird.

Fruuky schrieb:
Wenn NVIDIA Async Compute nicht unterstuetzt ist bei einem Marktanteil von 80% zu vermuten, dass scih auch die Entwickler nicht gerade auf das Feature stuerzen werden...

Immer wieder diese falschen Aussagen. Werden dadurch aber nicht richtiger. NV unterstützt Async Compute, aber nicht so effizient:

Bisherige Nvidia-Grafikchips führen Async Compute nicht so effizient durch, da sie auf einen zusätzlichen Context Switch angewiesen sind. Inwieweit die kommende Pascal-Generation hinsichtlich der Funktion Async Compute verbessert wurde, ist derzeit nicht bekannt.

http://www.heise.de/newsticker/meld...-1080-im-Mai-AMD-Polaris-ab-Juni-3178541.html

basilisk86 schrieb:
Die Entwickler werden Async Compute ausreizen bis zum geht nicht mehr, durch DX12 wird dieses Feature immer mehr an Bedeutung gewinnen, die nVidia letztendlich auch nicht mehr mit reiner Rohleistung wettmachen wird.

Bei einem Markt, wo 80% es nur in geringer Geschwindigkeit funktioniert, sicherlich nicht. Es wird vereinzelt verwendet, aber nicht durchgehend, wenn es eh kaum einer nutzen kann. Wirtschaftliches Denken..

DrToxic schrieb:
1.: HBM2.0 geht erst im Herbst in die Massenproduktion

Samsung hat Massenfertigung schon begonnen. Davon konnte ich mich selbst überzeugen, weil einige Mengen an P100 bereits im HPC im Umlauf sind. Deshalb wird die P100 aktuell nur mit 16GB ausgeliefert, da nur 4GB Stacks produziert werden, 8GB Stacks für 32GB aber erst im Laufe des Jahres. Für die 1080 oder 1070 würde ich nicht mit HBM rechnen. Das wird alles für die P100 benötigt..

http://www.golem.de/news/hbm2-samsung-startet-produktion-von-4-gbyte-stapelspeicher-1601-118600.html
 
Zuletzt bearbeitet:
DrToxic schrieb:
1.: HBM2.0 geht erst im Herbst in die Massenproduktion

2.: Die jetzt kommenden Karten sollen performance-mäßig im "Mainstream"-Bereich liegen

3.: GDDR5X ist fertig, kam aber noch nicht zum Einsatz

Wo sonst sollte denn GDDR5X eingesetzt werden, wenn nicht auf den Mainstram-Karten, die ein halbes Jahr vor den High-End-Karten kommen, sobald HBM2.0 marktreif ist? Dass sie mit nur 4GB HBM1 kommen, kann ich mir nicht vorstellen. Somit bleibt nur GDDR5X.

Khabaal schrieb:
Gibt's schon Infos ob HBM zum Einsatz kommt mit mindestens 8GB oder wirds wieder ne Generation veraltete Technik?

Hier Oben von @DrToxic

Das wird erst mit der neuen Titan kommen HBM 2.0
Hoffe das es mehr wie 4GB werden ^^ man kann das erst wissen wie viel GB die Karten bekommen wenn feststeht ähm? habs vergessen hat was mit 256 oder so zu tun :D
Wie war das nochmal ? welche Speichergröße verbaut wird? da war doch was? hat was mit der Anbindung zu tun?
 
Zurück
Oben