News Nvidias Maxwell in 20 nm wird enthüllt

Also wie vermutet zunächst der Performance Chip Ende 2014 und dann 3-6 Monate später die High End Ableger?! Mal sehen welchen Preis sie veranschlagen.
 
optikks schrieb:
Ich brauch ne leise stromsparende low profile karte also sollen die mal machen
Dann aber selbstverständlich passiv gekühlt durch die 20 nm fertigung müste das doch gut guhen !

Aber heute werden wohl nur die unnormalen überteuerten Grafikkartenklötze vorgestellt oder :confused_alt:

frankkl
 
Zuletzt bearbeitet:
Einfach die Leistung einer 780Ti bei behalten und den Verbrauch um 100 Watt Volllast senken, dass wäre mal eine wünschenswerte Neuerung .....
So wie die Spiele aussehen (TF) brauchen wir kein DX12 oder Mantle :D
 
Dai6oro schrieb:
Also wie vermutet zunächst der Performance Chip Ende 2014 und dann 3-6 Monate später die High End Ableger?! Mal sehen welchen Preis sie veranschlagen.

Würde mich wundern wenn sie es anders machen würden als bei der 6xx Serie. Erstmal für den Performance Bereich Highend Preise verlangen und danach das Ganze wieder für den "Vollausbau des Vollausbaus"
 
marcus_T schrieb:
Einfach die Leistung einer 780Ti bei behalten und den Verbrauch um 100 Watt Volllast senken, dass wäre mal eine wünschenswerte Neuerung .....
Und was bringt das genau? Die meisten GPUs sind zu 95% im Idle Modus, unter Volllast höchst selten.
 
Und was bringt das genau? Die meisten GPUs sind zu 95% im Idle Modus, unter Volllast höchst selten.

Wer sich so ein fettes Ding reinbaut der verbringt auch Stunden im Ingame wenn er Online ist , der idlet eher nur 20% der Zeit.
 
@Volkimann

Auf jeden Fall wären damit schon mal wesentlich kleinere (und günstigere) Kühler möglich und man ist auch zu kleineren/effizienteren Netzteilen kompatibel.
Man muss eine Grafikkarte ja immer für den Extremfall auslegen, auch dann, wenn der nur sehr selten erreicht wird.

Für Nvidia hätte ein kleiner 20nm-GM104 mit der Leistung einer GK110 (oder mehr) noch den Vorteil der niedrigeren Herstellungskosten. Ob sie das aber an die Kunden weitergeben, bleibt abzuwarten. Bei der GTX680 haben sie die höhere Gewinnspanne jedenfalls lieber mitgenommen und trotz kleinem Performance-Chip den üblichen High-End-Preis verlangt.
 
Volkimann schrieb:
Und was bringt das genau? Die meisten GPUs sind zu 95% im Idle Modus, unter Volllast höchst selten.

Frag das mal jemand der einen möglichst leisen PC möchte und trotzdem Grafik in voller Pracht genießen. Na, fällt dir was ein?
Ergänzung ()

Voyager10 schrieb:
Wer sich so ein fettes Ding reinbaut der verbringt auch Stunden im Ingame wenn er Online ist , der idlet eher nur 20% der Zeit.
Nein, das ist nicht bei jedem so.
 
780/780TI auf Stromverbrauch 680/770 inkl. Titan Kühler bitte.:D
 
Darkscream schrieb:
Frag das mal jemand der einen möglichst leisen PC möchte und trotzdem Grafik in voller Pracht genießen. Na, fällt dir was ein?
Alternative Kühlkörper zum selber draufschnallen, Nicht Referenzkühler, Wasserkühlung.

Wegen 100W bei der GPU heulen, aber den 60" Fernseher haben, keine LED Lampen einsetzen, sondern die alte Glühlampe im Hamsterkauf geholt, alte Küchengeräte einsetzen, Standby lassen, Smartphone täglich laden. Nur mal als Denkanstoß
 
marcus_T schrieb:
Einfach die Leistung einer 780Ti bei behalten und den Verbrauch um 100 Watt Volllast senken, dass wäre mal eine wünschenswerte Neuerung .....
So wie die Spiele aussehen (TF) brauchen wir kein DX12 oder Mantle :D

Das dient dann den Konsolen Ports, die man dann mit billigen Code Convertern nahezu automatisieren kann.
Mehr Leistung wird der Kunde nicht haben, nur der Entwickler weniger Arbeit.

Das Xbox360 Gedöns müsste sogar auf uralt PCs in höchster Qualität laufen.
 
Also kommt es wie vermutet? Erst wieder eine 680GTX (quasi) dann ein Jahr später erst die stärkste Variante? Super klasse gigantisch :lol:
 
Volkimann schrieb:
...
Wegen 100W bei der GPU heulen, aber den 60" Fernseher haben, keine LED Lampen einsetzen, sondern die alte Glühlampe im Hamsterkauf geholt, alte Küchengeräte einsetzen, Standby lassen, Smartphone täglich laden. Nur mal als Denkanstoß

Und wem genau unterstellst du das jetzt?
Du magst es vielleicht nicht glauben, aber ich habe gar keinen Fernseher, und habe meine Bude schon lange auf LED umgestellt. Und: entschuldige, wenn ich mein Smartphone dann lade, wenn es leer ist. Und das ist es nach anderthalb Tagen leider. :freak:

Was ist denn daran falsch, nach einer sparsamen und dennoch leistungsfähigen GPU zu streben? Eine leise und gute Kühlung ist kein Ersatz für eine sparsamere, aber stärkere GPU als die, die es heutzutage gibt.
 
Volkimann schrieb:
Alternative Kühlkörper zum selber draufschnallen, Nicht Referenzkühler, Wasserkühlung.

Wegen 100W bei der GPU heulen, aber den 60" Fernseher haben, keine LED Lampen einsetzen, sondern die alte Glühlampe im Hamsterkauf geholt, alte Küchengeräte einsetzen, Standby lassen, Smartphone täglich laden. Nur mal als Denkanstoß

Ich habe einen MK-26 als Kühler - habe schon sehr große Ansprüche an leise. Mein Fehrnseher hat 37", mein Kühlschrank A++ und Smartphone habe ich noch nie gehabt (bin übrigens schon über 40).

Mir ist übrigens der Stromverbrauch scheiß egal solange es mein Netzteil stemmt - hier geht es nur um sehr leise (sehr leise habe ich ja - möglichst schnell aber noch nicht) und dabei schnell - ja so einer bin ich :p
Ergänzung ()

Ach ja habe nur noch eine Lampe in der Bude wo Halogen verbaut ist alles andere ist sparsamer ;)
 
Zuletzt bearbeitet:
Zergra schrieb:
Das sollen Leaks sein ? Das ist wohl eher was selbst zusammen gebautes wie es jemand gerne haben wollte.

Wird sich ja zeigen... Einige größere Maxwell Architekturänderungen wie das 1:16 haben sich schon bestätigt, gerade auch das Maxwell viel beim Cache ändert und Fokus auf Effizienz gelegt wurde... Auch darf man sich fragen weshalb Pastebin, zudem noch recht detailliert. Bin gespannt.

Vergleiche mit https://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/2/
 
Zuletzt bearbeitet:
Wird Zeit, dass sich bei den Grafikkarten was tut. Ich brauche die 2- bis 3-fache Leistung, um AC4 in Ultra HD in maximalen Details zu spielen... Aber bis eine Grafikkarte mit so viel Leistung erhältlich ist, werden die Spiele wohl auch deutlich aufwändiger sein und dann reicht das wohl trotzdem nicht aus...
 
Krautmaster schrieb:
Wird sich ja zeigen... Einige größere Maxwell Architekturänderungen wie das 1:16 haben sich schon bestätigt, gerade auch das Maxwell viel beim Cache ändert und Fokus auf Effizienz gelegt wurde... Auch darf man sich fragen weshalb Pastebin, zudem noch recht detailliert. Bin gespannt.

Vergleiche mit https://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/2/

Nur ist alleine schon GM108 ziemlich falsch und GM107 fehlt ganz. Das ist einfach nix besseres als nen Schuss ins blaue mit etwas logischem Denken. Ein Fokus auf Effizienz und mehr Cache sind einfach logische Schlussfolgerungen aus den aktuellen Gegebenheiten. Effizienz ist immer gut und GDDR6 ist noch nicht in Sicht, daher mehr Cache um den Bandbreitenverbrauch zu verringern.
 
Zuletzt bearbeitet:
Steht der gm108 schon? Hab jetzt nix gefunden wo er von GDDR 6 redet, 6Ghz GDDR5 was ja üblich ist... Aber ja, nun wo man sieht, das GM107 den Fokus auf Effizienz legte klingt es sinniger. Das Bandbreitenthema geht AMD ja mit breiterem SI an.

GM107 mag wegen 28nm fehlen...

edit: ich denke eher dass die 256 ALU | SMM falsch sind, zumindest bei den kleinen Karten weshalb GM107 und GM108 zu viele Shader haben :)

Wayne xD vllt alles gequirlter Bockmist
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
Und wem genau unterstellst du das jetzt?
Du magst es vielleicht nicht glauben, aber ich habe gar keinen Fernseher, und habe meine Bude schon lange auf LED umgestellt. Und: entschuldige, wenn ich mein Smartphone dann lade, wenn es leer ist. Und das ist es nach anderthalb Tagen leider. :freak:

Was ist denn daran falsch, nach einer sparsamen und dennoch leistungsfähigen GPU zu streben? Eine leise und gute Kühlung ist kein Ersatz für eine sparsamere, aber stärkere GPU als die, die es heutzutage gibt.
Und was spricht dagegen dann statt der neuen Highend Karte, eine neue Midrange Karte zu kaufen welche dann etwa bei der Leistung der aktuellen Highend Karten liegen dürfte und dabei weniger verbrauchen wird?
 
Zurück
Oben