News Maxwell-Architektur der GeForce GTX 750 (Ti) enthüllt

Herdware schrieb:
Übrigens habe ich schon etwas gezuckt, als ich den VGA-Anschluss gesehen habe, auf einer Maxwell-Karte Baujahr 2014. ;) Mir ist klar, dass das auch solchen Low-End-Karten eher sinnvoll ist, als bei größeren/teureren Modellen, aber haben heutzutage wirklich noch so viele einen alten Röhrenmonitor oder Billig-LCD-Monitore der ersten Generation, bei denen DVI noch eingespart wurde?

Ja, VGA ist in vielen Haushalten noch Standard. Das liegt an der langen Nutzungsdauer von Monitoren (was auch bekanntermaßen extrem sinnvoll ist, auch für die Umwelt).

Davon abgesehen sind die Maxwelldaten noch zu spärlich, um die neue Architektur "fair" zu bewerten...Auf den ersten Blick würde ich sagen ist es mehr eine sanfte Evolution.
 
Mit Maxwell kann ich endlich meine 570 in den verdienten Ruhestand schicken.
 
voon schrieb:
DP braeuchte ich ned mal ... mein renderer nutzt SP. Daher brauch ich keinen Titan ... einfach irgendwas, das fuer gaming und rendering taugt ... wie halt damals die 580. Ich moechte den spirituellen Nachfolger davon :)

Naja, für die GPGPU-Teile und die höhere Tesselationsleistung hatten viele auf nvidia eingedroschen. Sie sollten laut Meinung vieler lautstarker Gegner mehr Bereiche der GPU für Gaming nutzten statt für, ich zitiere "den unnötigen Workstationschnickschnack, den eh keiner braucht".

Nvidia hat auf diese Leute gehört und Gaming + GPGPU wieder getrennt. Dafür werden sie abermals kritisiert. AMD hat es umgekerht gemacht und ist jetzt wieder da wo Nvidia mit der GTX580 einmal war. Seltsamerweise kassieren sei dafür Lob. Wissen die Leute eigentlich was sie wollen? Scheinbar nicht!

Wenn du Rendering betreiben willst, hold dir eine entsprechende Workstation-Quadro oder investiere in eine Titan. Sie ist der einzige wirkliche Kompromiss momentan. Falls du doch beides willst, musst du halt investieren. Nvidia wird den Zirkus wie bei der GTX580 nicht noch einmal machen, so traurig das für die semi-professionellen Anwender auch ist.


Trokana schrieb:
Mit Maxwell kann ich endlich meine 570 in den verdienten Ruhestand schicken.

Dito!
Die GTX750 soll ja leistungteschnisch auf dem Niveau einer 570 sein. Mehr brauche ich nicht! Stimmt das wirklich und es wird kein extra Stromanschluss benötigt, wandert die erste leise & kleine Version davon direkt in meinem Warenkorb (Preis max 135€?). Dann passen endlich kleine (m)ITX-Gehäuse, ohne dass ich mich in Sachen Kühlung und Leistungsaufnahme groß verbiegen muss.

Mir ist auch egal ob es noch Kepler oder schon Maxwell ist. Auch ein Hybrid-Chip könnte einiges an Vorteilen bringen. Ich weiß noch nicht wie sehr man dem 20nm-Prozess trauen kann. Vor Ende 2015 wird dann eh nicht mehr aufgerüstet. Dann kommt spätestens Skylake und Volta.
 
voon schrieb:
DP braeuchte ich ned mal ... mein renderer nutzt SP. Daher brauch ich keinen Titan ... einfach irgendwas, das fuer gaming und rendering taugt ... wie halt damals die 580. Ich moechte den spirituellen Nachfolger davon :)

Dann reicht doch eine GTX 780 Ti.
 
So viel schneller ist die GTX 780 Ti im rendering ja nicht, mir persönlich wäre es den Preis nicht wert wenn man schon eine GTX 580 hat.
Ich hoffe auf einer höhere CUDA-Performance für die GTX 8xx zum rendern und konvertieren.
 
Amok-Sepp schrieb:
Dann reicht doch eine GTX 780 Ti.

Jep, allerdings wart ich auf die 880 ... ich hoff mal, dass die so gegen Juni auftaucht. Bis dahin halt ichs noch aus mit der 670er. Wollte die neue Generation wegen den spielen, DirectX 11.2 ... dieses "tiled texture" Zeug klang irgendwie vielversprechend. Vieleicht hab ich ja Glueck und sie spendieren der zumindest irgendwas um die 3000 CUDA cores (sofern es dieselben cores sind wie aktuell). Ich hoff einfach, dass sie das nicht verschlechtern :) Dann kauf ich vermutlich zwei davon, damit das rendern anstaendig tut. Vielleicht gibts ja auch ne 890 .. aber ich vermute wenn ueberhaupt, dann ziemlich spaet.
 
DocWindows schrieb:
Juni 2015 meinst du hoffentlich. Es ist schon durchgesickert dass die dicken Maxwells dieses Jahr nicht mehr kommen werden.

Hm .. wo steht das? Ich hab viel zum Thema 20nm gelesen, aber ned grundsaetzlich zu maxwell, ob nun 20 oder 28.
 
Ich meine auch schon gelesen zu haben, dass die Performance/High-End Modelle erst 2015 kommen sollen. Bestätigt wurde das meines Wissens nach noch nicht. Nvidia könnte auch das Weihnachtsgeschäft (2014) anpeilen wenn es mit den neuen Chips gut läuft.
 
Uah schreck, dann muss ich wohl oder uebel doch zur 780 greifen fuer den moment. Naja, so shclecht ist die ned, und das neue Zeug muss auch erstmal unterstuetzt werden.
 
blöderidiot schrieb:
Um OpenCL kümmert sich nVidia nicht, im Gesamtbild ist OpenCL unbedeutend, für nVidia ein "Hobbyprojekt".
Es ist ja "nur" ein Industriestandard... :rolleyes: Für nvidia ist das kein Hobbyprojekt, sondern schlicht deren Konkurrrenz. nvidia pusht nur künstlich ihre proprietäre CUDA Sch.... damit sie sagen können wie toll CUDA läuft. Da CUDA eben nvidia exklusiv = erhoffte Mehrverkäufe dadurch.
Das sie dabei OpenCL nicht optimieren, ähnlich wie bei GPU PhysX vs CPU PhysX, wo letzteres kein Stück optimiert ist, sondern lediglich lauffähig.
 
Volkimann schrieb:
Es ist ja "nur" ein Industriestandard... :rolleyes: Für nvidia ist das kein Hobbyprojekt, sondern schlicht deren Konkurrrenz. nvidia pusht nur künstlich ihre proprietäre CUDA Sch.... damit sie sagen können wie toll CUDA läuft. Da CUDA eben nvidia exklusiv = erhoffte Mehrverkäufe dadurch.
Das sie dabei OpenCL nicht optimieren, ähnlich wie bei GPU PhysX vs CPU PhysX, wo letzteres kein Stück optimiert ist, sondern lediglich lauffähig.

Ja und wo ist das Problem? Das Nvidia keine Resurcen in OpenCL verschwendet ist doch bekannt und nachvollziehbar. Sie brauchen OpenCL nicht. Sie haben ihre eigene Software und Customer Base.
 
Wenn man sich natürlich darüber freut zT nur an bestimmte Software gebunden zu sein, bitte nur zu... :rolleyes:
 
Weil Google einen inoffiziellen OpenCL Treiber aus 4.3 entfernt, um mit 4.4 Renderscript was eigenes einzuführenist OpenCLalso bedeutungslos. Soso. Dann macht ja Intel mit OpenCL und Xeon Phi ja alles falsch, dem Bereich wo nvidia dank letzterem Federn lässt.... Schon klar

Und Cuda und Android? Nicht mal der Tegra 3 hat CUDA unterstützt. Und oh schreck. der Tegra 4 auch nicht. Damit ist wohl nvidia bedeutungslos deiner Logik nach.
 
Hardware_Hoshi schrieb:
Naja, für die GPGPU-Teile und die höhere Tesselationsleistung hatten viele auf nvidia eingedroschen. Sie sollten laut Meinung vieler lautstarker Gegner mehr Bereiche der GPU für Gaming nutzten statt für, ich zitiere "den unnötigen Workstationschnickschnack, den eh keiner braucht".

Nvidia hat auf diese Leute gehört und Gaming + GPGPU wieder getrennt. Dafür werden sie abermals kritisiert. AMD hat es umgekerht gemacht und ist jetzt wieder da wo Nvidia mit der GTX580 einmal war. Seltsamerweise kassieren sei dafür Lob. Wissen die Leute eigentlich was sie wollen? Scheinbar nicht!

Wenn du Rendering betreiben willst, hold dir eine entsprechende Workstation-Quadro oder investiere in eine Titan. Sie ist der einzige wirkliche Kompromiss momentan. Falls du doch beides willst, musst du halt investieren. Nvidia wird den Zirkus wie bei der GTX580 nicht noch einmal machen, so traurig das für die semi-professionellen Anwender auch ist.

So kann man das ganze auch betrachten. Aber auch anders nämlich das man nun die eigentlichen Gamerkarten ohne GPGPU Ballast zum High End preisen ´kaufen kann, aus einer 560 wurde eine 680 und für High End musste man sofern man das gleiche Rundumpaket erwerben möchte, eben 1000 statt 500 Euro investieren für eine Titan, dem wahren Nachfolger der 580 investieren. Nvidia hat auf niemanden gehört, sondern Profitsteigerung betrieben, verwerlich ist dies sicher nicht, börsennotierte Unternehmen handeln nur gewinnstrebend, alles andere wäre fahrlässig vom Vorstand. Jedoch muss man sich das als Endkunde nicht noch schönreden und die Meinung vertreten, man hätte im Sinne der Gamer gehandelt und den GPGPU Ballast extra entfernt. Es wurden einfach die Klasseneinteilungen anders differenziert im Sinne höherer Marge.
 
Zuletzt bearbeitet:
Zurück
Oben