News GeForce GTX 980 Ti als neues Flaggschiff im September

Sahit schrieb:
Mhh eventuell ne Karte um AMDs R9 390X zu kontern. Ich freue mich jetzt schon auf die Duelle AMD R9 3XX vs GTX9XX ich hoffe mal das AMD NV so richtig einheizt.

Möge der Bessere gewinnen. Es wird auf jeden Fall spannend. Gerade was höhere Auflösungen angeht.
Für Full HD kauft sowas wohl kaum einer mehr.
 
Gelbsucht schrieb:
AMD ist nach wie vor nicht schlecht und in Einzelszenarien mehr als das, muß über alles gesehn mehrheitlich über den Preis kontern. Hallo AMD, aufwachen wo bleibt eure Revolution ?

AMD muss über den Preis kontern, weil es eben User gibt, die nichts vom Marktmissbrauch von damals wussten oder eben AMD immer mit billig vergleichen, weil OEM-Partner AMD Hardware gerne in billig Rechner verbauen.

Deshalb der niedrigere Preis. Es ist eben wie bei Apple. Wenn jemand die Wahl hätte zwischen einen APPLE und einen anderen Hersteller mit der gleichen Hardware aber anderen Label, würden die User meist immer zu Apple greifen.
Da stimmt nun mal der Spruch " Was der Bauer nicht kennt, frisst er nicht" oder "Wenn man keine Ahnung hat, muss man alles glauben".
Wenn man sich mit Otto über PC Hardware redet, wissen die oft auch nicht genau, was für Hardware verbaut ist. Maximal mit Intel und i-Ziffer können sie ungefähr noch was anfangen und meist ist mit Intel Hardware eben auch eine AMD GPU verbaut. Zumindestens, wenn man OEM-PCs oder Notebooks anschaut.
 
Zuletzt bearbeitet:
HisN schrieb:
@Moriendor

Und verdammt, wie Madman_One schon erwähnt, ich sitze an einem 40" UHD-Moni.
Und ich hab die 8 Jahre vorher an einem 30" in 2560x1600 gesessen.
NO WAY würde ich wieder zurück wechseln, nicht für alle FEATURES der Welt. Die Auflösung und die Größe von meinem Moni machen das alles wett.

Probier es aus.

Bin dabei :) . Mit 32" (1440p) bin ich ja auch schon am oberen Ende der Skala, aber auch da wo es mit meinem durchaus nicht kleinen Schreibtisch (gute 250cm breit und so ca. 100cm bis 120cm Tiefe wird der schon haben) aufhört Sinn zu machen. Mein 32" Samsung steht hinten "auf Kante", also weiter zurück kann ich ohne Absturzgefahr nicht mehr. Und ich muss je nach Sitzposition teils schon ganz schön in die Ecken schielen. Ein 40"er wäre nur mit Arm/Spezialhalterung denkbar, um mehr Abstand zu erzeugen, weil irgendwann ist groß zu groß.
Wie dem auch sei ging es ja auch eher um die Masse der Gamer und nicht uns "Exoten". Die Masse hat eher wenig Platz an Schreibtischen mit Standard 80cm/90cm Tiefe und schaut auf 22" bis max. 27", wo aus Gründen des Platzes mehr Diagonale auch überhaupt keinen Sinn ergibt. Und da muss man sich IMHO eben wirklich die Grundsatzfrage im Hinblick auf 4K stellen.
 
An die Wand das Ding :-)
 
SimsP schrieb:
Zusammengereimt? Das sind eigene Erfahrungen. Frag mal Naturwissenschaftler ob sie double oder float verwenden und wenn double, warum. Die Antwort wird immer sein: "Double ist genauer!" Und wenn du dann erzählst, dass float auch reichen würde und das Programm dann 5mal schneller läuft heißt es: "Is nicht wichtig hauptsache die Werte sind genau."
Vielleicht lernst du erst einmal die Begriffe und wir lesen uns dann wieder wenn wir die selbe Sprache sprechen. Nimm zu "double" und "float" noch als drittes "single" als zusätzliche Orientierungshilfe um zu erkennen was du da geschrieben hast ^^

Und wohl kaum war das ein Dialog den du mit einem Wissenschaftler geführt hast oder auch jemals führen wirst.
 
Vielleicht lernst du erst einmal die Begriffe und wir lesen uns dann wieder wenn wir die selbe Sprache sprechen. Nimm zu "double" und "float" noch als drittes "single" als zusätzliche Orientierungshilfe um zu erkennen was du da geschrieben hast ^^

Der Datentyp "float" ist in vielen "Programmiersprachen" meist einfache Genauigkeit, weshalb man mit Float auch oft die einfache Genauigkeit meint. . .

Und wohl kaum war das ein Dialog den du mit einem Wissenschaftler geführt hast oder auch jemals führen wirst.
Er hat aber recht. Viele Naturwissenschaftler denken so. Das merkt man spätestens, wenn man sich mal eine numerische Simulation, die von nem Physiker, Ingenieur oder Mathematiker programmiert wurde, anschaut.

Auch sonst gilt: DP wird meistens komplett überbewertet :)
 
Zuletzt bearbeitet:
HisN schrieb:
An die Wand das Ding :-)

Na ja, einen größeren Monitor zu kaufen, nur damit man ihn in größerer Entfernung aufstellt ist aber auch sinnlos.

Zumal z.B. ein 100 Zoll Monitor exakt das selbe darstellt, wie ein 24 Zoll Monitor.

Ich persönlich finde da z.B. das 21:9 Format oder gleich MultiMonitor, wenn man mit den Balken leben kann sehr viel Sinnvoller, da man MEHR statt nur Größer (und schärfer) sieht.

Aber gut, spätestens die VR Brillen lösen das Problem.
 
Mein 40" ist der bessere 21:9-Moni, denn er stellt auf 38" 3840x1656 (Pixelgenau) dar :-) (Wenn man mit den Balken leben kann^^).
Finde sowas mal in freier Wildbahn.
Und gute Wandhalterungen (meine z.b.) kann man im Abstand zur Wand variieren. Mir kam es dabei drauf an, dass der Platz auf dem Schreibtisch erhalten bleibt. Es braucht dann nämlich keinen Standfuß mehr, der (meiner Meinung nach) das eigentliche Problem auf dem Schreibtisch ist.
Wie tief ist denn ein heutiger Moni? 5cm? Platz nimmer der Fuß ein. Nicht der Moni an sich.
 
Zuletzt bearbeitet:
Nai schrieb:
Auch sonst gilt: DP wird meistens komplett überbewertet :)

Achso, wird meist überbewertet ? Klar, wir können ja immerhin am Ende von 10% Fehlertoleranz drauß machen. Das ist dann wahrscheinlcih die noch schnellere Variante.

Klar wird es Szenarien geben, die weniger wichtig ist und float ausreicht. Wie sieht es dann aber aus, wenn man solche Werte hat und anschließend etwas berechnet, was eine doppelte Genauigkeit benötigt. Nimmt man dann die Werte, die man mit Einfacher-Genauigkeit berechnet hat um dann eine darauf aufbauende Auswertung eine dopple Genauigkeit zu berechnen ?

Es hat schon seine Gründe, wieso man auf der Uni mit double und diverse Algorithmen konfrontiert wird um eben "genauer" Werte zu haben.

Aber ja, klar macht es am Ende einen Unterschied, ob ein Roboter gegen eine Wand fährt oder ein Raumschiff nicht die Strecke fliegt, die sie sollte.
 
Zuletzt bearbeitet:
Ich warte nach dem Desaster mit der GTX970 zwar erst einmal ab, was AMD im Sommer bringt. Aber die GTX980Ti bleibt auf jeden Fall eine Option, falls der Verbund von zwei Grafikkarten bei AMD (auch dieses Mal) nicht ordentlich und vollkommen reibungslos funktioniert.

Nachdem ich mit meinen drei 5870 mehr als zwei Jahre warten durfte, bis endlich ein annähernd mikrorucklerfreier Treiber herauskam (danke AMD, dass ihr mir meine gesamte Battlefield 3 Spielzeit versaut habt), werde ich mir das Zusammenspiel von zwei 390X sehr genau (!) anschauen.

Nach dem GTX970-Betrug werde ich aber AMD auf jeden Fall den Vorzug geben, sollte die Lösung von NVIDIA nicht in irgend einem entscheidenden Punkt deutlich besser sein oder die von AMD in einem entscheidenden Punkt deutlich schlechter sein! Maßgeblich werden für mich die Frametimes sein, wenn einer der beiden hier einen Ausreißer hat ist das ein KO-Kriterium. Was den Stromverbrauch angeht erwarte ich, dass NVIDIA weiterhin die Nase vorne hat, das spielt für mich aber nur eine untergeordnete Bedeutung. Ich habe Zuhause gerade einige Stromfresser ausgemustert und entsorgt, da habe ich die Stromersparnis schon drin, die bei meinen durchschnittlich 7-11 min Spielzeit am Tag (regelmäßig komme ich mehrere Wochen am Stück überhaupt nicht zum Spielen) ohnehin nicht ins Gewicht fällt.

Wie bei meinen PALIT Superjetstream werde ich wieder auf eine hervorragende und leise Kühlung achten, so dass ein Referenzdesign bei beiden nicht in Betracht kommt. Nach dem Patzer im neuen BIOS der PALIT GTX780 (dreht nie unter 48 % und ist damit auf einmal störend laut) werde ich mir sicher keine PALIT mehr kaufen. Insofern wird es auf eine Gigabyte oder eine MSI hinauslaufen, vielleicht auch eine Sapphire, das hängt vom Takt ab.

Jetzt lasse ich mich aber erst einmal überraschen, wie meine beiden GTX780 auf 3440*1440 unter Battlefield Hardline performen. Die durchschnittlichen 7-11 min am Tag möchte ich genießen! Daher befürchte ich bereits jetzt, dass mir die Leistung nicht ausreichen wird. Von daher bin ich sehr gespannt auf das was dieses Jahr noch so kommt von AMD und NVIDIA.

EDIT wegen PS:
Moriendor schrieb:
Bin dabei :) . Mit 32" (1440p) bin ich ja auch schon am oberen Ende der Skala, aber auch da wo es mit meinem durchaus nicht kleinen Schreibtisch (gute 250cm breit und so ca. 100cm bis 120cm Tiefe wird der schon haben) aufhört Sinn zu machen. Mein 32" Samsung steht hinten "auf Kante", also weiter zurück kann ich ohne Absturzgefahr nicht mehr. Und ich muss je nach Sitzposition teils schon ganz schön in die Ecken schielen. Ein 40"er wäre nur mit Arm/Spezialhalterung denkbar, um mehr Abstand zu erzeugen, weil irgendwann ist groß zu groß.

Das sind auch die exakten Maße meines Schreibtisches, wobei mein Monitor hinten an der Wand steht, runterfallen kann er schon mal nicht.

Ich hatte mich aber eine Zeit lang sehr intensiv mit der Frage befasst, ob ich mir einen 32"-Monitor mit FullHD hole. Aufgrund des verhältnismäßig großen Abstandes zum Monitor waren 32" (wohlgemerkt unter FullHD) grenzwertig, bis störende Pixel sichtbar wurden. Ich habe mich deshalb für einen 29" mit 2560*1080er Monitor (ASUS MX299) entschieden, der mir aufgrund der Entfernung aber deutlich zu flach ist. Er hat lediglich die Höhe eines 24"-Monitors, mein vorheriger 27"-Monitor war deutlich höher und noch ausreichend, nicht jedoch der 29", der seinen Diagonalabstand in erster Linie durch seine Breite holt.

Schon bei diesen 29" ist man aber bei unserem Sitzabstand am Maximum, was die Breite angeht. Der ASUS hat 700*391mm Breite*Höhe MIT Fuß, der Samsung hat 821*364 ohne Fuß. Dass er curved ist wird daher auch dringend nötig sein!

Deswegen werde ich mir in den nächsten Wochen einen 34" holen, der dann aber mit FullHD bei ca. 110cm Sitzabstand zu groß wäre bzw. die Auflösung zu niedrig, weshalb er die Auflösung von 3440 * 1440 haben wird, sonst kann ich daran auch nicht ordentlich arbeiten (was ich täglich im Schnitt rund 2-3 h tue). Der Samsung S34E790C (34", curved) erfüllt alle Büro-Kriterien und hat einen Input lag von lediglich 7,1ms (VA-Panel), auf den wird es hinauslaufen.

Da werden die Grafikkarten ganz schön was zu tun bekommen, sodass ich sehnsüchtig auf die 390X und die 980Ti warten werde!
 
Zuletzt bearbeitet:
Daedal schrieb:
Vielleicht lernst du erst einmal die Begriffe und wir lesen uns dann wieder wenn wir die selbe Sprache sprechen. Nimm zu "double" und "float" noch als drittes "single" als zusätzliche Orientierungshilfe um zu erkennen was du da geschrieben hast ^^

Und wohl kaum war das ein Dialog den du mit einem Wissenschaftler geführt hast oder auch jemals führen wirst.

Dann bleib mit deiner Meinung meinetwegen realitätsfern. Das ist ein Dialog wie ich ihn schon öfter geführt habe.

Was du an double und float im Bezug auf fp64 vs fp32 nicht verstehst ist mir auch nicht ganz klar... Was denkst du denn was double precision bedeutet?
 
Nun dann warten wir mal ab was AMD mit den 390er dagegenstellen wird.

Und die 400er Serie ist ja auch schon in der Mache meines Wissens.

Und dann wollen wir mal den Preis abwarten.
 
Aber ja, klar macht es am Ende einen Unterschied, ob ein Roboter gegen eine Wand fährt oder ein Raumschiff nicht die Strecke fliegt, die sie sollte.

Weil du schon Robotik ansprichst:
1.) Die Sensoren sind sehr oft vergleichsweise ungenau - wesentlich ungenauer als die einfache Genauigkeit. So liegt die Ortauflösung von Kameras meist im Bereich von 1 cm. Diese Ungenauigkeit der Sensoren muss bei vielen Algorithmen in der Robotik irgendwie berücksichtigt werden. Versucht ein Roboter beispielhaft seine Position über die Integration der Geschwindigkeit (Neue Position = Alte Position + Geschwindigkeit), die er mit einem Tacho misst, zu bestimmen, so wird das Ergebnis wegen den Messfehlern unabhängig von der arithmetischen Genauigkeit nach kürzester Zeit unbrauchbar.
2.) Die rekonstruierten Daten der Bilder der Kameras werden aus diversen Gründen oft noch vereinfacht. Bei einem Robotikprojekt, bei dem ich ein klein wenig mitgearbeitet habe (ich habe eigentlich 0 Plan von Robotik), wurden die 3D-Modelle noch einmal auf circa 100 Dreiecken heruntergerechnet. Durch das Herunterrechnen entstehen noch einmal größere Fehler als die Kameras sowieso schon besitzen. Deshalb benötigt man für die Berechnungen auf diesen Modellen eigentlich meist auch nur einfache Genauigkeit.
3.) Viele Algorithmen in der Robotik müssen hart echtzeitfähig sein. Dadurch haben sie nur eine beschränkte Zeit um eine Lösung zu finden. Deshalb suchen viele Algorithmen zunächst eine relativ einfache Lösung, die vermutliche extrem schlecht ist, und verfeinern diese Lösung so lange bis die verfügbare Rechenzeit abgelaufen ist. Je schneller nun die einzelnen Rechenoperationen sind, umso mehr Rechenoperationen können ausgeführt werden um die Lösung zu verfeinern. In diesem Fall kann zum Beispiel wieder so Paradox es klingen mag die einfachere Genauigkeit wesentlich genauere Ergebnisse liefern als die doppelte Genauigkeit.

Womit wir wieder bei meinem Fazit wären: Doppelte Genauigkeit wird meist komplett Überbewertet :)


Wenn es Z-Fighting eliminiert, dann könnten sich viele Games mal eine Scheibe davon abschneiden. Flackernde Texturen, die sich nicht entscheiden können ob sie vorne oder hinten sind gibt es leider viel zu oft, und das scheint ja auch eine direkte Folge vom zu "kleinen" z-Buffer zu sein.

Das Problem heutzutage an den Tiefenbuffern ist nicht, dass sie mit 32-Bit eine zu geringe Genauigkeit hätten, sondern dass die GPUs die Z-Werte des Kamerakoordinatensystems extrem ungünstig auf die Tiefenwerte abbildet. Denn die Tiefenwerte besitzen nahe an der Kamera eine extrem hohe Auflösung, während sie weit weg von der Kamera eine extrem niedrige Auflösung besitzen. Würde die GPU eine konstante Auflösung für die Tiefenwerte verwenden, so würden die Probleme des Z-Fightings bereits nicht mehr oder extrem reduziert auftreten.
 
Zuletzt bearbeitet:
SimsP schrieb:
Was du an double und float im Bezug auf fp64 vs fp32 nicht verstehst ist mir auch nicht ganz klar... Was denkst du denn was double precision bedeutet?

fp64 und fp32 sind beides float. fp64 double und fp32 single Presicion. Ich habe dich doch gebeten dir wenigstens die Vokabeln für das Thema anzueignen.^^
 
Zuletzt bearbeitet:
fp64 und fp32 sind beides float. fp64 double und fp32 single Presicion. Ich habe dich doch gebeten dir wenigstens die Vokabeln für das Thema anzueignen.^^

Noch einmal: Mit dem Begriff Float wird in der Regel die einfache Genauigkeit gemeint.
Zum Beispiel bei OpenCL:
https://www.khronos.org/registry/cl/sdk/1.0/docs/man/xhtml/scalarDataTypes.html
Bei Java auch:
http://openbook.rheinwerk-verlag.de/javainsel9/javainsel_12_002.htm
CUDA auch:
http://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#mathematical-functions-appendix
Bei C/CPP ist es Implementierungsabhängig. Aber idr ist ein float dort auch einfache Genauigkeit. Zum Beispiel beim Microsoft Visual Studio Compiler gilt es:
https://msdn.microsoft.com/en-us/library/hd7199ke.aspx
Bei OpenGL ist es Implementierungsabhängig. Aber selbst dort ist bei modernen GPUs ein Float immer die einfache Genauigkeit.
 
Bei DX12 Games werden weder Titan noch die Ti gegen eine AMD mit HBM RAM irgend wo Land sehen.
Die GB/s Leistung des HBM ist richtig Brachial, dazu die Verbesserung der Multicore Ausnutzung und der Preis kommt noch Obendrauf!

Die nächste Version HBM soll ja 1TB/s schaffen, Nvidia oweia! Ist bei NV eigentlich auch HBM in Planung oder keine Lizens dafür? :D

mfg
 
Zuletzt bearbeitet:
Nai schrieb:
Noch einmal: Mit dem Begriff Float wird in der Regel die einfache Genauigkeit gemeint.
Zum Beispiel bei OpenCL:
https://www.khronos.org/registry/cl/sdk/1.0/docs/man/xhtml/scalarDataTypes.html
Bei Java auch:
http://openbook.rheinwerk-verlag.de/javainsel9/javainsel_12_002.htm
CUDA auch:
http://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#mathematical-functions-appendix
Bei C/CPP ist es Implementierungsabhängig. Aber idr ist ein float dort auch einfache Genauigkeit. Zum Beispiel beim Microsoft Visual Studio Compiler gilt es:
https://msdn.microsoft.com/en-us/library/hd7199ke.aspx
Bei OpenGL ist es Implementierungsabhängig. Aber selbst dort ist bei modernen GPUs ein Float immer die einfache Genauigkeit.

Du kannst das gerne mehrfach noch widerholen, nur verstehe ich nicht warum jedesmal mich dazu zitierst. Ich habe doch lediglich SimsP aufgefordert die richtige Nomenklatur zu verwenden und keine verwirrenden Satzkonstruktionen zu kreieren die keinerlei Diskussionsbasis bieten. Aber vielleicht klickt er ja mal auf einen deiner Links und lernt es dann?

Edit: Vieleicht solltest du auch einen zu FP16 zufügen, denn diese sind wieder zurück beim Gaming aus Performancegründen. Und dann wirds nämlich völlig unmöglich das noch zu unterscheiden wie du meinst es wäre üblich - mag so gewesen sein, doch auch hier ist etwas mehr Präzision gefragt in Zukunft wenn man sich darüber unterhält.
http://www.anandtech.com/show/8460/amd-radeon-r9-285-review/2
 
Zuletzt bearbeitet:
Zurück
Oben