News GeForce GTX 980 Ti als neues Flaggschiff im September

ich wusste es, gibt noch Zeiten wo man ein bischen warten muss, also 2 davon..
 
@Daedal

also man kann gern wegen allem einen Bogen um die GTX TITAN X machen, sei es Preis oder Hass gegenüber Nvidia... tut man das aber wegen ihrer beschnittenen DP Leistung und der vermeidlich dadurch eingehenden reduzierten Gaming Leistung, dann wirds wirklich albern ^^
 
das_mav schrieb:
Wer gerne Leistungsfähige Karte für 200€ für UltraHD hätte, aufauf - baut/macht!

200€ für die X oder TI verlange ich auch gar nicht.

Faust2011 schrieb:
Vielleicht gibt es ja, durch Markt-Druck von AMD im Sommer, doch eine 8-Gbyte-Version, die dann etwas 'schräg' angebunden ist (also im Sinne einer 970) :D

Dann 3GB an 192 Bit und 6GB an 192 Bit. :-X
 
C4rp3di3m schrieb:
Nvidia oweia! Ist bei NV eigentlich auch HBM in Planung oder keine Lizens dafür? :D

mfg

erst mit Pascal 2016/17. Wird sich zeigen welchen Vorteil AMD durch HBM hat, aber erst am Gen 2 wirds richtig interessant und da steigt Nvidia auch ein. AMD hat meiner Meinung nach bisher selten diese Technologievorteile effizient und sinnig eingebracht (64 Bit beim Athlon abgesehen). Mal sehn ob HBM hier aus der Reihe tanzt.
 
C4rp3di3m schrieb:
Die nächste Version HBM soll ja 1TB/s schaffen, Nvidia oweia! Ist bei NV eigentlich auch HBM in Planung oder keine Lizens dafür? :D

HBM ist nichts AMD-Exklusives und es ist mittlerweile seit 2013 JEDEC Standard. HBM ist auch bei nVidia schon seit langem für die Einführung geplant (ab nächstes Jahr mit Pascal in 16nm). Man hat es bei nVidia bislang nur noch nicht für nötig gehalten, da die Speicherbandbreite im Gegensatz zur Rohleistung im Grunde nie den limitierenden Faktor darstellt (speicherintensive Spezialanwendungen natürlich ausgenommen). Rein von HBM sollte man sich bei der 390X auch keine Wunder erwarten (außer in synthetischen Benches, die die Speicherbandbreite messen). Die Wunder, falls vorhanden, müssen eher von den anderen inneren Werten her kommen :) .
 
OT: Samsung und AMD wäre eine starke Macht gegen Intel und NV, für uns Kunden wäre das von großem Vorteil!

Gerade bei den Mondpreisen von Intel für 6+ Core und NV mit Titan usw. Sehe da nur Vorteile für uns.

mfg
 
Zuletzt bearbeitet:
Denke ich mir auch erstmal, dass das nicht schlecht klingt. Nur werde ich die Grafikkarten trotzdem "Ati" nennen. In dem Fall, wenn Samsung die übernimmt, werden auch die BerührungsbildschirmfermsprechapperateTM vermutlich AMD-CPUs mit Onboard-Grafikkarten erhalten und Qualcomm guckt blöd aus der Wäsche. Aber dafür kriegt man dann Intel und Nvidia vom hohen Mondpreis-Ross runter, es sei denn, Samsung-Ati-AMD macht alles teuer, weil die gegen Intel und Nvidia kein Nachsehen mehr haben.
 
Moriendor schrieb:
Nö. Ich komm da von gar keinem Trip runter :D . Man ist bei der LCD-Technik nun mal an die native Auflösung gefesselt, wenn man auf Bildqualität auch nur im Ansatz wert legt. Und wenn ich als bekennender Bildqualitätsfetischist die Wahl habe, dann werde ich immer die höheren Qualitätsstufen bei (nativ) niedrigerer Auflösung fahren als eine hohe Auflösung mit verminderten Details. Denn Ersteres sieht schlicht grundsätzlich besser aus. Die höhere Auflösung bringt bei viel Einbildung etwas mehr Schärfe, aber eben auch oft noch Nachteile wie ein mangelhaft skalierendes UI (Bildschirmlupe FTW! ;) ).
Vielleicht kommt das auch heute durch die Smart Phone Generation, die versaut worden ist von den Herstellern, die versuchen, Ihnen weiszumachen, dass man ohne Retina-Display im Grunde eine nicht lebenswerte Existenz fristet, aber man glaube es einem alten Hasen wie mir: Auflösung ist nicht alles. 1080p/1440p mit alles auf ULTRA sieht immer besser aus als 4K auf High bis Medium. Meiner Meinung nach ist 4K Gaming noch einfach unsinnig. Da muss noch viel passieren in Sachen GPU-Leistung zu angemessenen Preisen und auch auf Seiten der Software, so dass man die Lupe stecken lassen kann.
Man könnte sogar die Gretchenfrage stellen, ob 4K bei gängigen Bildschirmdiagonalen am Schreibtisch (24"bis max 32") wirklich Sinn macht. Ich finde nicht unbedingt. Wer je nach Diagonale ein 1080p (24") oder 1440p (27" bis 32") Bild als "körnig" empfindet, sollte sich vielleicht mal lieber den Schlaf aus den Augen reiben ;) . Ernsthaft: 4K wird IMHO erst ab deutlich über 40"+ interessant, also im TV-Bereich oder Beamer, Präsentationen, Kino... wo auch immer "viel Bild" auf großer Fläche geboten werden muss.

HISN Zockt auf 40 Zoll UHD...:p
 
ChrisMK72 schrieb:
Für Full HD kauft sowas wohl kaum einer mehr.
Auch wenn viele das anders sehen, DOCH. Macht durchaus noch Sinn denn wenn man überlegt wieviel fps in 1080p bei Crysis übrig bleiben und wenn man sich die fps-Tabelle von pCARS in 1080p auch auf Ultra anguckt....

...so ist erst die Titan X die erste SingleGPU Grafikkarte, mit der man soweit ALLE derzeit erhältlichen Spiele in 1080p in vernünftigen fps-Regionen überhalb der 40 spielen kann.

Kurz OT= wenn pCARS in der Final genauso kommt wie die getestete Vorabversion wird das spitze. Und darf auch gern noch mehr Hardware fressen als TheCrew -denn selbst da hat Ivory Polygone eingespart. Manche Autos aus dem inoffiziellen Patch für TDU2 sind besser gemodelt und fließend runder als Autos in TC, die von "professionellen Devs" gemodelt wurden...

Fazit= Es gibt Spiele, da machen auch solche Karten noch Sinn, zumal man nochmal nen Tick extra Leistung braucht, sobald man Gameplay aufnimmt. Das Geschwätz von wegen man hätte einen anner Waffel, solche Karten für FHD zu nutzen is nur gelaber.
 
Daedal schrieb:
fp64 und fp32 sind beides float. fp64 double und fp32 single Presicion. Ich habe dich doch gebeten dir wenigstens die Vokabeln für das Thema anzueignen.^^

Jeder der sich mal mit einer Programmiersprache beschäftigt hat weiß, dass double in 99% aller aktuellen Sprachen der Datentyp für eine 64Bit Gleitkommavariable ist und float für 32Bit.

Du willst wissen, wie heutige PC Spiele am besten entwickelt werden und hast offenbar noch nicht mal ansatzweise etwas von einer Programmiersprache gehört, versuchst aber gleichzeitig meine Aussagen ins Lächerliche zu ziehen.
BWL Student ?!?

Wenn man selbst keine Ahnung hat ist man generell eher schlecht beraten sich über die lustig zu machen, die nicht ganz so planlos in der Gegend rumlaufen. Sonst kommen solche Äußerungen wie "wenn Programmierer besser wären bräuchten wir keine CPU mehr dann liefe alles bereits auf der Grafikkarte" bei raus.
 
Gerade bei den Mondpreisen von Intel für 6+ Core und NV mit Titan usw. Sehe da nur Vorteile für uns.

die titan x bringt in battlefield 4 in 4K ultra ohne AA ~80 FPS auf den schirm.
ungefiltert kommt da die 6 fache leistung einer X1/PS4 am schirm an.
in shadow of mordor schleudert die titan x mit pc exklusiven ultra texturen immerhin noch 40 fps in 4k auf den schirm.
willst du auch einen ferrari um 10.000€ haben weil der polo ja genauso viel kostet?

und wozu benötigst du einen 6C/12T intel?
in 99% der spiele reicht ein i3 (2C/4T) 4160 um 130€.
ein i5 ist oft bereits totaler overkill und selbst mit einem i7 (sandy) von 2011 wirst du noch bis mind. 2017 auskommen.

leute gibt es - komplett realitätsfern . :rolleyes:

Die nächste Version HBM soll ja 1TB/s schaffen, Nvidia oweia! Ist bei NV eigentlich auch HBM in Planung oder keine Lizens dafür?

und was bringt das bei der aktuellen GPU leistung? gar nichts?
wird schon seinen grund haben warum nvidia erst mit pascal auf HBM setzt.
ich denke hbm wird erst interessant wenn gpus viel schneller werden und solche bandbreiten dann auch benötigen. selbige gilt für DDR4 und PCIE 4.0. aktuelle gpus reizen noch nicht mal PCIE 2.0 aus.
SATA 2.0/3.0 ist ebenso ausreichend da es bei SSDs sowieso nur um die zugriffszeit geht und nicht so sehr um die bandbreite. erst SATA 1.0 limitiert ein wenig.

nvidia ist es im moment eher wichtiger den stromverbrauch zu senken.
die 970 mini macht eine 290 nass und verbraucht über 100 watt weniger unter last.
die mobilen ableger von maxwell sind auch wahnsinn.
die 960M erreicht immerhin schon die leistung einer 580, verbraucht aber nur einen bruchteil an strom.
ein brauchbares intel/nvidia gaming notebook verbrät unter last (spiele) nur ~130 watt inklusive display.
das ist auch der grund warum viele neue gaming-notebooks recht schlank sind.

ein 16 nm shrink von nvidia wird vermutlich der todesstoß für amd auch im GPU segment. im cpu segment ist AMD ja weiterhin noch nicht mal zu intel cpus anno 2011 konkurrenzfähig.
ein 8350 schafft es mit ach und krach gerade mal einen i3 knapp zu überholen in spielen.

...so ist erst die Titan X die erste SingleGPU Grafikkarte, mit der man soweit ALLE derzeit erhältlichen Spiele in 1080p in vernünftigen fps-Regionen überhalb der 40 spielen kann.

vollkommener schwachsinn.
du gehst ja nur nach ultra ultra msaa benchmarks und ziehst noch dazu eine beta version von project cars heran.
total lächerlich dein argument.

in high mit smaa kannst du jedes aktuelle spiel auch auf einer 200€ gpu in 1080P@60 spielen.

Das Geschwätz von wegen man hätte einen anner Waffel, solche Karten für FHD zu nutzen is nur gelaber.

wenn ultra schatten 50% verbraten und 4xMSAA mit über 30% zu buche schlägt dann würde ich mal einen crashkurs zu dieser materie besuchen. deine benchmarks sind komplett irrelevant.

aber wenn es dir das wert ist dann kauf dir ein titan x sli gespann für 480P.

ich spiele watch dogs in high/smaa @ 1080p mit butterweichen 40+ FPS auf einer GTX660.
 
Zuletzt bearbeitet:
Ich freue mich auf die TI bis Pascal sollte man noch super zurecht kommen mit 6GB.
Gehe mal grob von 749Euro zum Launch aus angesicht dessen das eine Titan Black letztes Jahr im Jan bei 1000 gestartet ist und ca 50% langsamer war ist das doch ein Fortschritt zumal die TI ja noch mehr Takt bekommt .
So können das je nach Referenz oder Coustoms sogar 60-70 %werden.

Ein schnäpchen wäre das sogar.:D
 
Zuletzt bearbeitet:
Nai

Lies bitte den Satz noch einmal :
Aber ja, klar macht es am Ende einen Unterschied, ob ein Roboter gegen eine Wand fährt oder ein Raumschiff nicht die Strecke fliegt, die sie soll

Robotik hier ist genau das Beispiel von beiden wo eben die doppelte Genauigkeit nicht so wichtig ist.
Ganz einfaches Beispiel. Gehen wir von einen Roboter aus, der im Raum orientieren soll.

Eine Gerade Strecke wird der Robotor wahrscheinlich ohne Probleme erreichen und ungefähr dort landen, wo er landen sollte. (Angenommen er fährt auf sehr sehr schmale Reifen).
Anders wenn anfangs eine Drehung gemacht wird und der Roboter dann eine gewisse Strecke fahren soll. Noch schlimmer, Drehung, fahrt, Drehung, ect.

Deshalb werden Wahrscheinlichkeitsrechnung in Robotik genützt damit der Roboter ca seinen Standort und Handeln abschätzten kann.

Das Gegenbeispiel war eben eine Rakete, wo Ungenauigkeiten und Unüberlegtheit einen Absturz ect verursachen kann.
Bei Robotik ist eher die Wahrscheinlichkeitsrechnung sehr wichtig, besonders eben für Messwerte (und Ungenauigkeiten der Sensoren)

Zugegeben, der Satz ist sehr ungenau ausgedrückt. Ich wollte beide Themen gegenüberstellen.

Es hat schon seine Gründe, wieso man auf der Uni mit double und diverse Algorithmen konfrontiert wird um eben "genauer" Werte zu haben.

Aber ja, klar macht es am Ende einen Unterschied, ob ein Roboter gegen eine Wand fährt oder ein Raumschiff nicht die Strecke fliegt, die sie sollte.

Man darf den Satz halt nicht für sich alleine sehen. Ich wollte sagen, klar richtet man oft in der Uni auf double und gewisse Algorithmen für Numerik das Augenmerk. Aber es stimmt, dass es was anders ist, wenn man eine Rakete baut oder im Vergleich nur einen Roboter.

Aber all das wird nichts ändern. Selbst wenn doppele Genauigkeit in Games weniger wichtiger sind, wird zu mindestens einfache wichtig sein und AMD hat hier sehr aufgeholt. Das kann sich in Spielen später zeigen.
Und was Fijii angeht, kann es immerhin passieren, dass AMD doch den einen oder anderen Abnehmer hat, die DP-Einheiten benützten wollen und somit könnte AMD mit Fijii auch höhere Margen abkassieren, als es bei NV mit Gm200 der Fall ist. Müssen tut es natürlich nicht. Man wird es sehen.
 
Zuletzt bearbeitet:
-Bluecat- schrieb:
Wieviele hier auf xxx super intel und xxx super nv warten :D reallife vorhanden?

Du bist in einem Computer Forum, hier sind Technik-affine Leute unterwegs.... mal kurz nachdenken vorm posten.
 
SimsP schrieb:
Jeder der sich mal mit einer Programmiersprache beschäftigt hat weiß, dass double in 99% aller aktuellen Sprachen der Datentyp für eine 64Bit Gleitkommavariable ist und float für 32Bit.
Es ist völlig unklar was du eigentlich willst. Worum geht es dir? Zum Thema trägt der letzte Beitrag erneut absolut Null Inhalt bei.
 
Du meinst genauso viel wie deine Beiträge in denen du mir rätst ich solle mich erst mal über die Begriffe informieren?

Edit: Was ich vermitteln wollte - und das findest du auch in meinem ersten Post im thread - ist die Tatsache, dass weder jetzt noch in näherer Zukunft DP Rechenleistung bei GPUs wesentlich von Bedeutung sein wird. Jedenfalls im Game Sektor.

Viel wichtiger ist hier das Thema der Speicherdatenrate. Wie schnell komme ich als GPU an meine Daten? Und gerade da wird HBM interessant. Vllt. noch nicht in erster Generation aber auf jeden Fall in den nächsten 1-2 Jahren. Auch NVlink ist ein interessantes Konzept, auch wenn ich noch nicht ganz verstehe, wie NVidia das umsetzen will. Es würde meiner Meinung nach sehr viel Sinn machen, da einen Übertragungs-Standard zu etablieren, der paralell zu PCIe existiert. Was NVidia da macht klingt wieder irgendwie nach was Proprietärem und ich kann mir nicht vorstellen, dass sich das hier durchsetzen kann.
 
Zuletzt bearbeitet:
SimsP schrieb:
Edit: Was ich vermitteln wollte - und das findest du auch in meinem ersten Post im thread - ist die Tatsache, dass weder jetzt noch in näherer Zukunft DP Rechenleistung bei GPUs wesentlich von Bedeutung sein wird. Jedenfalls im Game Sektor.
Und du solltest die Entwicklung einfach nicht verschlafen, denn es ist schon von kompetenteren Menschen eine klar gegeteilige Aussage gemacht worden.
http://www.reddit.com/r/starcitizen..._floating_point_precision_vs_64bit_precision/
In the lovely presentation a few days ago, Chris Roberts, mentioned that they were going to work with the CryEngine devs on supporting 64-bit floating-point precision in order to make the maps larger.

The reason why many video game engines limit map size is because of slight imprecisions in the math. This causes strange glitches and spazzy behavior. However, if you increase the precision of the calculations from 32-bit to 64-bit floating point, then the maps can be made bigger.
Ich weiss nicht ob du mehr Ahnung hast als Chris Roberts, doch bisher sehe ich wenig Grund deinen Ausführungen mehr zu glauben.

Edit:
Es ist für Arena Commander 3 auch schon im Schedule:
http://www.citizenstarnews.com/news/schedule-shock-patch-132-and-beyond
Arena Commander III: Heart of the Empire

This third installment of Arena Commander is not on the current roadmap, but in an episode of Reverse the Verse Ben Lesnick confirmed that is not scrubbed.

  • More Environments: Spacestation, Mining Colony
  • FPS Boarding Mechanics
  • Capture the Idris mode
    [*] Double precision floating point coordinates for larger maps!


Once AC II ships, they'll have a better view of were this falls. Likely won't be seen until 2016.
 
Zuletzt bearbeitet:
Und in wie fern ist diese Aussage gegenteilig? Ich sprach von fp64 auf der GPU. In deinen genannten Beispielen geht es um den Einsatz von fp64 Berechnungen auf der CPU.

Dass die Spieleprogrammierer das ganz toll finden ist auch klar. Ist einfacher ein double zu verwenden anstatt sich eine Lösung für fp32 zu überlegen. Ich meine klar solange die Rechenleistung da ist warum sie nicht auch verwenden.
 
Zurück
Oben