News Nvidia-Grafikchips: Ampere, Turing und Pascal im Fokus der Gerüchte

supermanlovers schrieb:
Dann kann ich endlich meine 1080 Ti durch eine 2080 Ti ersetzen. Die alte Karte kommt langsam an ihr Limit.
Kann ich nicht empfehlen. Der Leistungszuwachs ist ein Witz.

Ich persönlich warte mit einer 1080 Ti auch auf eine gescheite Upgrade Möglichkeit und hoffe, dass Nvidia das P/L nicht gleich lässt und somit mit noch teureren Karten rauskommt.
 
  • Gefällt mir
Reaktionen: Zockmock, Meleager, Zotac2012 und 2 andere
OZZHI schrieb:
Kann ich nicht empfehlen. Der Leistungszuwachs ist ein Witz.

Ich persönlich warte mit einer 1080 Ti auch auf eine gescheite Upgrade Möglichkeit und hoffe, dass Nvidia das P/L nicht gleich lässt und somit mit noch teureren Karten rauskommt.
Wird nicht passieren, bei großen leistungszuwächsen blockiert man sich alles über den Preis. Schon die 2080ti war preislich schwer zu vermitteln. Noch mehr will erst recht keiner bezahlen.
 
deswegen die 3070 und 3080 sowie rdna2 karten abwarten :)

jetzt sollte man wirklich nciht mehr unbedingt ne 2080ti kaufen
 
ist grade echt zum Haare raufen. Würde eig. gern mehr GPU-Power unter den Arsch meiner Kiste packen aber den RTX-Krempel will ich nicht unterstützen und AMD liefert noch auf absehbare zeit nichts Upgrade-Würdiges ggü der Vega 56... Ich hab hier reichlich Geld rumliegen, das sich beide Fraktionen nur zu gern nehmen dürften da es nur für diesen Zweck da liegt...


... es fehlt nur ein brauchbares Produkt bzw. Angebot. RTX 2080 Ti nehm ich für 800, RTX quatsch wird eh deaktiviert.
 
  • Gefällt mir
Reaktionen: MKmasta, fox40phil, tomasvittek und 3 andere
7hyrael schrieb:
ist grade echt zum Haare raufen. Würde eig. gern mehr GPU-Power unter den Arsch meiner Kiste packen aber den RTX-Krempel will ich nicht unterstützen ...
Hä?

Und warum nicht?
Du findest Hardware-beschleunigtes Raytracing doof, oder wie soll man das verstehen?
Wenn AMD das in der nächsten Generation mit drin hat, willst du die dann auch nicht kaufen?

Ich hatte vor einiger Zeit zu nem passablen Preis ne RTX 2070 Super gekauft.
Die Karte hat ne gute P/L und ganz gut Leistung. Das RT interessiert mich jetzt nicht großartig, aber es stört auch nicht.
 
  • Gefällt mir
Reaktionen: estros
Khalinor schrieb:
Nvidia hat schon immer mit Speicher rumgegeizt und das wird sich auch nicht ändern.
3080 höchstens 10GB und die Ti 13-14GB.

Stimmt leider. Wobei ich sagen muss, dass ich mit meiner 2080 in 4k noch nicht an irgendwelche Grenzen gestoßen bin. Provozieren könnte man es natürlich. Ich meine mich auch zu erinnern, dass irgendein Test auch gezeigt hat, dass AMD schneller das Ruckeln anfängt, wenn der Speicher knapp wird und das Management bei Nvidia besser ist. Mit 10 Gigabyte könnte ich persönlich leben, 20 werden es eh niemals werden.
 
SiStM schrieb:
Ich gehe davon aus das im Ti Flaggschiff 16GB Ram stecken werden, während es im Non Ti Model 12GB sein werden.

Geht nicht. Der Top-Consumer-102er Chip wird keinen kleineren Speicherbus haben als der Oberklassen-104er Chip. Für 16GB müssen es 256bit sein, für 12GB 384bit. Wird nicht passieren. Daher finde ich die 320bit für 10GB VRAM gar nicht mal SO daneben, aber eh egal, weil nur Gerüchte.
 
  • Gefällt mir
Reaktionen: Smartbomb und GERmaximus
USB-Kabeljau schrieb:
Du findest Hardware-beschleunigtes Raytracing doof, oder wie soll man das verstehen?
Wenn AMD das in der nächsten Generation mit drin hat, willst du die dann auch nicht kaufen?

Ich hatte vor einiger Zeit zu nem passablen Preis ne RTX 2070 Super gekauft.
Die Karte hat ne gute P/L und ganz gut Leistung. Das RT interessiert mich jetzt nicht großartig, aber es stört auch nicht.

Momentan hat man halt das Gefühl, man bezahlt viel Geld für Ray Tracing, hat aber noch nichts davon.

Weil aber der Abstand gewahrt werden muss steckt man bei 1660 fest. Die ganze Reihe bis 1680 Ti zum nicht ganz so gepfefferten Preis. Das wäre für mich erstmal interessanter.

Wenn es ausreichend Ray Tracing Leistung ohne Early Adopter Premium Zuschlag gibt dann würde ich sie nebenbei mitnehmen aber bei der Preisgestaltung wünscht man sich halt etwas ohne.

Ansonsten, auch wer die Grafikkartenentwicklung nicht so nahe verfolgt kann die wichtigste Info rauslesen: Es gibt bald neue Grafikkarten. Nicht, dass einer die teuerste Karte kauft und zwei Tage später Alteisen in seinem PC findet. :)
 
  • Gefällt mir
Reaktionen: Cpt.Willard, tomasvittek und GERmaximus
Averomoe schrieb:
Für 16GB müssen es 256bit sein, für 12GB 384bit.
Außer Nvidia benutzt die 1.5 GiB Chips, die seit 3 Jahren auf "Preislisten" auftauchen, aber noch nicht in freier Wildbahn gesehen wurden.
Dann geht nämlich 16 GiB -> 384 bit; 12 GiB -> 256 bit.
 
USB-Kabeljau schrieb:
Weil Faktracing wenig mit echtem RT gemein hat und die meisten bis her gezeigten Dinge auch deutlich billiger gehen. Der Qualitätsgewinn von durchgehend UHD@120Hz ist massiv höher als irgendwo ein Feuerlöscher mit besserem aber bei weitem nicht perfekten Schatten.
Aber scheinbar hatte das Marketing um RT mehr Erfolg als die Technologie eigentlich in der Form hergibt... Dafür bezahlt man dann massiv durch mehr Die Size bzw. weniger Leistung.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und tomasvittek
USB-Kabeljau schrieb:
Hä?

Und warum nicht?
Du findest Hardware-beschleunigtes Raytracing doof, oder wie soll man das verstehen?
Wenn AMD das in der nächsten Generation mit drin hat, willst du die dann auch nicht kaufen?
AMD kocht keine proprietäre Suppe um direkten Wettbewerb mit anderen Mitbewerbern zu vermeiden. Zumindest bezweifele ich stark dass AMD da mit irgend einer eigenen, proprietären Lösung anrollen wird. Damit hab ich weniger Probleme als mit dem PhysiX-2.0 Kram.
Ergänzung ()

milliardo schrieb:
Evtl weil das keine eff-pee-ess bringt. Is also schon von Prinzip her voll doof.
Wenn man keine Ahnung hat... Du kennst mich nicht und weißt nicht was meine Vorbehalte begründet also lass die Unterstellungen um dich nicht lächerlich zu machen. Wenn es mir blind um FPS gehen würde hatte ich längst eine 2080 Ti oder eine Titan. Bekomm das Zeug eh zum EK von Großhändlern... und am Geld liegt es sicher nicht.

Botcrusher bringt's einigermaßen gut auf den Punkt, ich will Leistung bei hoher Auflösung und Effizienz. Ich brauche keine 2000FPS, Ich dreh auch nicht blind die Regler auf rechts weil ich denke Ultra muss sein, opferte aber auch nicht die Optik für 10 FPS mehr. Und ich hatte eine RTX 2080 Ti zu Hause und könnte das RTX Zeug mit Control und bf5 ausprobieren und halte es für das überbewertetste Feature seit Ewigkeiten. Einige Spiegelungen und Reflexionen können dadurch besser und realistischer aussehen, bisher wirkt die Nutzung dann aber eher wie die Reflexionen in Serious Sam damals. Komplett übertrieben und darauf ausgelegt dass man es sieht und nicht dass es sich in ein homogenes Gesamtbild integriert.

Das sagt mir dass ich hier massive Aufpreise für ein Early-Access Feature zahlen soll und da es sich hierbei in großen Teilen um ein Hardware Feature handelt wird da nicht mehr viel reifen wie es bei Software durchaus möglich ist.

Und diese Geschäftspraxis unterstütze ich vor allem bei proprietären Sachen einfach zu ungern um für das bisschen Mehrleistung meine Ansichten hintenan stelle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Khalinor, dynastes und 9 andere
Überall nur noch Gerüchte. Glauben kann ich erst etwas wenn Fakten vorliegen. Meine 1080 könnte eine Ablösung gebrauchen leider Überzeugen mich die jetzigen Grafikkarten gar nicht. Extrem Teuer für ein paar Prozent mehr Leistung und mehr Verbrauch.
 
Botcruscher schrieb:
Weil Faktracing wenig mit echtem RT gemein hat und die meisten bis her gezeigten Dinge auch deutlich billiger gehen.
Nein- Und nein. Wie kommst Du drauf? Beispiele?

Der Qualitätsgewinn von durchgehend UHD@120Hz ist massiv höher als irgendwo ein Feuerlöscher mit besserem aber bei weitem nicht perfekten Schatten.
Nein-Du hast dann einfach nur fehlerhafte, schlechte Grafik super hoch aufgelöst und rasend schnell.
Shit in -> Shit out

Aber scheinbar hatte das Marketing um RT mehr Erfolg als die Technologie eigentlich in der Form hergibt... Dafür bezahlt man dann massiv durch mehr Die Size bzw. weniger Leistung.
RTX in seiner Featurekombination sind Beschleuniger und keine Leistungseinbremser.
Kann man sehr schön sehen, wie die normalen Karten einbrechen, die versuchen alle "Effekte" über die Shader zu berechnen. Da wirds zappenduster und die 1080TI reiht sich schön hinter einer 2060 ein...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mograine, WeltalsWille, estros und 2 andere
Iscaran schrieb:
60 Shader Cluster...das wäre ca 2080 Niveau - wird wohl eher ein evolutiver Schritt als ein Revolutionärer ?

Andererseits ist hier bestimmt noch Luft nach oben für den GA102.

Weißt ja nicht wie sie Ticken, die 1080 war ja der "Paukenschlag mit 1.8Ghz" 12nm auf 7 solltest mal nicht unterschätzen, vllt. 2.3 bis 2.6ghz.
Intel kommt nicht unter 14nm, amd mit 7nm nicht über 5Ghz and so on.

PS828 schrieb:
Wird nicht passieren, bei großen leistungszuwächsen blockiert man sich alles über den Preis. Schon die 2080ti war preislich schwer zu vermitteln. Noch mehr will erst recht keiner bezahlen.

Die haben einen 750mm² Chip verbaut, der hat auch gekostet. EDIT: Und man kann ihn ebenso bis 2ghz laufen lassen wie den "kleinen" was wiederrum für das spricht was ich oben erwähnt habe.
Und sie konnten es (wirtschaftlich) machen und ließen es sich bezahlen.
 
Zuletzt bearbeitet:
7hyrael schrieb:
AMD kocht keine proprietäre Suppe um direkten Wettbewerb mit anderen Mitbewerbern zu vermeiden.
Doch- Auch die AMD Hardware ist proprietär und auf deren RT- Technik sogar ein Patent angemeldet, womit es nicht öffentlich nutzbar ist.

Hier:
Stelle ab 6:45

Zumindest bezweifele ich stark dass AMD da mit irgend einer eigenen, proprietären Lösung anrollen wird. Damit hab ich weniger Probleme als mit dem PhysiX-2.0 Kram.
AMD wird so sicher wie das Amen in der Kirche wie bei jeder Grafikkartengeneration mit einer proprietären Lösung heranrollen, wie sie jeder Grafikkartenhersteller pflegt.

Wichtig ist nur, dass sie die offenen Schnittstellen der Hersteller unterstützen und an DX und Vulkan kommt da ja keiner vorbei.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, Oneplusfan, GERmaximus und 3 andere
Wattwanderer schrieb:
Momentan hat man halt das Gefühl, man bezahlt viel Geld für Ray Tracing, hat aber noch nichts davon.
Metro Exodus und Control sind mit und ohne Raytracing deutlich und sichtbar unterschiedlich, der Immersionsgewinn von Raytracing in diesen Spielen ist spürbar und trägt sehr viel zur Atmosphäre bei.
Auch wenn es kein "echtes" und "volles" Hardware RT ist (wie soll das derzeit technisch und bezahlbar auf Konsumer GPUs auch funktionieren bitte), so ist das Potenzial offensichtlich.

Metro Exodus z.B. ist mit RTX off ein akuter Immersionsverlust, alleine schon die Schleich- und Undergroudphasen, ohne etwas zu spoilern.

Wer es nicht nicht erlebt hat, kann das evtl auch nicht verstehen.

AMD hinkt hier knapp 1,5 Jahre hinterher, und Nvidia wird RTX schon in zweiter Iteration als nächstes auf den Markt bringen. Das wird spannend.
 
  • Gefällt mir
Reaktionen: CrustiCroc, USB-Kabeljau und Averomoe
@Laphonso
Es wird einem halt einfach auch von allen Seiten eingeredet, dass es nix bringen würde.
Da frage ich- Welcher Grafikeffekt bringt denn groß was?

Klar- Derzeit ist die Softwareauswahl beschränkt. Wer mit den Spielen wie Metro, Battlefield, Control, Tomb Raider &co nix anfangen kann, dem bleiben wirklich nur die 30-40 (inzwischen auch mal 50-60%) Leistungssteigerung bei rein rasterbasierten Spielen.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, USB-Kabeljau und Laphonso
ZeroZerp schrieb:
Doch- Auch die AMD Hardware ist proprietär und auf deren RT- Technik sogar ein Patent angemeldet, womit es nicht öffentlich nutzbar ist.


AMD wird so sicher wie das Amen in der Kirche wie bei jeder Grafikkartengeneration mit einer proprietären Lösung heranrollen, wie sie jeder Grafikkartenhersteller pflegt.

Wichtig ist nur, dass sie die offenen Schnittstellen der Hersteller unterstützen und an DX und Vulkan kommt da ja keiner vorbei.

LG
Zero
Die Umsetzung der Verwendung von APIs ist mir doch völlig Wurst, das macht für die Spieleentwickler keinen Unterschied solange die diese einfach nutzen können. Hässlich wird's wenn sie individuelle Features die nur bei Nvidia nutzbar sind anfangen zu implementieren und mit solchen Sachen hat sich AMD sehr viel weniger breit gemacht.
 
  • Gefällt mir
Reaktionen: Smartbomb und iNFECTED_pHILZ
Zurück
Oben