• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Systemanforderungen: Godfall will schon für 1080p Leistung sehen

y33H@ schrieb:
Du solltest schon richtig schauen die 1,66 TB/s gelten für 256 Bit plus (!) Infinity Cache ...
Sorry,
Ihr hättet ja auch die eff.Bandbreite=1,66 hinschreiben können, damit der Wert besser vs. konventionelle Grakas
für den Laien verständlich ist. Wenn Ihr nur die 1,1 hinschreibt schaltet bei vielen Lesern das Gehirn gar net ein,
und man denkt, man wäre mit Vram-OCen bei A genauso komfortabel unterwegs.
 
Die Leute vergessen auch, wir stehen ganz am Anfang der Generation und es kommen die neuen Konsolen und dementsprechend auch neue, bessere Titel, für die am Anfang schon nicht mal mehr der RAM der Karten reicht. NVidia wird also demnächst Karten mit mehr RAM bringen und alle Erstkäufer haben sich bewusst verarschen lassen.
 
  • Gefällt mir
Reaktionen: Sly123
GrinderFX schrieb:
NVidia wird also demnächst Karten mit mehr RAM bringen und alle Erstkäufer haben sich bewusst verarschen lassen.
Vllt. gehts schneller als gedacht:
https://www.techpowerup.com/274219/...-3080-ti-graphics-card-with-20-gb-gddr6x-vram
(da sind wohl inzwischen die 2GB-Module verfügbar)

Konsequenterweise wäre dann auch ne 3070@16GB fällig.
und
Man bräuchte net mehr über Game XYZ streiten.

btw.
Dann müsste Jensen die Gute ja schon ne Weile im Backofen haben und hat in seinen Reviewerguides tatsächlich
die Gamer und Shareholder veräppelt.
 
Zuletzt bearbeitet:
3080TI 20GB 98% specs der 3090. Nein aber AMD hat nichts und ein schlag in das Gesicht der 3090 Käufer den 4gb Vram sind irrelevant. Bin gespannt auf den Preis 999?
 
kopite sagt ... CU´s.
!!! edit: doch genausoviel wie bei der 3090 !!!
und
GDDR6X-Takt etwas niedriger als bei der 3090 und TDP bleibt bei 320W.(trotz mehr Vram+CU´s ggü. der 3080)
(entweder ist die GPU dann auch niedriger getaktet oder der Yield wird besser)

Wird interessant zu sehen, wie diese Ti in WQHD skaliert.
 
Zuletzt bearbeitet:
Jetzt noch paar gute Spiele, die auch die 12 Kerne eines 5900x richtig nutzen.
 
Trinoo schrieb:
warum auch Zeit und Geld für Optimierungen ausgeben?... unsauber den Kunden vor die Füße schmeißen und dann mit Patches versuchen den Karren ausm Dreck zu ziehen.

Grosse Texturen = Gross Speichermenge.
Unsauber von Nvidia beim Speicher zu geizen.
Ergänzung ()

leipziger1979 schrieb:
Und schon haben die Programmierer herausgefunden das man für simples UHD tatsächlich mind. 12GB VRAM braucht, mit weniger geht es in unserem Universum mit seinen Naturgesetzen nicht.

Gibt auch schon Software auserhalb von Games, die 16 GB benötigen.
Ich hätte gerne eine 16 GB Karte mit max. der Leistung einer GTX 1060
 
leipziger1979 schrieb:
Tja, diese beiden Sätze erklären auch warum.
Ich frage mich wie viele der Spieler überhaupt die Hardware (Monitor, GPU, etc.) zu Hause haben um diese "Show-Case-Einstellung" überhaupt zu spielen. Und wenn jemand nur 10 GB statt 12 GB hat... wie wirkt sich das aus? Aufploppende Texturen oder ein paar FPS weniger?
 
War doch abzusehen das gerade speziell für die neuen Konsolen optimierte Spiele extreme Anforderungen haben. Die Konsolen sind aktuell ziemlich stark und bieten einiges was auf dem PC noch nicht möglich ist (z.B. Direct Storage). Da Microsoft Xbox mittlerweile als ein Ökosystem behandelt, werden diese Features auch auf den PC kommen. Die Frage ist nur wann und was sie dann an Aufwand bedeuten. Neue Hardware wird dann wieder nötig. Die Frage ist dann auch wie gut solche Titel auf dem PC performen, solange die Features noch nicht da sind. Direct Storage bietet ja mehr Vorteile als nur schnellere Ladezeiten. Ich denke da wird sich den nächsten 2 Jahren einiges tun.
Ein Problem war ja schon immer, das die meisten Spiele für die Konsolen entwickelt werden und die Umsetzung für den PC oft nicht wirklich gut war. Selbst für die gleiche Bildqualität war ein deutlich teurerer PC (verglichen mit der Konsole) nötig um das Spiel entsprechend zu spielen. Aktuell bietet der PC auch kaum mehr Vorteile, Raytracing z.B. können nun auch die neuen Konsolen.
Trotzdem ich möchte keine Konsole. Ich habe meine Xbox One X damals vor allem wegen dem UHD-Laufwerk gekauft. Ich besitze gerade mal 2-3 Spiele dafür und habe das Ding seit einem Jahr nicht mehr eingeschaltet. Ich Spiele einfach viel lieber am PC mit MAUS + TASTATUR. RDR 2 hatte ich auf der Xbox gespielt... ich hatte echt meine Mühe zu beginn und es macht einfach nicht so Spass mit dem Gamepad... auch nicht nach einigen Stunden Eingewöhnung. Hatte mir das Spiel nochmals vor kurzem für den PC gekauft (sehr guter Deal). Das Spielt sich gleich sehr viel angenehmer. Die Xbox unterstützt ja Maus und Tastatur, aber die Spielehersteller müssen dies nicht zwangsweise. Würden Shooter-Spiele auf der Xbox auch die Tastatur wie am PC unterstützen, würde ich mir in Zukunft die Anschaffung einer neuen Xbox durchaus überlegen. Das Teil wandert dann auch ins Büro und man hätte Jahre Ruhe.
 
  • Gefällt mir
Reaktionen: GrinderFX
Überraschend? Nein. Neue Spiele die für eine neue Generation gebaut werden, werden halt so implementiert, dass sie die verfügbaren Ressourcen nutzen. Dann stellt man sich nen PC Port vor, wo man noch mehr Ressourcen hat und mehr grafisch möglich ist und schwups. Die minimal Speicher-Ausstattung des "affordable" High-End bei Nvidia ist nicht genug.
 
AAS schrieb:
Grosse Texturen = Gross Speichermenge.
Das ist doch Unsinn: 8 GB oder 10 GB sind für große Texturen doch völlig ausreichend. Die Frage ist wie viele man davon gleichzeitig im Speicher braucht. Wenn ein Spiel einen "Ultra Super Duper Show Case"-Modus hat, bei dem man mehr als 10 GB braucht, dann ist das von nVidia doch überhaupt nicht "unsauber". Als Anwender hat man die Wahl die Einstellung einfach ein wenig herunterzufahren, dann geht es sicher auch mit nur 10 GB.

Und davon abgesehen: AMD hat mit 12 GB "sauberer" gehandelt? Wenn dann das erste Spiel kommt, das 13 GB braucht, dann ist die Lösung von AMD auch "unsauber"? Das ist alles totaler Unsinn, es liegt an den Spiele-Entwicklern die Speichergrößen des Marktes zu kennen und die Spiele sauber darauf abzustimmen.

Es betrifft, wie ich oben schrieb, doch eh nur ein paar wenige Zocker: Wer spielt denn immer auf >= 4K bei maximalen Settings? Die meisten wollen oder können sich eine Hardware gar nicht kaufen, die das kann und wer das Geld dazu hat, der greift doch nicht zu lächerlichen 2 GB mehr Speicher... das übernächste "NextGen" Spiel wird diesen Fehler dann schneller offenbaren als die Preise der neuen GPUs steigen können.
 
  • Gefällt mir
Reaktionen: Ebu85 und tuccler
btw.
Mal was zum Unterschied 6800Ref. vs. Custom: .....Werksangaben
+27W = +9% Gameclock (und dann nochmal 20W drauf, hat man evtl. XT-Fps bei minimal weniger W)
(wobei UVen traditionell schon reicht, um den Mehrtakt zu schaffen, wenn man bei AMD im PL hängt)
 

Anhänge

  • 6800aib.png
    6800aib.png
    92,9 KB · Aufrufe: 270
Zuletzt bearbeitet:
DarkSoul schrieb:
Das ist doch Unsinn: 8 GB oder 10 GB sind für große Texturen doch völlig ausreichend. Die Frage ist wie viele man davon gleichzeitig im Speicher braucht. Wenn ein Spiel einen "Ultra Super Duper Show Case"-Modus hat, bei dem man mehr als 10 GB braucht, dann ist das von nVidia doch überhaupt nicht "unsauber". Als Anwender hat man die Wahl die Einstellung einfach ein wenig herunterzufahren, dann geht es sicher auch mit nur 10 GB.

Und davon abgesehen: AMD hat mit 12 GB "sauberer" gehandelt? Wenn dann das erste Spiel kommt, das 13 GB braucht, dann ist die Lösung von AMD auch "unsauber"? Das ist alles totaler Unsinn, es liegt an den Spiele-Entwicklern die Speichergrößen des Marktes zu kennen und die Spiele sauber darauf abzustimmen.

Es betrifft, wie ich oben schrieb, doch eh nur ein paar wenige Zocker: Wer spielt denn immer auf >= 4K bei maximalen Settings? Die meisten wollen oder können sich eine Hardware gar nicht kaufen, die das kann und wer das Geld dazu hat, der greift doch nicht zu lächerlichen 2 GB mehr Speicher... das übernächste "NextGen" Spiel wird diesen Fehler dann schneller offenbaren als die Preise der neuen GPUs steigen können.

Mich interessieren Spiele aber relativ wenig.
Ich würde es gerne für Rendering gebrauchen, ohne mir gleich eine Quadro für +2K holen zu müssen.
 
AAS schrieb:
Ich würde es gerne für Rendering gebrauchen, ohne mir gleich eine Quadro für +2K holen zu müssen.
Dann solltest Du Dich aber nicht über Karten beschweren, die primär für Spieledarstellung entwickelt wurden. Das wäre so also würde sich jemand eine günstige Mining-Karte kaufen und über fehlende Monitor-Anschlüsse beschweren.

Ich gehe doch stark davon aus, dass es mit 2 GB zu wenig Speicher dennoch möglich ist das zu rendern, es sollte dann halt länger dauern. Oder täusche ich mich da?
 
DarkSoul schrieb:
Dann solltest Du Dich aber nicht über Karten beschweren, die primär für Spieledarstellung entwickelt wurden. Das wäre so also würde sich jemand eine günstige Mining-Karte kaufen und über fehlende Monitor-Anschlüsse beschweren.

Ich gehe doch stark davon aus, dass es mit 2 GB zu wenig Speicher dennoch möglich ist das zu rendern, es sollte dann halt länger dauern. Oder täusche ich mich da?

Primär für Spieledarstellung, dass ich nicht lache.... Nicht jeder lebt in der CB-Bubble.
Ich wage zu behaupten, dass auf 80% der mittelklasse GPUs keine Spiele ausgeführt werden.


Und nein, meine Software bricht mit einer Fehlermeldung ab, zu wenig VRAM.
Ich müsste die Polygone reduzieren, was ich aber nicht kann für Studium,
also lasse ich es auf CPU rechnen, dann rechnet ein Bild halt 20h statt 1-2h,
das ist meine Lösung.
 
GerryB schrieb:
Sorry, Ihr hättet ja auch die eff.Bandbreite=1,66 hinschreiben können, damit der Wert besser vs. konventionelle Grakas für den Laien verständlich ist. Wenn Ihr nur die 1,1 hinschreibt schaltet bei vielen Lesern das Gehirn gar net ein, und man denkt, man wäre mit Vram-OCen bei A genauso komfortabel unterwegs.
Nö, denn die GDDR6-Bandbreite und die des Infinity Cache steht doch jeweils in der Tabelle. Und noch mal nö, mit 256 Bit und GDDR6 schaffst du auch mit OC niemals über 1 TByte/s.

2020-11-04_122658.png
 
GerryB schrieb:
das Getrickse 8k = hochskaliertes FHD

Ja, ist ja auch so. Ein guter Trick ist ja nichts schlechtes, es müssen nur alle Seiten einverstanden sein und dann ok. Ich würde auch nie die Technik um DLSS schlechtreden, allerdings möchte ich gerne Spiele nativ spielen und mittlerweile argumentieren viele ja auch "ohne DLSS kann GPU xy nix" (ist ja nicht speziell Anti-AMD, könnte ja auch eine Vorgänger-Gen NV sein), aber das geht doch an der Hardware und vor allem den Möglichkeiten vorbei. Wenn NV morgen eine "GT 3030" mit 2GB für unter 120€ bringt, die mit DLSS aktuelle AAA in FHD/High auf den Casual-Monitor zaubern kann - ja geil ey. Gerne auch dann Treiber/DLSS bedingt mit einer offenen genannten Obsoleszenz (z.B. *ab Herbst 2022 mit DLSS 3.2 mit neuen Spielen nicht mehr in vollem Umfang nutzbar).
Aber das wird nicht passieren, dafür ist die Technik mit der KI zu teuer, zuwenige Entwickler unterstützen das. Aber wohl zu teuer, um solchen Monsterkarten wie 3070 aufwärts zeitgemäßen RAM zu spendieren, und hier ist es eben so, da zahl ich soviel Geld, da will ich "echte" Auflösung und echten VRAM nutzen.
 
7hyrael schrieb:
Für gewöhnlich vergibt man etwas wenn jemand sich bemüht es vergessen zu machen indem er Reue zeigt, oder sich in Wiedergutmachung übt. Nvidia hat aber nie auch nur etwas in der Art versucht.
Tja, ob einem das gefällt oder nicht aber gewisse Firmen/Unternehmen können sich so etwas "leider" leisten und man muss sich selbst entscheiden ob man das mit seinem Geldbeutel in Zukunft abstrafen wird.
Da ich wie gesagt keinerlei Probleme mit der Karte damals hatte und alles zufriedenstellend zocken konnte, wars mir persönlich egal und setze weiterhin auf NV, aber andere dürfen das gerne anders sehen und bei AMD zuschlagen und gerade aktuell würde selbst ich wenn ich mir ne neue Graka zulegen müsste zu AMD wechseln, da einfach das bessere Angebot herrscht.
 
  • Gefällt mir
Reaktionen: 7hyrael
Ich denke dieses mal hat sich NVidia damit richtig wehgetan mit dem Versuch der Abzocke.
Das wird bei vielen echt negativ hängen bleiben. Alleine eine Marktanteilverschiebung von nur 10% kann richtig richtig teuer für sie werden.
 
AAS schrieb:
Primär für Spieledarstellung, dass ich nicht lache.... Nicht jeder lebt in der CB-Bubble.
Du lebst wohl selbst in so einer "Bubble", mein erster "Computer" war ein C64.

AAS schrieb:
Ich wage zu behaupten, dass auf 80% der mittelklasse GPUs keine Spiele ausgeführt werden.
Ja, die sind fürs Mining und das bringt es auch auf den Punkt: Mittelklasse und extrem viel Speicher sind überhaupt nicht vereinbar.

AAS schrieb:
Und nein, meine Software bricht mit einer Fehlermeldung ab, zu wenig VRAM.
Dann taugt die Software halt nichts oder Du kennst einen vorhanden Workaround nicht.

AAS schrieb:
Ich müsste die Polygone reduzieren, was ich aber nicht kann für Studium,
also lasse ich es auf CPU rechnen, dann rechnet ein Bild halt 20h statt 1-2h,
das ist meine Lösung.
Schon mal daran gedacht die CPU durch eine passendere zu ersetzen?
 
  • Gefällt mir
Reaktionen: foo_1337
Zurück
Oben