News GeForce RTX 3080: Benchmark nennt Taktraten und 10 GB Grafikspeicher

Also ich hätte gerne einfach nur die Leistungssteigerung wie damals als die 8800 GTX raus kam.
Schmale 41.5 % schneller waren es damals.
 
  • Gefällt mir
Reaktionen: fox40phil und Fernando Vidal
Zock schrieb:
Also ich hätte gerne einfach nur die Leistungssteigerung wie damals als die 8800 GTX raus kam.
Schmale 41.5 % schneller waren es damals.

Im Schnitt ist eine 2080Ti auch mittlerweile etwa 40% schneller, als eine 1080Ti. In Ausnahmetiteln, die auf moderne Engines setzen, sind auch schon mal an die 60%.

Die Frage ist am ende ja auch, was kostet der Spaß mehr :)
 
  • Gefällt mir
Reaktionen: Schokolade, GERmaximus, Lübke82 und 2 andere
Nachdem ich ein paar Stunden lang erste Streams vom neuen MS Flight Simulator gesehen habe steht für mich fest dass diesen Spätherbst eine neue Grafikkarte ansteht. Was eine 2080ti da auf den Bildschirm gezaubert hat war schon schick anzusehen. Das bringt meine 1080 aber auf meinem UWQHD-Bildschirm definitiv nicht mehr in voller Pracht zum laufen.
Ob es am Ende AMD oder Nvidia wird muss man angesichts des herauskommenden Portfolios erst noch sehen, aber wenn Nvidia wirklich anfängt seinen Karten endlich mal mehr Speicher mitzugeben stellt das zusammen mit dem guten Speichermanagement und den leider immer wieder mal auftretenden Treiberproblemen bei AMD sicher einen Pluspunkt dar.

Die Hoffnung dass die Preise nicht jenseits von gut und böse sein werden darf man aber denke ich getrost aufgeben. Und auch den Stromlieferanten wird es freuen, bei Karten die 8-Pin-Stromversorgung in dreifacher Ausführung benötigen.
 
Shoryuken94 schrieb:
Die Frage ist am ende ja auch, was kostet der Spaß mehr :)

Eben, ich bin jedenfalls nicht bereit über 1000€ für eine Grafikkarte auszugeben.
 
  • Gefällt mir
Reaktionen: fox40phil und .Sentinel.
Ich schon :freaky: aber nur wenn sie nutzen bringt und haltbar ist.
 
  • Gefällt mir
Reaktionen: Celinna, TorgardGraufell, .Sentinel. und eine weitere Person
@v_ossi das ist korrekt, nur ist der AAA und/oder PC User nur ein kleiner Fleck am Horizont, wenn es ums zocken geht.
 
.Sentinel. schrieb:
Exakt- Aber in dem folgenden Text Deines Posts machst Du einen Fehler.
Und zwar tust Du so, als ob Du wüsstest, was für Preise auf einen zukommen würden.

Und da das aber der essenzielle Punkt Deiner Aufgrbrachtheit zu sein scheint, machst Du Dir hier selbst schlechte Gedanken aufgrund ungelegter Eier.

Als wenn du nicht wüsstest was für Eier NVIDIA legen wird. 🙄
Ich gebe dir mal einen kleinen Denkanstoß:

Was hat nochmals die Titan Xp gekostet? 1349.-
Und was kostet eine RTX2080Ti? 1259.-
https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2080-ti/
NVIDIA hat also die RTX2080Ti auf die Titan-Preise der Vorgängergeneration gehievt.
Was kostet eigentlich Heute die Titan RTX?
https://www.nvidia.com/de-de/deep-learning-ai/products/titan-rtx/

Meinst du etwa NVIDIA wird jetzt spott günstig und rudert nun zurück? Was glaubst du warum sie unbedingt vor AMD ihre Karten verkaufen wollen?

Sorry, aber für Naivität bin ich schon zu alt.

Ist es das wert? Was schreibst Du denn hier ins Forum wenn es nicht so kommt und die Preise nicht anziehen, oder im Gegenteil das Preisgefüge niedriger ansetzt, als man es sich vorgestellt hat?

Und? Dann habe ich mich eben geirrt. Geht da nun die Welt unter? Aber das wird nicht passieren.

Lobst Du dann die Firma? Gibt es ein Heads Up- Ihr seid auf dem richtigen Weg?
Verurteilt ist immer schnell. Revidieren seiner Angriffe und Lob sind dagegen selten geworden.

Warum sollte ich sie dann loben? 10GB bleiben trotzdem als Makel. Würde ich mir daher trotzdem nicht kaufen wollen.
 
Ich schon weil der Teufel auf meiner Linken Schulter immer wieder in mein Ohr flüstert.
"Kauf sie du könntest das Spiel in 4K Zocken" !!! :evillol:

Das geht dann jeden Tag so weiter bis ich das Ding gekauft habe und dann verstummt er ;)

Und von dem Vernunfts Engel auf der Rechten Schulter brauchen wir nicht sprechen der wünscht sich schon lange sein eigenes VR Headset ;)
 
  • Gefällt mir
Reaktionen: Lübke82 und TorgardGraufell
Shoryuken94 schrieb:
Ja und Nein. Die Storageleistung der Konsolen ist im Vergleich zu echtem Speicher nur eine Notlösung und so ohne weiteres am PC auch nicht umsetzbar, ohne extra Hardware für die Dekompression. Anders wird man damit einfachem PCIe 4x4 nicht weit kommen.
Deswegen schrieb ich ja auch, dass es wichtig ist, dass der Flaschenhals der PCs diesbezüglich ebenso geweitet wird.

Gleichzeitig wäre es eine Lösung, die nur langsam Verbreitung finden kann, da wieder neue hardware vorausgesetzt wird.
Ich bin ja der Meinung, dass sich da die Konsortien sowieso schon viel zu lange ausgeruht haben.
Spätestens seit M2 SSDs und Optane war eine Überarbeitung des I/O Systems mehr als überflällig. Da hat man einfach geschlafen.

Könnte auch in Form der Radeon Promodelle mit integrierter SSD geschehen, dann müsste man aber einen Standard für alle Hersteller finden. Per CPU ginge auch, aber hier rennt man mit den ganzen mainstream CPUs schnell ins Limit.
Exakt- Alles interessante Ansätze, auch gegen eine Dekoder- bzw. Kompressionseinheit auf der CPU. Spräche überall nichts dagegen. Wobei der Weg in Richtung weiterem Speicher Tier auf der GPU mit am zukunftsträchtigsten scheint.
Spart jede Menge Umwege.

Am PC ist mehr Speicher die mit Abstand einfachst und günstigste Lösung auf mittelfristiger Sicht.
RAM wäre aber im Vergleich zu einer kleinen Hochleitsungs- SSD z.B. auf optane- Basis dann doch wieder deutlich teurer und aufgrund der ganzen I/O verschränkungen von Massenspeicher Richtung GPU nicht so leistungsfähig.

Daher ist Speichergeiz umso ärerlicher. Beim PC könnte man über HBCC ähnliche Techniken aber auch den Hauptspeicher als erweiterten Storagepool und schnellen Puffer nutzen. Auch das wäre wohl für die meisten die günstigste Lösung und relativ günstig auch auf älteren Plattformen umsetzbar.
Dazu müsste wiederum das I/O System geändert werden. Auch der Speichertransfer setzt die CPUs ordentlich unter Feuer und das leider im Normalfall nicht multithreaded.

Problematisch sind da eigentlich nur Spiele, die nur für eine Plattform entworfen wurden, wie bei HZD. Diese sind um die Flaschenhälse der jeweiligen Plattform herum entwickelt und lassen sich nicht ohne riesen Aufwand so einfach portieren.
Das wollte ich ansprechen. Es ist für eine Plattform entworfen aber nicht ausschließlich auf einer Plattform. Würde man dort etwas mehr Weitsicht walten lassen, wäre der Weg zu einer gelungenen PC- Version deutlich kürzer.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Ko3nich schrieb:
Nach dem letzten Steam Survey spielen nach wie vor noch zwei Drittel in FullHD. Mit deinem Gaming Monitor bist du schon bei den oberen 3% angelangt.
Nach Steam hab ich im Schnitt auch nur 4 Kerne und 8 GB RAM. Zudem ist es zwei mal eine lustige IGP. Aussagekraft für den Hauptrechner null ...
 
  • Gefällt mir
Reaktionen: ChrisM, TorgardGraufell und PS828
Warum sollten sie die Leute mit VRAM zuschmeißen? Sie sind immer noch unangefochtener Marktführer. Auch Big Navi dürfte nicht vorbeiziehen können gegen die 3000er.

10GB halt ich für sehr realistisch.
 
  • Gefällt mir
Reaktionen: Lübke82 und PS828
Laut Steam Habe ich nur den Athlon 200 GE mit Vega 3.. ja Dort spiele ich auch bestimmte Spiele aber zu 80 % auf dem anderen System welches ich seit März habe und noch nie die Hardware erfasst wurde. Steam als Quelle ist denkbar ungeeignet.
 
  • Gefällt mir
Reaktionen: GERmaximus, bad_sign und Banned
Also wenn dann die 20 GB Variante! Dann hat man in der Hinsicht schonmal ausgesorgt für die nächsten 2-3 Jahre und muss keine Angst haben das man ins Vram Limit läuft.
-
 
  • Gefällt mir
Reaktionen: Lübke82
DarkerThanBlack schrieb:
Als wenn du nicht wüsstest was für Eier NVIDIA legen wird. 🙄
So ist es- Und es gibt derzeit nur einen kleinen Kreis an Personen, die das tatsächlich wissen.

Ich gebe dir mal einen kleinen Denkanstoß:
Dann schau einfach mal ein wenig weiter als die letzten Jahre in die Geschichte der Grafikbeschleuniger und Du wirst feststellen, dass eine Generation mit einem preislichen Ausschlag nach oben noch nie eine generelle Marschrichtung für die Zukunft festgelegt hat.

Meinst du etwa NVIDIA wird jetzt spott günstig und rudert nun zurück?
Ja- Es ist im Bereich des Möglichen dass die Preise sinken. Deswegen muss es aber noch nicht gleich spott günstig werden.

Was glaubst du warum sie unbedingt vor AMD ihre Karten verkaufen wollen?
Das hat meist die pragmatische Ursache, dass das Produkt fertig ist und in der Produktion liegt.

Sorry, aber für Naivität bin ich schon zu alt.
Gerade weil Du alt bist, solltest Du Dich aufgrund der langen Erfahrung nicht von den Untergangsszenarien anstecken lassen, nur weil eine Generation, die ja auch tatsächlich revolutionäre Schritte eingegleist hat, preislich nach oben ausschlägt.

Und? Dann habe ich mich eben geirrt. Geht da nun die Welt unter? Aber das wird nicht passieren.
Es geht mir darum, dass man mit Schimpfen und Vorverurteilen hier im Forum immer ganz fix ist, während man dann im Nachhinein, sollte man Unrecht haben dann nicht die größe besitzt, den Irrtum ebenso Öffentlichkeitswirksam und beharrlich in jedem Thread darzustellen :)

Warum sollte ich sie dann loben? 10GB bleiben trotzdem als Makel. Würde ich mir daher trotzdem nicht kaufen wollen.
Ich finde es doch sehr bezeichnend, dass nun eine Erhöhung der VRAM Ausstattungen, welche ja am Anfang noch mitleidig lächelnd von den "Kritikern" hier verneint wurde, nun wieder in den Schmutz zieht.
Jetzt gibt es zwar aller Wahrscheinlichkeit mehr VRAM, aber natürlich wieder nicht genug!

Wenn man mehr will, nimmt man einfach die 20 oder 24GB Variante, so einfach ist das.

Manche User sind hier einfach nicht zufriedenzustellen. Denen kann man bieten, was man will. Am Schluss stört man sich dran, dass die Grafikkarte keine Wäsche waschen kann.
Die User sind genau das, was sie den Herstellern vorwerfen. Unersättlich in ihrer Gier.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schokolade, GERmaximus, Lübke82 und 8 andere
Mehr VRAM will jeder gerne, Aufpreis zahlen kaum einer :D

20GB wäre bei der Karte imho komisch, weil damit die 2080Ti auf einen Schlag out
wäre in jeder Hinsicht und Nvidia kaum noch welche verkauft bekommt (falls noch
viele im Umlauf sind). 10GB macht da schon mehr Sinn, gesamtheitlich betrachtet.
Vielleicht ist die 20GB Variante eine niedriger getaktete, effizientere Profikarte 🤷‍♂️
 
  • Gefällt mir
Reaktionen: PS828
Ardenda schrieb:
Ich besitze aktuell eine 1070 und hätte lieber ein 3070 gehabt aber mit einer HP Reverb G2 und der 4k Auflösung pro Linse reicht das mir nimmer aus.
Na ganz so fordernd wird sie nicht sein: 2160x2160 pro Auge, also kombiniert 4320x2160
Das wären dann nur 12,5% mehr als "4K" (3840x2160), nicht 100% mehr als "4K".

Dennoch möchte man die 4320x2160 dann natürlich möglichst mit 90 fps bedienen (90-Hz-Display), und da dürfte es bei einer RTX 3070 schon knapp werden. Zudem sind hohe Texturauflösungen bei VR natürlich noch wichtiger als bei einem 4K-Monitor oder 4K-Fernseher, da man in VR oft deutlich näher an texturierte Objekte heran kommt.

Die Reverb-G2-Bestellung wird bei mir wohl auch der Auslöser sein, nach langer Zeit mal wieder im oberen Segment einzukaufen.

Normalerweise reicht mir das obere Mittelfeld (GTX 060er - 070er Karten oder leistungsähnliche Radeons) aus. Meine letzte Ausnahme war damals die GTX 580 wegen stereoskopischer Berechnung der 3D Vision, die die Anforderungen knapp verdoppelt hatte.
 
Zuletzt bearbeitet:
DonDonat schrieb:
Welche Karte hat AMD denn, die >1000€ kostet und 8GB besitzt?
Und selbst wenn es eine solche Karte geben würde, wenn der eine Mist macht, macht das den Mist des anderen nicht besser oder ;)?

Fakt ist, dass es hier um High-End geht und dass in High-End eben auch eine High-End Ausstattung gehört.
Beim Speicher dann aber auf Mittelfeld zu setzen, macht bei dem Preis-Schild und der allgemeinen Produkt-Ausrichtung dann etwa so viel Sinn wie bei einem theoretischen 8k OLED TV auf nur 300 Nit Maximal-Helligkeit zu setzen: ja, teile davon wären High-End aber insgesamt wäre das Paket trotzdem schlecht.
Habe ich doch nicht behauptet! Ich habe gesagt, was bringt es, wenn eine Karte wegen 20GB die 1000 Eur Grenze sprengt? Und dass sich NV an AMD orientieren wird und sie kaum eine 20GB Karte bringen werden, falls AMD nur 8GB bringt. Also wäre der logische Schluss, dass man erstmal eine "normale" Karte liefert und dann, abhängig von der Konkurrenz, eine "Super" nachliefert.

HighEnd hin oder her. in 99% der Fälle reichen selbst 8GB, 10GB erst recht. Das darüber ist nice to have, aber man muss bedenken, dass es auch ein fetter Preistreiber ist. Mir ist es lieber, man hat halbwegs bezahlbare Grakas mit kleinerem Speicher, als unbezahlbare Karten mit großem Speicher. Ich weiß jedenfalls, dass ich definitiv keine 1000 Eur oder gar mehr ausgeben werde (da kann die Karte noch so "highEnd" sein) - und ich weiß auch, auch wenn so mancher hier im Forum eine große Klappe hat, dass das für die weitüberwiegende Zahl der User gelten dürfte.
Nicht, weil ich es mir nicht leisten könnte, sondern weil ich es mir nicht leisten will. Da hole ich mir eher eine Konsole anstatt 3000 Eur in eine Daddelkiste zu stecken oder bleibe bei meiner 1080 GTX und meiner jetzigen Kiste, bis sie irgendwann den Geist aufgibt.

Und klar, kann man darauf hoffen, dass die 3080 20GB zum "Schnäppchenpreis" von 600 Eur kommt, indes glaube ich es nicht, solange ich es nicht sehe.
 
  • Gefällt mir
Reaktionen: fox40phil, xexex und Thorque
rlchampion schrieb:
Was du als "kleineren Aufpreis" empfindest, empfindet ein anderer schon als Unverschämtheit! Es gibt eben nicht DIE generelle Wahrheit sondern viele Nuancen davon.
DIE Wahrheit ist nun mal, das rein der 10GB GDDR6X (ohne zusätzliche Boardanpassungen) den Betrag X kostet und der Hersteller auch angemessen den Betrag X als Aufpreis verlangen kann, würde jeder Unternehmer ebenso machen. Das als Unverschämtheit zu titulieren ist keine Nuance der Wahrheit, sondern schlicht unsachlich. Aber warten wir mal ab was nVidia überhaupt released, danach werden die Grabenkämpfe wenigstens auf Fakten und nicht auf Vermutungen ausgefochten =)
 
  • Gefällt mir
Reaktionen: Lübke82 und Andybmf
@SFVogt Jetzt reden wir aneinander vorbei. DASS es einen Aufpreis geben wird, ist ja nicht das strittige. Und das für mehr Speicher mehr zu bezahlen ist, ist auch legitim.

Es geht doch lediglich darum wie HOCH dieser ausfallen darf und ob die Höhe angemessen ist. Diese Meinung liegt doch im ermessen jedes einzelnen...
 
Smartin schrieb:
HighEnd hin oder her. in 99% der Fälle reichen selbst 8GB, 10GB erst recht.

Dem ist halt einfach nicht so. Schon in 3440x1440 bei nicht Ultra Settings meiner 1080 Ti bekomme ich regelmäßige mehr als 8GB voll, bei manchen Titeln hab ich sogar schon mal ein klein wenig mehr als 10GB gesehen (ja, Kreativ-Spiele mit viel Zeug auf dem Schrim ala Space Engineers oder ARK sind nicht DAS MAß der Dinge wegen Optimierung und Art des Spiels aber beliebte Titel sind es alle male). Gibt ja auch mehr als genug Beispiele aktuell, wo es ähnlich aussieht, wieso also heute noch auf etwas setzen, dass in der Auflösung des High-End nicht ausreichend ist?

Denn wieder, es ist HIGH-END, sprich die Leute werden es mit High-End Auflösungen nutzen und mit Textur-Settings die eben nicht auf mini 640x480 Texturen setzen.

Auch kommen die Karten ja mit tollen Nvidia Features, die wieder mehr Speicher brauchen. Hier also mit dem Argument zu kommen "der Speicher richt für 99% der Fälle aus", wenn man die Fälle dabei aber auf niedrige Auflösungen, niedrige Einstellungen usw. eingrenzen muss ergibt einfach keinen Sinn.


Smartin schrieb:
Das darüber ist nice to have, aber man muss bedenken, dass es auch ein fetter Preistreiber ist. Mir ist es lieber, man hat halbwegs bezahlbare Grakas mit kleinerem Speicher, als unbezahlbare Karten mit großem Speicher. Ich weiß jedenfalls, dass ich definitiv keine 1000 Eur oder gar mehr ausgeben werde (da kann die Karte noch so "highEnd" sein)

"Bezahlbar" und 3080 (Ti) in einem Satz schließt sich aus (was man auch schon an der letzten Generation sehen konnte), weswegen es noch absurder ist, dass 10GB für ein High-End Produkt "ausreichend" sein sollen.
 
  • Gefällt mir
Reaktionen: bad_sign
Zurück
Oben