News Gigabyte GeForce RTX 3000: Vier Modelle zum Start der Ampere-Gaming-Lösungen

time-machine schrieb:
Die 3080 ist 70-90% schneller als ne 2080Ti und das ohne ampere optimierte treiber, in dem digital foundry Video.
Was RTX I/O noch rauskitzelt, werden wohl erste Tests zeigen.

Nvidia hat hier herausragend abgeliefert, sowohl Marketing als auch leistungstechnisch und zwingt AMD die Preise an Nvidia’s kampfreis-Strategie anzupassen bzw. diese bei ähnlicher Performance zu unterbieten.
Ich bin froh meine 2070 strix vor 2 Wochen noch für 350€ los geworden zu sein, in 2 Wochen bekommt man dafür ne 2080Ti.


Das ist keine ti
 
  • Gefällt mir
Reaktionen: squadric
Computerbase hat es ja erwähnt. Man braucht nicht zwangsläufig immer mehr Vram für höher aufgelöste Texturen, sondern kann mit PCIE4 SSDs arbeiten. Interessant ist es.
Somit reichen die 10gb vielleicht wirklich locker. Zumindest mit DLSS :)
 
Mking12 schrieb:

Du hast recht, im video wird die 3080 mit der 2080 verglichen.
Dennoch sehr erstaunliche 30tflops der 3080, die Konsolen haben 9-12tflops und ich hatte bei der 3080 auf 14tflops gehofft^^
 
Taxxor schrieb:
Wo erkennt man das bitte nicht?^^ Der Block der 3090 ist einfach nur etwas dicker als der der 3080
Weil ich im Auto war und den Livestream hauptsächlich gehört hatte (Pull/Push Lüfter).... und es hier auf den Fotos nach 3 ausgesehen hatte:

1598990997104.png
 
Laphonso schrieb:
???
Die next gen Konsolen sind nicht mal mehr auf Kniehöhe mit einer 3080 Ampere, von Augenhöhe reden wir gar nicht.

Alda PS5 SSD rasiert PC wech, die lädt 16K Texturen schneller als du dich drehen kannst in realtime.
Ergänzung ()

Nolag schrieb:
Das hat ja niemand behauptet. Ich kenne allerdings einige Leute, denen die Entwicklung der GPU Preise nicht gefallen hat und die bereit sind auf Konsole zu wechseln, weil 4k 60fps für viele einfach genug ist.

Konsole und 4K/60? haha, sind doch schon etliche Games mit 30 fps confirmed
 
time-machine schrieb:
Du hast recht, im video wird die 3080 mit der 2080 verglichen.
Dennoch sehr erstaunliche 30tflops der 3080, die Konsolen haben 9-12tflops und ich hatte bei der 3080 auf 14tflops gehofft^^

Das sind keine TFLOPS vs TFLOPS
Sondern "Shader-TFLOPS" vs TFLOPS.
Also irgend ein Marketing quatsch.

Fall doch nicht auf so billiges Marketing rein.
Wäre die Karte der Heilige Gral, so würden da echte Werte stehen und FPS statt nichts sagende Balken Diagrame mit (up to) bis zu werten.
 
  • Gefällt mir
Reaktionen: Incident und time-machine
So so shader terflops also. Ist mal was neues. Damit kann ich überhaupt nix anfangen. Und genau das wollen die ja, das man davon nix weiß. Weil man da ja sehr schön die Menschen beeindrucken kann. Dann fallen die drauf rein. Wenn sie dann am Ende merken oh ist ja garnicht so leistungsstark wie die person gedacht hatte, dann ist es schon zu spät. Das können sie ja auch nur machen weil AMD nicht wirklich ne Konkurrenz für Nvidia ist. Aber irgendwann wird AMD schon mal wieder ne echte Konkurrenz und schwupps sieht es dann wieder anders aus. Dann kann sich sowas Nvidia nicht mehr so einfach das dann sich leisten. Also heißt es halt nun abwarten.
 
"... eine RTX 3070 nennt Gigabyte heute schließlich noch gar nicht."

Das ist klar, man will ja erstmal die dicken Karten an den Mann bringen.
 
Was ist an Shader-TFLOPS nicht zu verstehen? Das ist die Leistung der CUDA-Cores (Shader-Cores). Wenn man nur Shader-Cores hat, weil man nur Rasterization und Compute in Hardware unterstützt, dann muss man die Shaderleistung auch nicht explizit angeben, weil es nur diesen einen Wert gibt. Seit RTX gibt es aber noch zusätzlich die RT und Tensor Cores.
 
Nolag schrieb:
Was ist an Shader-TFLOPS nicht zu verstehen? Das ist die Leistung der CUDA-Cores (Shader-Cores). Wenn man nur Shader-Cores hat, weil man nur Rasterization und Compute in Hardware unterstützt, dann muss man die Shaderleistung auch nicht explizit angeben, weil es nur diesen einen Wert gibt. Seit RTX gibt es aber noch zusätzlich die RT und Tensor Cores.

Nur dass dir die zusätzlichen 10-15 TFLOPS der Tensor und RT Cores in 99.99999% der Spiele die sich aktuell auf dem Markt befinden genau NULL bringen.

Wenn du dich vom Marketing Geschwätz wie bis zu 1.9x schneller beeindrucken lässt ist das ok für mich.
Für mich zählen nur harte Fakten, wie FPS und keine nichtssagende Balken Diagramme mit bis zu angaben.

Am am 17.09 werden wir die wahre Power der 3080 sehen.
 
monstar-x schrieb:
Wenn du dich vom Marketing Geschwätz wie bis zu 1.9x schneller beeindrucken lässt ist das ok für mich.
Für mich zählen nur harte Fakten, wie FPS und keine nichtssagende Balken Diagramme mit bis zu angaben.
Shader-TFLOPS ist kein Marketing-Begriff, sondern einfach eine Präzisierung. Die Leistung der Unified-Shader wurde laut Nvidia mehr als verdoppelt. Aus der Vergangenheit wissen wird, dass diese Rohleistung natürlich in den meisten Szenarien nicht vollständig in fps umgesetzt werden kann, da die Zeit für das Darstellen eines Frames nicht zu 100% durch die Shaderleistung bestimmt ist. Digital Foundry hat ja bereits bestätigt wohin die Reise geht. Faktor 1.6-1.8 sind ohne RT in der Praxis mit PCIe 3.0 zu erwarten. Um das zu erreichen ist deutlich mehr als die 1.6-1.8 fache Shaderleistung nötig, womit die Angabe der Shader-Rohleistung realistisch erscheint.
 
Zuletzt bearbeitet:
monstar-x schrieb:
Nur dass dir die zusätzlichen 10-15 TFLOPS der Tensor und RT Cores in 99.99999% der Spiele die sich aktuell auf dem Markt befinden genau NULL bringen.

Wenn du dich vom Marketing Geschwätz wie bis zu 1.9x schneller beeindrucken lässt ist das ok für mich.
Für mich zählen nur harte Fakten, wie FPS und keine nichtssagende Balken Diagramme mit bis zu angaben.

Am am 17.09 werden wir die wahre Power der 3080 sehen.
Digital Foundry Video nicht gesehen?
 
  • Gefällt mir
Reaktionen: domian
Nolag schrieb:
Was ist an Shader-TFLOPS nicht zu verstehen? Das ist die Leistung der CUDA-Cores (Shader-Cores). Wenn man nur Shader-Cores hat, weil man nur Rasterization und Compute in Hardware unterstützt, dann muss man die Shaderleistung auch nicht explizit angeben, weil es nur diesen einen Wert gibt. Seit RTX gibt es aber noch zusätzlich die RT und Tensor Cores.
Achso verstehe. Na dann würde z. B bei einem dx9 game quasi 2/3 der rohleistung brach liegen weil kein Computer, tensor core noch raytracing genutzt wird. Zudem erwende ich noch Windows 7 und darum auch kein dx12. Damit würde am ende also nur sehr wenig von der gpu genutzt. Dann bliebe mir wohl nur noch die rasterisation übrig. Aber da ich ja eh schon mehr als genug fps bei der Gtx 1060 habe, macht es ja aus dem Standpunkt bei mir ja null Sinn auf ne highend gpu zu setzen. Darum bin ja ich somit auch nicht die Zielgruppe dafür.
 
snickii schrieb:

Ich vemisse dich im Fußball-Stammtisch. :D :heul:

Aorus hat auf seiner Facebook-Seite Bilder von den Karten gepostet. Da hatte ich echt den Eindruck, dass die 4 (!!!) Slots belegt. Selbst wenn nicht, erwarte ich, dass der Kühler besser ist als der alte mit den überlappenden Lüftern. Den habe ich verhältnismäßig schlecht in der Erinnerung von Tests.

Die Seiten von Aorus, Nvidia, MSI, Asus etc. hat man nur wegen den Gewinnspielen bei den "Likes" drin oder diverse Hardware-Testseiten. (Für mehr als nur Gewinnspiele hat man ja die Foren von Computerbase und Hardwareluxx.) Wenn die Teilnahmebedingungen für einem annehmbar für einen sind, dann ab dafür. :D Mit Werbung auf der Newsfeed-Seite wird man doch so oder so zugeballert. Jeden Tag kann ich mir käuflich erwerbbare Immobilien aus Alanya ansehen.
 
Ich lasse doch lieber die Finger von der 3080 und gönne mir die 3070. In WQHD ist das für mich die "Vernunftslösung". Wenn man bei solchen Preisen überhaupt von vernünftig reden kann.
 
Zurück
Oben