News GeForce RTX 4070 Ti: Colorful bestätigt Spezifikationen der einstigen RTX 4080

Dann ist davon auszugehen, das die 7900XT merklich schneller sein wird als die 4070Ti.
 
Von der Rohleistung müsste die 4070 Ti so schnell sein, wie eine 3090 Ti und die ist wiederum im Mittel so schnell wie die 7900 XT. Ich würde eher von einem Gleichstand ausgehen.
 
Apocalypse schrieb:
6600 und co lassen beleidigt Grüßen, dabei fanden alle PCIe 4.0 so sexy, nur nicht wenn die Grafikkarte das dann auch gerne hätte. ;-)
Ich bin selbst Besitzer einer RX 6600, weil das die günstigste Karte auf dem Markt ist, die kein Schrott (RX 6400/6500XT) oder für die Leistung viel zu teuer ist (RTX 3050 oder GTX 16xx).

Meine von dir zitierte Aussage war, dass die bezahlbare Einstiegs- und Mittelklasse verschwindet, und dazu stehe ich weiterhin angesichts der Tatsache, dass mit der RX 6600 der halbwegs sinnvolle Einstieg in den Grafikkartenmarkt mit einer Karte, die in Relation zum restlichen Portfolio doch schon sehr schwach ist, aktuell bei ca. 270€ beginnt.
 
Taurus104 schrieb:
Dann ist davon auszugehen, das die 7900XT merklich schneller sein wird als die 4070Ti.
Auch bei Raytracing?!?!
Das ist ja das Traurige. Deren Speed bewegt sich dort nur zwischen einer 3080 und einer 3090 ti.
Die 4070 ti hat nur 60 Kerne. Aber auch die 4080 mit nur 76 ca 10 Kerne weniger als eine 3090 ti hat, fliegt ihr trotzdem in den Tests mit 10 % Abstand davon. Also gut möglich, dass die verbesserten RT Cores auch die xt xtx wegfegen. Wenn ihr nicht vorher der Speicher bzw der Bus ausgeht. Wäre ja nicht das erste mal das man eine GPU mit den Speicher fast tot kastriert.

.
:
.
Dennoch ist es mehr als traurig, dass die Flaggschiffe von AMD nur auf Augenhöhe mit 2 Jahre alten GPUs sind und nicht mal diese schlagen können.
 
Zuletzt bearbeitet:
lynx007 schrieb:
Auch bei Raytracing?!?!
Das ist ja das Traurige.
Bei RT wahrscheinlich nicht. Das hatte ich tatsächlich aber auch nicht gemeint. Ich bezog mich persönlich auf die Rasterisierung.
Traurig finde ich da nichts. Die RT Leistung einer 3090 oder auch 3080 waren von 3 Monaten das Maß der Dinge und keiner hat sich beschwert und war zufrieden.
AMD ist hier nunmal erst in 2. Generation.
Davon ab, braucht bis auf die 4090 vielleicht, jede RTX für deutlich mehr als 60 FPS in 4k oder oft schon in WQHD Upscaling. Das relativiert für mich persönlich den nativen Vorteil, den es natürlich gibt.
Zudem kommt darauf an wieviel Wert man tatsächlich auf Raytracing legt.
Ich nur als Beispiel Spiele nur Online Multiplayer Shooter Titel in dem keiner RT tatsächlich nutzt und selbst wenn würde ich es nicht aktivieren weil RT in meinen Games. eher kontraproduktiv wäre. Fakt ist aber AMD konnte die RT Leistung um bis zu 56% steigern und mit RX7000 ist RT durchaus sinnvoll nutzbar und wenn es mal nicht reicht verwendet man wie bei den RTX Karten eben Upscaling.
 
  • Gefällt mir
Reaktionen: Real_S_Seagal
Taurus104 schrieb:
Die RT Leistung einer 3090 oder auch 3080 waren von 3 Monaten das Maß der Dinge und keiner hat sich beschwert und war zufrieden.
AMD ist hier nunmal erst in 2. Generation.
Die 3090 und 3080 sind schon seit 2 Jahren Maß der Dinge. Man konkurriert also mit eine 2 Jahre alten Technologie. Ich hätte mir schon zumindest wünscht, dass man sich bemüht aufzuholen. Dass man das nicht innerhalb von 2 Grafikgeneration schafft, in Ordnung. Aber das man praktisch gar nichts sieht, finde ich schon irgendwie schade, auch wenn nicht überrascht.
.
Und wozu 4k, wen ich praktisch Raytracing nicht nutzen kann. Die 4090 kann 4k und Raytracing, wen auch nur mit DLSS. AMD bietet das nicht. Das zeigen die Tests. AMD bietet weder 4k und RT im oberen Segment, und genauso wenig wird es QHD und RT im unteren Segment geben. Für jewden der kein RT braucht oder nur reinschnuppern möchte, schön. Aber niemand, der wirklich RT haben möchte, nimmt eine Karte, die von der Leistung 2 Jahre zurückhängt.
.
Selbst der 3080 geht bei aktuellen Titeln, die mit Pathtracing, also das volle RT Programm auffahren, die Puste, bzw. der Ram aus. Und das finde ich für eine nagelneue 1k GPU einfach schon traurig. nVidia ist der einzige Herstelle der den Raytracingzug anschiebt, während AMD bremmst. Deshalb kann nVidia auch unverschämte Preise verlangen und zugleich Marktanteile ausbauen. Und das ist für uns alle nicht gut.
.
.

Klar, hätten Sie mehr Chipfläche für RT hergeben, dann hätten Sie wiederum nicht mit der 4080 konkurieren können, bzw sie 200€ weniger anbieten können. Aber das der Punkt, AMD billiger zu sein, nicht den Zug anzuschieben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HierGibtsNichts
Wie gesagt rein technisch und rechnerisch sind 56% Mehrleistung nicht wenig innerhalb einer Generation.

Man kann 4k und RT doch nutzen genauso wie bei den Nvidia Karten mit Upscaling. Und ja, Dlss ist nochmal etwas besser aber nichts desto trotz gibt es bei AMD die Option ja auch.

Ich gebe dir natürlich recht wer hauptsächlich Singleplayer Titel spielt und immer volles RT nutzen will sollte zu einer RTX Karte greifen aber dann auch gleich zur 4090, denn hier wäre mir dann die Leistung der 4080 dann rein von der Tests her auch schon zu gering, wenn ich hier meinen Hauptfokus auf RT legen würde.
 
Die 7800 Xt(x) scheint schon deutlich mehr Schwierigkeiten zu haben über 60 FPS zu halten sobald auf 4k und RT gerendert wird. Die 4080 nicht, wenn auch mithilfe von DLSS. Und über die 4090 müssen wir gar nicht reden. Ganz andere Preis und da bewegen wir uns ja auch schon auf 8k zu!
.
nVidia ist unverschämt teuer, aber immerhin liefern Sie halt ein in sich rundes Produkt ab. 4k, 8k, DLSS RT. Während AMD, ja für den Preis wenig bietet. Entweder 4k ohne RT, und wen RT, dann kein 4k mit über 60 FPS....
.
Aber gut, vieleicht schaffen Sie es in 2 Jahren, Und bis dahin könnten wir ja noch auf brauchbare Treiber bei Intel hoffen.

 
Zuletzt bearbeitet:
Die ganze Umbenennung ist eine reine Ressourcenverschwendung. Die ganzen Verpackungen und die ganze Logistik... Sowas von sinnlos.
Nvidia hätte sich ihren Fauxpas einfach eingestehen sollen und aus ökologischen Gründen die Namensgebung gleichhalten sollen. Den Preis hätten sie natürlich auch so anpassen können.
Klar, bei den Verbräuchen ist das auch etwas heuchlerisch, aber das ist alter Wein in neuen Schläuchen.

Aber das ist einfach nur......
 
Ich weiss ja nicht, ich halte es mit der 4090 etwas anders als die meisten... denn eigentlich liegt die 4090 außerhalb der "range", ich halte es eher so, die 4080 bzw. AD103 als den "großen"* Chip zu betrachten und daran kann man die beiden gen´s vergleichen. Der AD102 erscheint mir entfernt entwickelt worden zu sein, nicht allein wegen der leistung, denn wenn man sich 102&103 vergleicht, ist das ja keine normale Abstufung, sondern schon extrem. Zumindest betrachte ich es so, denn selbst ein "Zwischending" wird wohl kaum wahrscheinlich, entweder eine 4080Ti mit 103er Vollausbau, was nur marginal mehr bedeuten würde, oder ein teildeaktivierter 102 (was dann mehr sinn machen würde, da man hier noch Spielraum in sachen Speicherinterface, Cache und VRAM hat...)

Generell interessant finde ich aber, dass (trotz aller Leistungssteigerungen) bei den kleineren Chips die Speicherinterfaces so stark limitiert wurden.... gibts dann bei möglichen 4050er nur noch 64bit? 😂

* der 102er ist der Mega-Chip verglichen dazu ;)
 
Zuletzt bearbeitet:
Der Chip der 4090 ist etwas kleiner als die 3090 und 3080.
Die 4080 hat ungefähr die Chipgröße der 3070.
 
@Kommando
Miniaturisierung war schon immer teuer^^ - in diesem Fall ist es das wegen Samsung zu TSMC sogar tatsächlich etwas teurer.

Die Sache mit der RTX 4080 12GB wird aber tatsächlich für immer eine peinliche Nummer bleiben.
 
Was ist teurer? Den Chip, der nur einen Bruchteil des Preises ausmacht, von der Größe her zu halbieren?
 
Der Chip an sich ist kleiner und trotzdem paar $ teurer - dass der Chip nur einen Bruchteil der Kosten der gesamten GPU verschlingt ist eine andere Sache.
Sowohl Nvidia, wie auch die Boardpartner verdienen sich eine goldene Nase - versuchen es zumindest da die Berge an 3XXX GPUs auch noch da sind...
 
Zurück
Oben