Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Eig ist mir 659 Euro schon zuviel,aber 1000 Euro für ne Karte?!

Mein ganzer Rechner hat 1500 euro gekostet :D

Die 6800XT wird definitiv für 1440p gut reichen und dann werde ich den Rechner auch Minimum 2 jahre nicht aufrüsten.
 
  • Gefällt mir
Reaktionen: Mcr-King
Benni82 schrieb:
Eig ist mir 659 Euro schon zuviel,aber 1000 Euro für ne Karte?!

Mein ganzer Rechner hat 1500 euro gekostet :D

Die 6800XT wird definitiv für 1440p gut reichen und dann werde ich den Rechner auch Minimum 2 jahre nicht aufrüsten.
Manchmal ist weniger mehr!
Wenn du damit glücklich bist, freut mich das, dann mache das so!

Eine gebrauchte Karte zu kaufen ist momentan, auch eher sinnlos, zu den Mkndoreisen die die noch haben wollen zB, für eine gebrauchte RTX 2080TI.
 
  • Gefällt mir
Reaktionen: Mcr-King, Dittsche und Benni82
Uff die rx 6800xt in meinem dark base 700 würde vertikal echt geil aussehen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Benni82 schrieb:
Meint ihr die 6800 reicht für 1440p und dauerhaft 144fps in jedem Spiel mit max Details?
Das kann die garkeiner sagen.........nicht mal bei der 6900xt oder einer rtx3090....kommt immer aufs Game an Einstellungen.........und dauerhaft schon garnicht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Das corsair RM650 Gold Plus sollte für die 6800XT reichen oder ?
 
Benni82 schrieb:
Das corsair RM650 Gold Plus sollte für die 6800XT reichen oder ?
Es werden zwar 750W empfohlen, aber wie immer werden damit Billig Netzteile und gleichzeitig Stromschluckende CPUs abgedeckt, da werden mal locker 150-200W für die CPU mit einberechnet, die du mit deinem 3700X nie erreichen wirst^^

Es wird wie bei der 3080 auch sein und man wird mit ca 400-450W für die Karte kalkulieren können um alle Spitzen abzudecken, für den 3700X kann man dann auch mal grob 100W inkl eventueller Spitzen rechnen, dann hast du alle Worst Case Szenarien abgedeckt und immer noch 100-150W frei für den Rest.
Zumal diese Netzteile auch kurze 750W Spitzen mitmachen.
 
  • Gefällt mir
Reaktionen: elvis2k1, Mcr-King und Benni82
nekro1 schrieb:
Das war bezogen um die Einahme der GPU Spalte. Ganz besonders durch Mining.
Stimmt, da ist natürlich was dran. Hat sicher gut geholfen.
 
  • Gefällt mir
Reaktionen: nekro1
Dann sollte das mit meinem Netzteil ja passen.Ist ja auch kein Billig Chinaböller
 
..bin dann mal gespannt auf die geupdateten Preis zu Performance Diagramme beim Test.

2020-10-31_15h01_20.png
 
  • Gefällt mir
Reaktionen: M3930 und Otsy
Taxxor schrieb:
... und gleichzeitig Stromschluckende CPUs abgedeckt, ...

Genau aus diesem Grund kam ein i9 10900K nicht in Frage!! ;)

Ich werde mir eine "Sapphire Nitro+ RX 6800 XT" (so vermutlich die Bezeichnung) anschauen. Schon die Sapphire RX 5700 XT Nitro+ war eine tolle Karte und mit der Kühlung, so schreibt es Igor auch, kann Sapphire so schnell keiner was vor machen:

Zitat: "Eines muss man Sapphire ja wirklich zugestehen: in Sachen Kühlung macht ihnen kaum einer was vor, wenn es um AMD-Karten geht."

Quelle: https://www.igorslab.de/sapphire-rx...-mit-weniger-gewicht-sprintet-es-sich-besser/
 
Dieses mal wird es bei mir auch eine Sapphire Nitro,meine 5700XT Mech OC ist einfach echt laut.

Die 6800XT kann kommen.Am 15.11 gibts Weihnachtsgeld,passt.
 
Teralios schrieb:
Ähm, und der INT-Workflow liegt bei AMD dann magischerweise nicht an, sonder AMD muss nur FP berechnen.
Ich denke, Das führt hier zu weit. Wurde eigentlich bei Ampere vs. Turing genügend erläutert, wie T gleichzeitig INT+FP32 ausführt.
Es ist viel einfacher nur das Endergebnis anzuschauen, wo ne 3070 nur auf ca. Ti-Niveau rauskommt.(Fps)
(6800 wohl mind. ähnlich; auch wenns nur indirekt vs Ti ist)

Aber nochmal für Dich alle theor. FP32 auf einen Blick, da sieht man die gewaltigen Unterschiede in der Arch.:
 

Anhänge

  • TPU_Database.png
    TPU_Database.png
    183,8 KB · Aufrufe: 325
  • RX6800@1440p.png
    RX6800@1440p.png
    416,2 KB · Aufrufe: 321
@GerryB
Danke dafür, dass du mir eine Datei verlinkst, NICHT! Den Sachverhalt, denn du mir mit deinem »Bild« erläutern willst, kenne ich und ich habe dir für diesen Sachverhalt sogar mir noch die Mühe gemacht und dir die Erklärung geliefert! Dieses Bild ändert daher nichts daran, dass deine ursprüngliche Aussage - und man verzeihe mir nun die direkte Wortwahl, aber man wird es mir nun nach diesem Beitrag von dir auch zu gestehen - einfach nur unfundiert und damit falsch ist.

Da mir die Zeit nun auch zu Schade ist und ich weiß, dass eine erneute Erklärung nur Perlen vor die Säue ist, mache ich es mir einfach und geh schlafen.
 
  • Gefällt mir
Reaktionen: Taxxor, M3930, foo_1337 und eine weitere Person
...
Aber dass die 3080Ti den GA102 "knapp als Vollausbau" bekommt, ist unwahrscheinlich, immerhin hat die 3090 ja schon nicht den Vollausbau, wenn sie dann noch 20GB hat, wie soll man sie dann bepreisen?
...
[/QUOTE]

Die 2060S war fast auf 2070 Niveau, hatte im Vergleich zur 2060 2GB mehr und der Preis ist nur unwesentlich gestiegen. Sie war jedenfalls noch günstiger wie die normale 2070.
Da AMD nun deutlich stärker ist, wird NV reagieren, und wenn man sich bei first adopter unbeliebt macht...
Ergänzung ()

aappleaday schrieb:
...
Aber allein das eine DLSS Alternative erst etwas später kommt macht mich schon stutzig.
...

Vielleicht wollen sie keinen Blur-Filter á la DLSS 1 abliefern, oder die sind noch nicht so weit, weil NV in dem Bereich deutlich mehr Erfahrung hat
Ergänzung ()

elwu schrieb:
Vielversprechend, was AMD da abliefert. Leider nutzt mir das nichts, da mein Monitor zwar 165 Hz kann und mir die WQHD-Auflösung völlig reicht - das Ding aber nun mal G-Sync hat. An einer AMD-Karte nutzt das leider nix.

Da hast wohl aufs falsche Pferd gesetzt. Aber wer hätte schon gedacht dass AMD jemals aufholt? Ich jedenfalls nicht
Ergänzung ()

Dittsche schrieb:
arum hat sie dann keine professionellen treiber wie die titans? (die diese auch nur widerwillig nach amds vega frontier bekommen haben)...

Ein Freund von mir arbeitet im ML-Bereich und dank CUDA kommt für ihn nur eine RTX in Frage.
Er sagt dass je nach Anwendungsbereich 24GB hilfreich sein können.
Ich glaube ihm mehr als Tech-Youtuber, die sich nicht im jedem Bereich super auskennen können.
Hardware Unboxed hat meines Wissens noch keine Hardware im ML-Bereich gebencht
Ergänzung ()

foo_1337 schrieb:
Und genau deshalb gibt es dank DLSS , dass auch Kunden, die zB ne ne 3060 für 399(?) kaufen, in den genuss von RT kommen.

Dieses Jahr gibt es aber niemanden, der sich für Cyberpunk eine 3060 holt ;)
Ergänzung ()

Metallsonic schrieb:
Es kommt immer dafauf an, wenn dir weniger FPS ausreichen dann nimm die RX 6800, wenn du aber, die maximale Leistung haben willst mit AMD, tja dann nimm die RX 6900!...

Die Frage war ob 6800 oder 6800XT, und da ist die Antwort: ganz klar 6800XT für den geringen Aufpreis.
Wieso du hier mit der 6900XT kommst, verstehst wahrscheinlich nur du.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: elwu
Leute was denkt ihr über die Verfügbarkeit, ich denke 1 Tag Zeit hat man maximal bis alles leer ist , vll sogar länger :O
 
Gagapa schrieb:
Leute was denkt ihr über die Verfügbarkeit, ich denke 1 Tag Zeit hat man maximal bis alles leer ist , vll sogar länger :O
Amd ist nicht nvidia.
Gehe davon aus, dass im gegensatz zu nvidia wesentlich mehr auf lager ist und auch zu msrp.
 
  • Gefällt mir
Reaktionen: Gagapa
Wie wird der Inifnity Cache denn gesteuert ? Direkt von GPU und Treiber oder muß auch die Software, also Spiele dafür optimiert sein ? Weil es ja oft so war in der Vergangenheit das AMDs Radeons auf dem Papier toll waren und solche Features aber dann auch nur von den Spielen wirklich optimal genutzt werden konnten wenn drauf eingestellt und da das oft nicht der Fall war und dann diese Papiertigerfeatures in kalten Rauch verpufften.
 
Zuletzt bearbeitet:
Zurück
Oben