Kannst du das näher ausführen?Gonzo28 schrieb:Nur wenn es ein gutes Equivalent gibt. Gsync hat noch Vorteile gegenüber Freesync.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an
- Ersteller Wolfgang
- Erstellt am
- Zum Bericht: RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an
DanyelK
Lt. Junior Grade
- Registriert
- Jan. 2018
- Beiträge
- 426
Mcr-King schrieb:Mag sein aber es gibt auch Leute die sie länger nutzen wollen oder möchten wie ich ca 5 jahre.
Deswegen eine RX6700er mit 12GB wäre echt nice.
Aber jetzt erst mal CPU R5 5600x und PCIe SSD. 😉
Es ging ja auch mehr darum, dass manche nach der Ankündigung der AMD Karten so tun als wären die NVIDIA Karten nun der größte Scheiss. Sind sie aber nicht. Die liefern immer noch die Leistung ab und werden höchstwahrscheinlich in Sachen RT und DLSS besser dastehen. Wenn einem VRAM und Rasterizerleistung wichtiger ist, dann ist es ja jedem unbenommen ne AMD Karte zu holen. Für die meisten Käufer ab der 3080 ist aber eh regelmäßiges aufrüsten angesagt, vor allem da man dank dem Konkurrenzkampf der endlich wieder real stattfindet auch in den nächsten Jahren große Sprünge erwarten darf. Die NVIDIA Karten wären halt mit mehr Speicher auch die absoluten Gewinner, so muss man halt für sich selbst abwägen was einem wichtiger, VRAM oder RT, ist und entsprechend kaufen.
Matthias80
Commodore
- Registriert
- Sep. 2004
- Beiträge
- 4.414
Igor wird bestimmt wieder genau prüfen wie es bei AMD mit Spitzen ausschaut...Sgt.Seg schrieb:Vega56 raus, 6800XT rein, hoffen, dass das 650W Netzteil reicht :-)
Wenn AMD das "Problem" gar nicht hat.
Sieht es an der Netzteilfront vielleicht gar nicht so schlecht aus.
MfG
Dittsche
Lt. Commander
- Registriert
- Feb. 2011
- Beiträge
- 1.306
Che-Tah schrieb:...
Damit man gleichzeitig sagen kann ohne Rage Mode sind wir bei Watt/Performance super und das Powerlimit niedriger... und bei den FPS aktivieren wir ihn und sind da weiter vorne?
Sehe den Sinn dahinter noch nicht wirklich.
...
korrekt. und das ist marketingtechnisch auch genau richtig. die normale performance bei geringem verbrauch anpreisen und dann optional Rage Mode, denn beim letzten Leistungsquäntchen interessiert niemanden der Verbrauch. das hat die Vergangenheit inklusive der jüngsten (ampere release) gezeigt.
O
Onkel Föhn
Gast
Also sie liegt ÜBER der RT Leistung einer 2080 Ti, jene welche 1259 € gekostet hat zu Release (Custom´s noch mehr).KlaraElfer schrieb:Dass AMD nichts bei RT reißt, ist überdeutlich, aber für viele ist das nicht sooo wichtig.
NICHTS "reißen" ist da schon eher eine perfide Aussage Deiner seits ...
MfG Föhn.
BlackRain85
Ensign
- Registriert
- Dez. 2019
- Beiträge
- 166
Onkel Föhn schrieb:Also sie liegt ÜBER der RT Leistung einer 2080 Ti, jene welche 1259 € gekostet hat zu Release (Custom´s noch mehr).
NICHTS "reißen" ist da schon eher eine perfide Aussage Deiner seits ...
MfG Föhn.
Hier schreien grad einige, dass wohl die RTX Leistung von den 6800ern nicht genug sei.
Also, wenn ich mir nun diese Tabelle ansehe (bitte Anhang öffnen)
Dann frage ich mich, ob die Massenrelevante Karte von Nvidia (3070) in dieser Disziplin überhaupt schneller sein wird als die RX6800 ????!!!! Für mich sieht das grad nicht danach aus.
So wie ich das sehe, wird sich die 3070 irgendwo zwischen 350 - 400 FPS einpendeln.
Und die 6800er (ohne XT) mit ihren 60CU´s die auch gleichzeitig RT Cores sind mit dem etwas geringerem Takt (-15% CU`s und - 10% Takt) kommt sie auch auf 350 FPS - 400 FPS.
Ich frage mich langsam wirklich, was das ganze RT gequarke soll. Im Massenrelevanten Markt werden sich die beiden nichts geben. Die Top Karten von AMD werden wohl dann den kürzen in RT ziehen. Ich frag mich aber grad ob die RT Leistung einer 2080TI im augenblick nicht genug ist ? Bzw. gibt es denn "überhaupt" eine Karte, die kommende Games mit Ulra Setting etc. etc. und RT ON über 60fps darstellen können? Keine ahnung, da bin ich nicht Gamer genug. Soll jemand bitte gerne mal hier einspringen.
Anhänge
Zuletzt bearbeitet:
(Zitat und Korrektur)
Unnu schrieb:Dazu kommt, dass PC-Gaming hauptsächlich in Spielen stattfindet, die mit sehr vielen FPS und wenig EyeCandy kompetitiv & online gespielt werden. TripleA ist auf PCs, verglichen mit Konsolen, eher wenig.
Wie kommst du zu dieser Annahme?
Ich behaupte nämlich genau das Gegenteil
Blah blah blah....xexex schrieb:Und was habe ich davon? Dort werden zig Konfigurationen mit aktuell noch nicht für den Endkunden erhältlichen CPUs und diversen Treiberversionen genannt, mit denen die Tests durchgeführt wurden
Erst willst du dass Webseiten die selbe Szene testen soll wegen vergleichbarkeit, worauf ich dir darlege dass unterschiedliche Szenen auch unterschiedliche Ergebnisse im selben Game liefern können, wo mal die eine Karte besser skaliert als die andere und umgekehrt. Also wer entscheidet welche Szene getestet wird? Der Jensen oder die Lisa vielleicht ? Je nachdem was die GeForce bzw. die Radeon lieber hätte ?
Dann sagst du man weis nicht welche Testkonfiguration AMD verwendet hat worauf ich dir die Folien verlinke, und wieder ists nicht recht.
Unterschiedliche Redaktionen verwenden auch unterschiedliche Systeme um ihre Kartentests zu fahren, und betreiben RAM dann auch noch ausserhalb der Spezifikation des CPU Herstellers mit unterschiedlichem Takt (weil wegen Chancengleichheit usw.... nur weil ein paar "Auserwählte" hier glauben es betreibt ja niemand sein System mit Herstellervorgaben was für ein Mist, - entweder ich teste Stock oder ich lass es gleich bleiben bzw mach OC zusätzlich)
Aber da ists dann wohl kein Problem.
Nur weil Zen3 erst in einer Woche im Laden steht willst du da jetzt auch noch ein Fass aufnmachen....
Dann wart einfach bis die CPUs am 5.Nov und die Karten am 18. Nov in den Läden stehen bzw. das NDA fällt, anstatt hier mit irgendwelchen fadenscheinigen Argumenten immer wieder zu versuchen unbedingt Recht zu haben !
Ich bin damit raus hier, das führt zu nichts....
Zuletzt bearbeitet:
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.666
Sie meinen, dass die Verdoppelung sowohl Hoizontal, als auch vertikal trägt.DocWindows schrieb:Wieso ist 2x540p = 1080p und 2x 1080p dann 4K?
4K = 4x1080p oder wie oder was?
Eine von den beiden Angaben stimmt doch da nicht wenn es "2x in each dimension" ist.
Somit ja- 540P = 1080P
B
bam138
Gast
OZZHI schrieb:Man darf nicht vergessen, dass Nvidia nur eine Ti (12-20GB) davon entfernt ist den Hypetrain von AMD ins Straucheln zu bringen. Sie haben schon mal eine 700€ 1080 unter den Bus geworfen und eine Ti für den selben Preis released.
Obwohl ich selbst von diesem Lineup beeindruckt bin, weiss ich auch, dass eine grosse Mehrheit aus Prinzip lieber Nvidia kaufen würde.
Mit einem G-Sync Monitor gehöre ich da ehrlich gesagt auch zur Zielgruppe.
Werde dennoch meinen Bestellfinger bereit halten. Wenn es für mein System nicht ausreichen sollte, landet die Karte eben in der Verwandtschaft.![]()
Vllt. ist ja so eine AMD Grafikkarte drin und dazu der passende Monitor.Dann k
valin1984 schrieb:Ich finde ihn nicht zu hoch für das gebotene, hätte es aber besser gefunden, wenn sie ein etwas niedrigpreisigeres Produkt auf dem Preisniveau der 3070 oder darunter gebracht hätten. Mit 12 GB Grafikspeicher und etwas weniger Leistung hätten die die 3070 immer noch abgeledert und man hätte sich direkt auf dem Preisniveau etablieren können.
Einen tot muss man immer sterben.man wird es nie allen Recht machen können.
Vllt. kommt ja noch was schönes bei den kleineren Karten bei rum.
th3o
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 9.056
die 6800xt ist für mich kein guter preisleistungstipp gegen die 3080.
nur 50€ günstiger, dafür sehr wahrscheinlich schlechteres raytracing, kein oder schlechteres dlss und sehr wahrscheinlich im schnitt langsamer als die 3080 wenn man beide GPUs in das gleiche system steckt (nicht wie bei der präsentation die karte maximal overclocken und mit dem noch nicht verfügbaren besten Zen3 pairen.)
die 6900 für 1000€ betrifft das gleiche schicksal, aber immerhin ist sie ganze 500€ günstiger als die 3090 was sie zur interessantesten karte im lineup macht.
die 6800 ist zwar schneller als die 3070 aber dafür auch teuerer, da bleibts sich gleich wer da die nase vorn hat.
gerade bei raytracing und dlss schweigt sich amd aus. bei der performance kommen sie allgemein ran, aber überholen die 3080 respektive die 3090 nicht und sind mit ausnahme der 6900xt nicht unbedingt als günstiger zu bezeichnen wenn man rt und dlss im hinterkopf behält.
alles in allem: sehr gute präsentation, aber gehyped bin ich nicht. freue mich dass nvidia jetzt echte konkurrenz hat, allerdings sehe ich team grün was gesamtpaket angeht immernoch vorne.
nur 50€ günstiger, dafür sehr wahrscheinlich schlechteres raytracing, kein oder schlechteres dlss und sehr wahrscheinlich im schnitt langsamer als die 3080 wenn man beide GPUs in das gleiche system steckt (nicht wie bei der präsentation die karte maximal overclocken und mit dem noch nicht verfügbaren besten Zen3 pairen.)
die 6900 für 1000€ betrifft das gleiche schicksal, aber immerhin ist sie ganze 500€ günstiger als die 3090 was sie zur interessantesten karte im lineup macht.
die 6800 ist zwar schneller als die 3070 aber dafür auch teuerer, da bleibts sich gleich wer da die nase vorn hat.
gerade bei raytracing und dlss schweigt sich amd aus. bei der performance kommen sie allgemein ran, aber überholen die 3080 respektive die 3090 nicht und sind mit ausnahme der 6900xt nicht unbedingt als günstiger zu bezeichnen wenn man rt und dlss im hinterkopf behält.
alles in allem: sehr gute präsentation, aber gehyped bin ich nicht. freue mich dass nvidia jetzt echte konkurrenz hat, allerdings sehe ich team grün was gesamtpaket angeht immernoch vorne.
TempeltonPeck
Lt. Commander
- Registriert
- Juni 2007
- Beiträge
- 1.349
Hektor26 schrieb:ich kann irgendwie nicht glauben das AMD schneller sein soll will nicht in meinen Kopf, ganz entspannt auf unabhänige Tests warten da wird sich zeigen was sache ist nicht vorher
Es spricht zwar für dich das du auf unabhängige Tests wartest aber solche Kommentare und Verbohrtheit will mir nicht in den Kopf. Nachdem Motto Intel macht immer die besten CPUs und nur der FCB ...
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.405
Gonzo28 schrieb:Nur wenn es ein gutes Equivalent gibt. Gsync hat noch Vorteile gegenüber Freesync.
Ja und nein HDR mut GSync gibt es fast nicht zu kaufen zum guten Preis da ist Freesync schon besser und HDR ist klasse. 😉
Zu sagen "es gibt nur wenige DLSS-Titel" und deshalb das Feature schlechtzureden, wenn auch klar ist, dass viele Titel kommen werden ist einfach nicht richtig. Dass AMD etwas bringen wird, kann als gesichert gelten, sie werden es müssen. Wir gut das sein wird und wann es kommen wird ist reine Spekulation. Man muss DLSS2.0 Titel mti DLSS 2.0 gegen AMD ohne DLSS2.0 benchmarken, Stand heute.
Ich bin gespannt.
Ich bin gespannt.
Da habe ich noch einen. Was macht denn NV. Marketingtechnisch Fanatsiepreise aufrufen, die du aber im Markt gar nicht bekommst... Gut bei der Konkurenz nun - vielleicht doch.Che-Tah schrieb:Damit man gleichzeitig sagen kann ohne Rage Mode sind wir bei Watt/Performance super und das Powerlimit niedriger... und bei den FPS aktivieren wir ihn und sind da weiter vorne?
Sehe den Sinn dahinter noch nicht wirklich.
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.666
Moment mal- Kam nicht gerade im Ampere- Thread das große Umweltgewissen vieler hier zum Vorschein?Monstranz schrieb:Alles unter 4K und schneller GPU 3070 und 6800 brauchen das nicht. DLSS ist momentan viel zu ueberbewertet auf PC.
DLSS kann einen großen Beitrag dazu leisten, Energie zu sparen, da die Aufbereitung durch die Tensor Cores deutlich weniger Schluckt, als die Berechnungen über den gesamten Shader- Apparat.
Synce ich also auf 60/120/144FPS, ist die Wahrscheinlichkeit, dass ich per DLSS die GPU in den Sweetspot kriege, deutlich höher.
HerrRossi
Fleet Admiral
- Registriert
- Apr. 2014
- Beiträge
- 13.110
Jau, der Fanboyflamewar tobt hin und herHagen_67 schrieb:Leute, was geht ab????? 1.764 Kommentare in nicht mal 24Std.
Capthowdy schrieb:Kannst du das näher ausführen?
Das Fenster HZ bei Gsync ist größer. So zumindest bei meinen Bildschirmen die von 1HZ bis 165HZ alles flackerfrei darstellen können, im Gegensatz zu meinem wesentlich neueren 240HZ Freesync-Bildschirm das nur von 60-240 HZ abdecken kann. Gsync -> Hardware. Freesync -> Software.
Ähnliche Themen
- Antworten
- 185
- Aufrufe
- 34.448
- Antworten
- 973
- Aufrufe
- 319.705
- Antworten
- 457
- Aufrufe
- 69.722
- Antworten
- 584
- Aufrufe
- 106.385
- Antworten
- 2.288
- Aufrufe
- 350.920