RX 6600 bedenken

B

BVBler09

Gast
1. Wie viel Geld bist du bereit auszugeben?

300 Euro

2. Möchtest du mit der Grafikkarte spielen?
  • Metro Exodus,God of War,Indie Games
  • Full HD reicht aus
  • Ultra und Hohe Einstellungen
  • 60 FPS sollten es schon
3. Möchtest du die Grafikkarte für spezielle Programme & Anwendungen (z.b. CAD) nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?

Nein

4. . Wieviele und welche Monitore möchtest du nutzen? Wird G-Sync/FreeSync unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)


PC ist am TV angeschlossen

5. Nenne uns bitte deine aktuelle/bisherige Hardware:

SilentiumPC Ventum VT4V TG mit Glasfenster AMD Ryzen 5 5500 (6x 3.6GHz / 4.2GHz Turbo)
be quiet! Pure Rock Slim 2 Gigabyte B450 GAMING X
L 16GB (2x8GB) DDR4 Kingston 3200MHz Fury Beast
500GB SAMSUNG 970-EVO PLUS M.2 PCIe 3.0 x4 NVME (L 3500MB/s ; S 3200MB/s) 600W be quiet! System Power 9
Gigabyte GTX 1050 Ti



6. Hast du besondere Wünsche bezüglich der Grafikkarte? (Lautstärke, Anschlüsse, Farbe, Hersteller, Beleuchtung etc.)

Nein

7. Wann möchtest du die Karte kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?

Am liebsten sofort könnte aber noch warten.


Hallo, an ich schwanke zwischen der RX 6600 und der RTX 3050.

Normalerweise sollte die in Entscheidung zu RX 6600 gehen. Nur habe ich das Problem, dass mein Board nur PCIE 3.0 unterstützt.

Zu dem Thema habe ich gelesen, dass dies FPS Einbußen verbunden ist mehr als mit einer RTX 3050.

Frage mich daher, wenn ich mit der RX 6600 mehr Einbußen habe auf PCIE 3.0.

Ob es denn nicht mehr Sinn ergibt, mit einer RTX 3050.

Auch habe ich gelesen, dass bei manchen die RX 6600 kein Bild ausgibt auf PCIE 3.0

16er-Slot.

Speziell geht es um die Sappire Pulse RX 6600

Würde mich freuen, wenn mich wer aufklären könnte
 
Ick glaube du verwechselt das mit der 6500xt, die 6600 ist um einiges schneller als die 3050 und PCI 3.0 ist fein, siehe Test hier auf Computerbase, kannst auch Mal auf techspot schauen, die haben 50 Games getestet, 6600 vs 3050

test techspot
 
  • Gefällt mir
Reaktionen: Asznee und Efaniel
Der Unterschied zwischen PCIe3.0 und 4.0 beträgt lt. Computerbase im Perzentil maximal 4 Prozent. In einem Spiel ausgedrückt 54,5 zu 55.8 FPS oder so. Absolut nicht zu merken.

Das die RX6600 auf einem Board mit nur PCIe3.0 kein Bild ausgibt habe ich bisher bei 3 verbauten Karten noch nicht gesehen.
Ich halte sie für die bessere Karte als die RTX3050. Das wird aber wohl mehr zur Glaubensfrage werden denke ich.
Kommen wieder welche die sagen ABER DLSS!!!!!1111einseinself
Fakt ist. DLSS auf 1080p ist sowieso sinnbefreit und die RX6600 bietet genug Dampf für native 1080p60 in so ziemlich allen Games
 
Bin auf dem Sprung, daher die Antwort rein aus dem lückenhaften Gedächtnis:

Die RTX3050 ist glaube ich ihrerseits beschnitten. Schau doch noch mal unterm Sofa, ob du etwas mehr Budget findest. Bspw. für eine (im Angebot) 350-370€ teure RTX3060 12GB.

Sowohl dein Ryzen 5500, als auch dein B450er Brett können jeweils "nur" pcie-3.0.
Die 3060 wäre voll angebunden und hat eine dicke Ram-Reserve.

BVBler09 schrieb:
Auch habe ich gelesen, dass bei manchen die RX 6600 kein Bild ausgibt auf PCIE 3.0
Davon gehe ich nicht aus. Wenngleich 3.0 bis zu Ivy Bridge zurück reicht. Dabei, falls es einen Konflikt gibt, könnte es sich dann eher um Eignung des BIOS von Mainboard und dem BIOS der Grafikkarte drehen.

Efaniel schrieb:
Der Unterschied zwischen PCIe3.0 und 4.0 beträgt lt. Computerbase im Perzentil maximal 4 Prozent.
Das ist eine Momentaufnahme. Keine Prognose.
Das Verhältnis kann sich jederzeit ändern.
 
BVBler09 schrieb:
Auch habe ich gelesen, dass bei manchen die RX 6600 kein Bild ausgibt auf PCIE 3.0
16er-Slot.
Speziell geht es um die Sappire Pulse RX 6600
In der Hinsicht kann ich dich beruhigen - zumindest aus meiner Erfahrung. Ich habe eine Sapphire RX 6600 Pulse und habe die bis vor kurzer Zeit auf einer 10 alten Intel Z77 Plattform (Intel i5-3450, MSI Z77A-G43) betrieben, die natürlich nur PCIe 3.0 kann. Die Karte lief auch problemlos bei mir. Ich kann mir nicht vorstellen, dass es bei einem B450 Board da irgendwie Probleme geben könnte. Wenn, dann eher bei deutlich älteren Plattformen, aber bei mir lief es wie gesagt.

Ansonsten ist die Sapphire Pulse mMn durchaus empfehlenswert. Die Zieltemperatur im BIOS ist mir 75°C vielleicht etwas höher als den meisten lieb ist, ist aber unproblematisch und im Gegenzug ist die Karte trotz des sehr kompakten Kühlers wirklich angenehm leise.
 
Efaniel schrieb:
Der Unterschied zwischen PCIe3.0 und 4.0 beträgt lt. Computerbase im Perzentil maximal 4 Prozent. In einem Spiel ausgedrückt 54,5 zu 55.8 FPS oder so. Absolut nicht zu merken.

Das die RX6600 auf einem Board mit nur PCIe3.0 kein Bild ausgibt habe ich bisher bei 3 verbauten Karten noch nicht gesehen.
Ich halte sie für die bessere Karte als die RTX3050. Das wird aber wohl mehr zur Glaubensfrage werden denke ich.
Kommen wieder welche die sagen ABER DLSS!!!!!1111einseinself
Fakt ist. DLSS auf 1080p ist sowieso sinnbefreit und die RX6600 bietet genug Dampf für native 1080p60 in so ziemlich allen Games
Genau die Sachen mit DLSS darüber habe ich mich auch Gedanken gemacht deswegen habe ich nur keine Entscheidung getroffen.

Was mich vom Kauf noch abhält, ist, hatte bevor ich mir die GTX 1050 Ti gekauft, eine Martyrium durch mit 3 verschieden von AMD.
 
Ist völlig wurst ob man die Karte mit PCIe 3.0 oder 4.0 betreibt, der unterschied ist nicht der rede wert.
 
  • Gefällt mir
Reaktionen: Efaniel
Ich kann dich verstehen @BVBler09. Ich kann dir nur sagen, dass ich jetzt schon 6 AMD Karten und 4 RTX Karten verbaut habe in den letzten 2 Jahren und nicht bei einer gab es Probleme. Weder bei den AMD noch bei den nVidia-Karten.
Das mit dem DLSS ist eine Geschmackssache. Die 3050 die kommt mit der 6600 echt nicht mit, außer es wird DLSS benutzt. Wenn du sowieso auf 1080p spielen willst würde ich definitiv auf das DLSS verzichten und lieber das native 1080p mit mehr Wumms nutzen, dass wäre in der Preisregion halt die RX6600
 
  • Gefällt mir
Reaktionen: BVBler09 und Hurricane.de
Die RX 6600 bietet bei niedrigerem Preis und nahezu identischem Verbrauch, durchschnittlich 30% mehr Rohleistung, wodurch sie selbst bei aktiviertem Raytracing mit der RTX 3050 gleichzieht. Selbst mit DLSS Quality ist die RTX nicht schneller unterwegs, als die 6600 nativ.

Solange in FHD gespielt wird stellen 8GB VRAM und PCIe 3.0 selten einen merklichen Nachteil dar.
 
  • Gefällt mir
Reaktionen: Hurricane.de und Efaniel
BVBler09 schrieb:
Zu dem Thema habe ich gelesen, dass dies FPS Einbußen verbunden ist mehr als mit einer RTX 3050.
Hast du denn irgendeine Publikation, dies das mit identischen Titeln verglichen hat? Es ist problemlos möglich, mit der Auswahl der Titel jede der zwei Karten besser als die andere aussehen zu lassen.
 
Vielen Dank an alle, denn wird es wohl die RX 6600 werden, aber jetzt habe ich normal eine Frage zum Thema HDCP 2.3, was die Grafikkarte hat.

Aber mein TV unterstützt nur HDCP 2.2 aber im Desktop Betrieb nutze ich immer 4k Auflösung

Kann es sei das ich mit der neuen Grafikkarte denn kein 4 K habe?
 
  • Gefällt mir
Reaktionen: Gagapa
Ja aber meine Geräte unterstützen doch nur HDCP 2.2 und die Grafikkarte 2.3 müssten denn nicht alle anderen Geräten auch HDCP 2.3 unterstützen?

Oder verstehe ich da was falsch?
 
Ehrlich, man sollte FHD 60 Hz endlich in den Keller, Dachboden schicken. Kauft euch ein WQHD Monitor mit 144Hz. FHD 60 HZ auf Ultraeinstellung sieht wesentlich schlechter aus als WQHD 90 HZ < auf mittleren Einstellungen. Ich selbst habe eine 6600 XT und sie feuert einen Dell 2K 165 HZ Monitor an. Vorher hatte ich einen 23 Z FHD /60 HZ Monitor.
 
Seit wann gibts denn HDCP 2.3 ?.?
Normalerweise sind die Versionen begrenzt abwärtskompatibel außer ab Version HDMI Version 1.4x gabs, wenn ich mich recht entsinne einen Bruch. Da wurden etwaige Lücken gestopft die es möglich machten Audio/Video abzugreifen - hab mich nur mal mit der Audio-Seite davon beschäftigt.
Also wenn dein Ausgabegerät kein 4K Monitor ist, wird mit Sicherheit noch HDMI 1,4 beim TV verwendet, kannst ja den TV mal nennen. Ansonsten sind einige Audiocodecs über HDCP verschlüsselt und erfordern lückenloses Zusammenspiel wenn nicht auf 16Bit Abtastung reduziert werden soll, mal ganz grob gesagt, nachdem woran ich mich noch halb erinnere.
 
Und worin liegen jetzt deine Bedenken bei HDCP?
Ich weiß jetzt nicht mit welcher 2er Version das eigeführt wurde aber im schlimmsten Fall fehlt dir der handshake für Dolby Atmos dts X oder einen anderen esoterischen Audio Codec. Sollte dich aber nur betreffen, wenn du ne Soundbar hast und dein (glaube) TV eARC und du dein Audio Signal über HDMI oder Wireless an Boxen durchschleifen willst. Ist halt eigentlich nur bei Filmwiedergabe relevant und für ne lückenlose Kette kannst schonmal mit mindestens 2K € für dein Soundsystem rechnen, wenn dir das wichtig ist.
Aber es gibt auch andere Methoden, wenn man noch ne Disc hat an den besten verwendeten Audio Codec zu kommen. ^^
 
Meine Bedenken waren das ich schlimmsten Fall vor ein dunkeln TV sitze. Ich besitze tatsächlich eine Soundbar, aber da ich keine Soundkarte habe, gibt die Soundbar sowieso nur Stereo aus, mein TV hat nur ein ARC Anschluss.

Wie ich das auch richtig verstanden, ist HDCP 2.2 oder 2.3 nur relevant für Kopiergeschütze, Inhalte wie Streams usw.....

Der Windows Desktop Betrieb oder in Spielen da ist die egal.
 
Zurück
Oben