News Radeon 6700: Abgespeckter Navi 22 mit 10 GB auf Modellen von Sapphire

Ob das vielleicht unnötigerweise beschnittene Chips sind? Nur um die Preise der 6700XT nicht senken zu müssen?

NMA schrieb:
Sollte das Teil Energieeffizient und dazu noch leise werden, dann bin ich definitiv daran interessiert.
Und im Traumfall darf es dann auch gern noch eine ITX Version davon geben.
Für kleinst Builds, ein kleines Stückchen Himmel...

Das kannst du bei AMD glaube ich vergessen. RX 6600 und XT sind schon so schön sparsam und trozdem gibt es genau ein Model unter 18cm und das ist schlecht verfügbar/eins der teuersten. Selbst die 6500XT (die nebenbei dämlicherweise keine 75W Karte geworden ist!) gibt es nur drei mal unter 18cm (MSI/Powercolor/ASRock).
 
  • Gefällt mir
Reaktionen: Tritom73, Elverado und .Ake
Cowcotland schreibt, dass die Preise der Sapphire 6700 bei 569 Euro starten werden.

Der Preis ist eher lächerlich und eine auf 10GB verknappte RX 6700 wird treiberseitig in Spielen/von Entwicklern zukünftig wie gut unterstützt werden und nicht irgendwann verhungern/fallen gelassen (wegen der Zwischenschrittspeichergröße)?

Bei nVidia gibt es in der Speichergröße momentan auch nur eine RTX 3080 (Vanilla) und ob diese Speichergröße gängig bleiben wird(?), mit 12 GB ist man eher auf der sicheren Seite, soviel steht fest.

Erstens kommt dieses Modell/"diese Leistungsklasse" m.E. von AMD/RTG viel zu spät und zweitens braucht es dieses "Leistungsklasse" nicht wirklich zwischen einer RTX 6600XT und RX 6700XT.

Wenn man überkritisch argumentieren würde, dann würde man AMD/RTG mangelhafte Produktpolitik unterstellen, aber die späte Entwicklung könnte wohl eher aus einer Panik erwachsen sein, dass man zu viele Navi 22 Chips herumeiern hat und befürchtet diese sonst nicht alle (kostendeckend) loszuwerden bei den aktuell sinkenden GPU-Preisen (auf das Einziehen/Einhalten einer weiteren Preislinie hoffend, um den Preis künbstlich weiter hoch zu halten - auch wenn selbst der Refresh das nur mäßig bisher geschafft hat - und nicht weil man den Kunden etwas gutes tun will ;) ).

Für das Gebotene (1,5 Jahre alte Technik) definitiv zu teuer angesetzt, aber versucht wird es trotzdem ... schon aus dem Grund warte ich lieber auf die Ada Lovelace Karten (leider verloren AMD/RTG, wenn die nächste GPU-Generation (RDNA3) wieder einmal viel später am Start ist).

Selbst die RX 6700XT ist schon zum Marktstart damals für das Gebotene von AMD/RTG zu teuer angesetzt worden, zumindest befand Gamers Nexus das (wie ich finde richtigerweise) so, und wir liegen durchgehend auch dort immer noch nicht auf, oder eigentlich angebrachter unter, UVP aktuell:

 
Zuletzt bearbeitet:
Lazy-Joe schrieb:
Alles nur billige ausreden.
OK. Dann müssen wir ja nicht weiter reden und die 12GB 2060 ist eine tolle Idee. ;-)
 
  • Gefällt mir
Reaktionen: Denniss
Chismon schrieb:
Erstens kommt dieses Modell/"diese Leistungsklasse" m.E. von AMD/RTG viel zu spät und zweitens braucht es dieses "Leistungsklasse" nicht wirklich zwischen einer RTX 6600XT und RX 6700XT.
Vielleicht lässt AMD ja die 6700XT EOL gehen aufgrund der 6750XT und wollen dahingehend das Loch dann mit der 6700 non XT stopfen. Aber auch so gesehen macht es dahingehend Sinn die 6700 zu bringen, wenn diese annähernd gleich aufliegt mit der 6700XT und man durch die 10GB VRam dann nochmals vielleicht 50-100€ zur 6700XT spart. Denn im Moment liegt zwischen der 6600XT und der 6700XT 90€ und zur 6750XT sogar 200€ Differenz.

Und was die 10/12GB VRam betreffen, ist egal ob Nvidia oder AMD. Alles nur Marketing geblubber. Weil sie wissen das die Leutz da draußen auf zahlen achten und wenn Nvidia im Preisbereich einer 6700XT mit 12GB fischen will, bringen sie halt entsprechend ne RTX3060 mit 12GB VRam, obwohl die Karte gerade beim zocken, diese nicht ansatzweise ausgelastet bekommt, ohne das man in 4K wo die 12GB angebracht wären, hart ins GPU Limit mit low FPS rennt.

Im Grunde reicht die Leistung der 3060 gerade so für FullHD und 8GB hätten da auch vollkommen gereicht. Daher alles nur Marketing bzw. technische Umsetzung des Speicherinterface. Genauso wie bei AMD mit der 12GB Variante der 6700XT und der 6800/ 69(5)00(XT) mit 16GB. Dort hätten für 4K ebenso 12GB gereicht, aber um Marktanteile zu gewinnen bohrt man entsprechend den Speicher gegenüber dem Konkurrenten auf und die Community feiert's mit der Tim Taylor Devise hohoho mehr PS bzw. die Jünger bei Nvidia heulen rum das sie nicht ebenso 16GB Karten bekommen.

Läuft aber alles schon etwas länger das Spiel GTX770 (2-4GB)/HD7970 (3-6GB) - GTX970/980 (3.5-4GB)/ R9 390 8GB usw. usf. wobei bei letzteren die 8GB auch nicht ansatzweise ausgelastet wurde aufgrund der Performance der Karte, auch wenn sie doch ab un zu unter FullHD teils über 4GB VRam kam und die 970/980 dann weggebrochen ist.

Aber im Hier und Jetzt reichen für FullHD 8GB, WQHD 10GB und 4K 12GB VRam auch in Zukunft dicke aus. Wenn man denn dann in 3-4 Jahren auch mal die Regler nicht stur auf Ultra stellt, um mit 30FPS unter 4K rumm zu springen.

Deshalb ist eine 3090(Ti) zum zocken auch vollkommen obsolet, da der VRam eher für semiprofessionelle Anwendungen als zum zocken benötigt wird. Wo zuvor auch die Titan Karten für gedacht waren, damit man sich keine exorbitant teuren Workstation Karten mit entsprechend hohen VRam kaufen muss.

Man achte auf die Speicherauslastung !:





Ultra RT/ DLSS Quality/ Performance !


 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usernamehere, Apocalypse, Tritom73 und eine weitere Person
Warten wir mal die ersten Test ab. Es könnte durchaus die Karte werden, welche WQHD gut darstellen kann und wo 10 statt 8GB sich positiv auswirken und doch keine 450€ überschritten werden. Will sagen, eventuell die Karte für den mittleren Markt.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Iguana Gaming schrieb:
Aber auch so gesehen macht es dahingehend Sinn die 6700 zu bringen, wenn diese annähernd gleich aufliegt mit der 6700XT und man durch die 10GB VRam dann nochmals vielleicht 50-100€ zur 6700XT spart.

Sinn für AMD/RTG vielleicht um die Profite künstlich aufzubrezeln und die Herstellungskosten weiter zu senken, für Kunden macht es aber bestimmt keinen Sinn, denn diese werden im Endeffekt eher damit angeschmiert und bekommen dann (falls eine RX 6700XT eingestellt werden sollte), mit einer RX 6700 weniger Gegenwert für in etwa gleiches Geld, wirklich eine tolle Sache :rolleyes:.

Und die Märchen, dass 8GB ewig für Full-HD reichen werden, die gab es auch schon zu GTX 970 Zeiten mit effektiven 3,5GB Speicher, die angeblich immer für Full HD ausreichen sollten.

Allein schon der ziemlich speicher- aber nicht leistungsabhängigen Texturen wegen lohnen sich die GPUs mit 12 GB (eher als 10GB oder 8GB), wenn man vorauschauend (also mittel- bis langfristig orientiert und nicht auf maximal 2 Jahre angesetzt, damit die Chip-Entwickler maximal abkassieren können) eine Grafikkarte kauft ;).

Dahingehend lohnen sich auch die RTX 2060 mit 12 GB und RTX 3060 mit 12 GB, welches von PCGH auch schon mehrfach richtiger Weise hervor gehoben wurde, denn man kauft GPUs i.d.R. nicht nur um zum Kaufzeitpunkt noch gerade mit dem Speicher ausreichend spielen zu können (und in ein paar Jahren in mehreren Spielen am Speicher zu verhungern), es sei denn man verdient sein Geld zu einfach oder ist Fan, Aktionär oder arbeitet für nVidia oder AMD/RTG, so sieht's doch aus.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Michael vdMaas
Chismon schrieb:
Und die Märchen, dass 8GB ewig für Full-HD reichen werden, die gab es auch schon zu GTX 970 Zeiten mit effektiven 3,5GB Speicher, die angeblich immer für Full HD ausreichen sollten.
dann schau dir doch die Benchmark Videos oben an die ich extra gepostet habe, selbst unter WQHD reichen 8GB noch vollkommen aus und wenn man dann noch die Regler bedient werden selbst diese noch in Zukunft in paar Jahren vollkommen ausreichend sein, erst recht unter FullHD.

Wo sollen da bitte keine 8GB VRam unter FullHD ausreichen, wenn sie es selbst unter WQHD tun ! Ihr mit eurem VRam Dogma, echt schlimm.




 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse, Pro_Bro, GRiNGO73 und eine weitere Person
Iguana Gaming schrieb:
selbst unter WQHD reichen 8GB noch vollkommen aus und wenn man dann noch die Regler bedient werden selbst diese noch in Zukunft in paar Jahren vollkommen ausreichend sein, erst recht unter FullHD.
Ja, noch gerade oder solange man sich die richtigen (Spiele-)Rosinen heraus sucht, aber ich teile da eher die Meinung von Raff (siehe vorheriger Beitrag mit Text- und Videoquellen) von der PCGH (der dann doch die deutlich kompetentere Quelle sein dürfte als irgendwelche Influencer-YT Videos) und die meisten kaufen Grafikkarten eben auch vorausschauend und nicht als Momentaufnahme ;).

Dogma überhaupt nicht, sondern nur gesunder Menschenverstand bzw. Vorsicht beim Grafikkartenkauf und wer möchte schon kurz nach Kartenkauf für den hohen Neupreis gleich an die Regler, nur weil man 50 oder 100 Euro am falschen Ende gespart hat für eine Karte mit mittel- bis langfristig zu wenig Speicherausbau bietet (?) ... genau, eigentlich keiner außer den Chip-Entwicklern (nVidia und AMD/RTG bekanntermaßen), die damit den Produktabsatz in kleinen Zeiträumen forcieren um deren Profite zu maximieren anstatt von nachhaltigem Grafikkartenkauf (mit Aussicht auf mindestens 4 Jahre Nutzungsdauer).
 
  • Gefällt mir
Reaktionen: Lazy-Joe, Tritom73, Michael vdMaas und eine weitere Person
Eher würden den Midrange-Karten eh die Leistung in Zukunft ausgehen, als das sie unter FullHD/WQHD die 8GB vollbekämen und wenn man dann die Details eh für mehr FPS senkt, verbraucht man auch weniger VRam.

Daher hört auf Panik zu schieben das 8GB Karten nicht reichen werden. Man muss sich nur jetzt schon die Leistung der 6750XT/3070Ti wie im letzten Video unter WQHD anschauen.
Ergänzung ()

Chismon schrieb:
Ja, noch gerade oder solange man sich die richtigen (Spiele-)Rosinen heraus sucht
dann zeig mir doch mal bitte Gegenbeispiele unter FullHD/WQHD wo Heutzutage keine 8GB mehr ausreichen und wenn dann bitte wo nicht alle Regler im low FPS Bereich extremst auf Anschlag liegen oder wo per DSR auf 4K hochskaliert wurde
Ergänzung ()

und wenn möglich mehr als 1-2 Ausnahmefälle
Ergänzung ()

@Chismon kann dir auch gerne noch mehr Benchmark Videos auch von anderen Kanälen raussuchen wenn du magst, sieht im Netz nicht viel anders aus wie die ich oben geteilt habe
Ergänzung ()

kannst dich auch gerne bei gamegpu mal durchklicken, die geben auch immer in jeder Auflösung den VRam Verbrauch der jeweilig getesteten Games an und mir paar Beispiele raussuchen
 
Zuletzt bearbeitet:
Lazy-Joe schrieb:
Alles nur billige ausreden. Erstens, User die in einer Preisklasse von einer 3080 kaufen, wechseln vermutlich alle 2 Jahre, da bei Ihnen das Geld lockerer sitzt, als jemand der eine Schmerzgrenze von 400€ und nur Mittelklasse kauft. Zweitens, AMDs Speichermangement ist erheblich schlechter als Nvidias. Radeons laufen viel schneller voll als Nvidia Karten mit gleicher Speicher Menge.

"Besonders interessant ist hier der Vergleich zwischen den RDNA-1-Geschwistern Radeon RX 5600 XT und RX 5700 XT. Erstere trägt nur 6 GiByte Speicher und entlockt Forza Horizon 5 somit eine VRAM-Warnmeldung, während die 5700 XT ohne diese Probleme auskommt und somit deutlich besser performt. Nvidia-Grafikkarten wie die GTX 1060 und RTX 2060 kommen hingegen beim Ultra-Preset mit ihren 6 GiByte aus"

1382783/4/[/URL][/B]
Es könnte auch ein Bug sein, es ist bekannt das Nvidia eine leicht bessere Speicher Kompression hat, aber nicht so extrem wie du es darstellt, es gibt auch genug gegen Beispiele.

Außerdem zählt das Argument wohl kaum das jemand der mehr für eine Grafikkarte ausgibt, sie eher verkauft... Gibt wohl kaum offizielle Zahlen.

Die rtx 3080 ist preislich im Konkurrenz Kampf mit der rx 6900 xt, nicht mit der rx 6700.
Die rx 6700 xt ist auch minimal günstiger als die rtx 3060 ti.

Das wirklich negative an der Karte ist, dass sie zu spät kommt
 
@Chismon das einzige Game was ich bisher unter WQHD, auch oben im Video, gefunden habe, war Cyberpunk mit Ultra RT+DLSS und wo 8GB nicht mehr, mit knapp 8.5GB Verbrauch, ausgereicht haben. Da aber die FPS eh schon grenzwertig mit einer 3080Ti sind, greift man dann doch lieber min. zur 3080 mit 10GB als zur 3070 mit 8GB.
Ergänzung ()

Oder man senkt halt mit einer 3070 soweit die Details das es dann auch mit 60FPS spielbar ist und genau so wird es in Zukunft dann nämlich auch ohne RT aussehen.
 
Tornavida schrieb:
Die Karte würde ich mir nicht holen solang es eine 6700xt gibt. Ich befürchte Diese wird auslaufen,was bleibt ist dann der höhere Preis der 6750xt. Dann passt auch die 6700 wieder preislich rein,für AMD.
Das befürchte ich auch. War schon komisch, als sie bei Release der 6650XT und 6750XT die 6700XT haben weiterlaufen lassen.
Wenn jetzt noch die 6700 kommt, muss da irgendwas weg. Und es werden wahrscheinlich nicht die gerade erst vorgestellten Refresh-Generationen sein.
Oder die 6700 wird kein wirklich reguläres Ding, sondern nur so eine Sonderlösung wovon es nur 2-3 Designs gibt. Dann wäre die 6700 aber wahrscheinlich so oder so obsolet und eher für ganz spezielle Märkte gedacht.
 
Das wäre eigentlich die Ablöse für meine vorherige 5700 gewesen, die ich jedoch 04/2020 für 269€ kaufen und 04/2021 für 699€ verkaufen konnte.
Hätte mit dem Kauf der 6700 XT noch warten sollen, aber 1:1 die 699€ investiert und bin mit dem Performance Upgrade zufrieden.
Mit der Preisspanne für die 6700 bleibt nicht viel Luft: ab 450€ für die 6650 XT, ab 500€ für die 6700 XT..
AMD hätte sich die 6650 XT einfach sparen können (genauso wie die 6750 XT) und stattdessen nur die 6700 gebracht.. würde von der Einstufung mit verschiedenen RAM Größen am meisten Sinn ergeben... und von der Preisgestaltung dann auch... aber so wird es der 6700 wohl so ergehen wie dem Ryzen 5 5600: zu spät erschienen, um ein P/L Kracher zu werden und am Ende nur 5-10€ günstiger wie das schnellere Gegenstück..
 
Chismon schrieb:
aber ich teile da eher die Meinung von Raff (siehe vorheriger Beitrag mit Text- und Videoquellen) von der PCGH (der dann doch die deutlich kompetentere Quelle sein dürfte als irgendwelche Influencer-YT Videos)
Wenn ich da PCGH vertrauen würde, hätte ich zB Halo nie angefasst. Laut PCGH hat man schon in 1080p mit 8GB VRam teilweise Ruckler und wie es dann aussieht wenn der VRam überläuft wird dann mit einem Matsch-Screen bewiesen.

PCGH.png


Mein Rechner sagt was anderes. Die RTX auf unter 80W getrimmt...VRam unter 6GB....nicht in 1080p, sondern in 1440p.....und schaut trotzdem besser aus als das was mir PCGH da verkaufen will.

4.jpg



War ja in Far Cry 6 das selben. Da wird ein vermatschtes Lenkrad gezeigt (VRam überlauf). Das passiert allerdings nur wenn das Texturpaket auf eine 8GB Karte gepresst wird. Ohne HD Texturen sieht es dann plötzlich genauso aus wie auf eine 16GB Karte mit.

Irgendwie muß man ja eine Show liefern um sich von anderen Mags abzugrenzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usernamehere, Do Berek, GRiNGO73 und eine weitere Person
erst die gut laufende 6600 XT mit der 6650 erdolcht. Minimale Vorteile für maximale Nachteile. Jetzt wird die 6700 XT mit der 6700 und 6750 XT erdolcht.
Beide Karten - 6600 XT und 6700 XT - fingen langsam an richtig attraktiv zu werden. Die 6600 XT hat sich für den kurzen Zeitraum auch wirklich gut verkauft. Jetzt werden Karten zwischengeschoben um die Preise zu stabilisieren und die 6600 XT wird komplett eingestellt. Verstehe wer will.

Man kann es Produktpflege nennen oder wie ich es persönlich sehe Profitmaximierung gegen den Kunden. AMD bekommt hier von mir den selben Stempel wie Nvidia. Profitmaximierer.
 
  • Gefällt mir
Reaktionen: Michael vdMaas, Chismon, k0n und eine weitere Person
Chismon schrieb:
Wenn man überkritisch argumentieren würde, dann würde man AMD/RTG mangelhafte Produktpolitik unterstellen, aber die späte Entwicklung könnte wohl eher aus einer Panik erwachsen sein, dass man zu viele Navi 22 Chips herumeiern hat und befürchtet diese sonst nicht alle (kostendeckend) loszuwerden.
Bezweifle ich. Selbst wenn die neuen Grafikkarten auf den Markt kommen, werden sich aktuelle Grafikkarten Lösungen von AMD und NV weiter verkaufen. Noch sind wir überall über UVP Preise und auch wenn Preise deutlich gesunken sind, gibt es da noch Spielraum.

Im Endeffekt kam bei AMD zu Ende einer Generation immer schon LE-Varianten auf den Markt. Ich finde die 6700 daher gar nicht uninteressant, weil ich mit LE-Versionen oft gute Erfahrungen gemacht habe. Es kann gut sein, dass die nämlich gar nicht wirklich langsamer ist, als die 6700XT (vllt kann sogar mit OC mehr rausgeholt werden).
Was abzuwarten ist, wie die Effizienz sein wird, schlechter oder besser.

Was RAM ist. Mal abwarten. Bald kommt auch direct Storage. es wird immer mehr Techniken wie FSR genutzt ect. Ich bin allgemein gespannt, ob "nativ" dann immer mehr wie "Rohleistung" betrachtet wird. Redundanzen zu vermeiden ist in der Technik nichts neues. So wird oft die Effizienz / Effektivität gesteigert.
Also ob 10 GB zu knapp sind. Nativ ja, aber wie sich das jetzt alles mit FSR und sonstige DX Features wie eben Direct Storage weiterentwickelt ? Abwarten.
 
  • Gefällt mir
Reaktionen: Chismon
Würde diese neue 6700 nicht 1:1 einer PS5 entsprechen? Mal abgesehen von der Speicheranbindung...
Wäre ja ein Hammer, wenn man hier PS5 Socs verwerten würde, aber halt mit den ZEN-Kerne deaktiviert, und die Karte ÜBER dem Preis einer PS5 verkaufen würde XD
 
  • Gefällt mir
Reaktionen: Tritom73
Weil ich es hier schon öfters gelesen habe: Denkt ihr wirklich, dass man damit eine Stabilisierung der Preise erreichen kann? Warum sollte es so sein? Wenn die sich nicht besser verkauft, wird der Preis trotzdem fallen. Wie soll man denn mit einem beschnitten Produkt den Preisverfall eines höherwertigen aufhalten. Wir sind ja nicht einmal bei der ursprünglichen UVP angelangt.

Klar, Profit ist das wichtigste Ziel eines Unternehmens, aber wenn man zu wenig verkauft, bringt eine hohe Marge auch nichts. Als Navi2 released wurde, hätte man auch glatt die UVP weiter oben ansetzen können, die extreme Nachfrage durch Miner gepaart durch diverse Engpässe haben die Preise kurz danach durch die Decke gehen lassen. Sinkende Nachfrage bedeutet auch fallender Preis, die Marktpreise werden am Ende entscheidend sein, nicht was der Hersteller gerne dafür hätte. Die UVPs der letzten Zeit sind auch kaum als Vergleich zu gebrauchen, schon gar nicht mit UVPs von vor zwei Jahren. Vor Mining und C viel der Marktpreis ja auch unter UVP je nach dem, wie die Nachfrage war.
 
@Ozmog
Denke die 6700er wird AMD locker los.
Es gibt immer noch Miner und OEM-PCs und Käufer dieser.

Wir im Forum denken immer, wir wären die einzigen Abnehmer/Zocker.
Da draußen laufen Menschen zum Saturn, kaufen einen Fertig-PC und spielen irgendein Game drauf.
Ob da neue GPUs in ein paar Monaten kommen, oder nicht wissen die gar nicht.
Das habe ich damals beim 1. PC selbst gemacht. War kA..12-13 Jahre alt - Mein Vater meinte da ist n guter PC, zack gekauft und darauf CS und Co. gespielt..irgendwann festgestellt, dass das eig Schrott war und dadurch angefangen immer alles selbst zu machen/tauschen und glaube der 1. Tausch war dann auf die GTX 6600GT mit 128mb umzusteigen (oder wie die Graka hieß)

So wirds heute einigen gehen, die einen Fertig-PC mit zB ner 6500 mit 4gb kaufen usw usw
 
  • Gefällt mir
Reaktionen: Verak Drezzt
160bit-SI... mit Beschneidungen der Speicheranbindung wäre ich sehr vorsichtig. Da hat nVidia schon häufiger Mittelklassekarten geliefert welche nach zwei Jahren plötzlich unter Wert liefen weil die dann erschienen Spiele gewisse Schwellenwerte rissen wo das SI dann der Flaschenhals wurde.
Wenn mich die Geschichte eines gelehrt hat, dann das Breite zwar kostet, aber stabile FPS liefert. Sei es die Speicheranbindung oder eben "mehr Transistoren mit niedrigerem Takt statt kleinere Chips mit hohen Taktraten".
Ja, ist teurer, aber bei den derzeit aufgerufenen Marktpreisen von ~600€ für "Mittelklasse" erwarte ich doch dass genau diese Position auch zwei drei Jahre gehalten wird.
 
  • Gefällt mir
Reaktionen: PegasusHunter
Zurück
Oben