• ComputerBase erhält eine Provision für Käufe über eBay-Links.

News AMD Ryzen 9000F/G: Eine CPU ist neu, die andere nur ein Refresh

Botcruscher schrieb:
Was dir im CPU-Limit und gut 20% Leistungsverlust durch den L3 in Spielen exakt nichts bringt.
Ryzen 5 8400F für 90€ + RTX 5060 Ti 8GB für 340€ = 430€

Ryzen 5 7600X für 170€ + RTX 5050 für 260€ = 430€

Da kommt wohl wesentlich eher mit der RTX 5050 ins GPU Limit als mit dem Ryzen 5 8400F ins CPU Limit.

forum926.jpg
forum927.jpg


Ryzen 5 7600X mit GeForce RTX 5050 lässt sich auf pc-builds.com noch nicht rechnen weil die Seite die RTX 5050 noch nicht kennt, aber denke das sieht schlechter aus.
 
Dann würde ich lieber 7400F und 16GB 9060 XT 450€ nehmen.
Jeder kann es sich auch gerne so malen, wie es einem schmeckt. :)

Krass wäre, wenn der mobil Chip Phoenix (zB 7840), der heftige Verspätung im Notebook hatte und GPU Treiber waren auch nicht fertig, dieses Teil dann als Phoenix 8700G und Derivate in den Desktop stolperten STAPM, jetzt als 9000G wieder in den Desktop kommen sollen.
Im Notebook wurde Phoenix zu Hawk Point.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Ok at 14:23 in der Liste sieht man dann ne 9080XT was wohl ne 20% übertaktete 9070XT mit mehr VRAM ist, hoffe zumindest das sie mehr VRAM hat sonst wärs leicht witzlos, steht nur 16-32gb dran, ideal beides :) und "more than 450W".
Wir brauchen aber eigentlich keine Karten, die nur über mehr Leistungsaufnahme noch was rausquetschen, haben wir echt genug. Und im Video wird ja auch gesagt, dass das eigentlich nicht AMDs Ding ist. RDNA4 hat den Sweetspot offensichtlich viel weiter unten (siehe zum Schluss wo es um Low-Power Karten geht wo berichtet wird, dass man eine 7060 auf 130 Watt ohne Leistungsverluste runterbekommt). Das sollen sie machen, nicht dieses Raumheizungswettrüsten von Nvidia auch noch kopieren. Das kann man ja mit einem "Efficiency-Mode" machen und dann halt einen "Power-Mode", der ausreizt was geht (bzw. was AMD für "noch nicht OC" hält). Aber nur mit OC ne 9080Xt generieren wäre lächerlich. Die kauft man dann für's VRAM. Das ist möglicherweise der Plan, wenn sie denn hoffentlich auch mehr hat. Aber AMD muss punkten, nicht den Mist von Nvidia kopieren. Dafür sind sie einfach nicht in der Position (von Kundenfreundlichkeit mal ganz zu schweigen).

Aber am schlimmsten wiegt für mich der Totalausfall bei Mobile. Und da wär so viel Markt. Die Preise für die billigsten akzeptablen Nvidia Laptops (12GB oder mehr VRAM) liegen bei weit über 2000 Euro. Das könnte AMD locker unterbieten. Da könnten sie richtig Gas geben, wenn sie einfach nur den 9070(XT) mit den 16GB im Notebook bringen würden (bzw. von vorne herein gebracht hätten) so wie er ist nur halt selektiert und entsprechend angepasst. Wenn der 9060 Desktop auf 130 Watt ohne Leistungsverlust kommt, dann geht das beim 9070XT auch, vielleicht 165 Watt für high-performance. Und das wäre nicht mal selektiert. Das wäre ein echter Hammer. Aber nöööööö
 
p-trettin schrieb:
Aber am schlimmsten wiegt für mich der Totalausfall bei Mobile. Und da wär so viel Markt.
Der Markt wird dank Handhelds, Mobile Games etc. immer kleiner. Da sind integrierte Lösungen wie Ryzen AI viel lukrativer. Gaming-Notebooks sind die absolute Nische geworden. Wer weiß, vielleicht kommt 9000G als Refresh der 8er-Reihe auch nur deshalb in der Form, weil Strix Point komplett in den mobilen Markt gehen soll.
 
@Boimler Meinst du? Also das sehe ich nicht. Handhelds und Handyspielchen vs. Gaming-Notebooks? Ernsthaft? Handhelds sicher, auf der anderen Seite gibt es auch einen Trend weg vom Desktop zum Notebook. Das dürfte sich ausgleichen. Handyspielchen sind meiner Meinung nach nicht ernst zu nehmen. Da wird viel Geld mit geschnitten, ja, aber das überschneidet sich meiner Meinung nach nicht. Das spielen Leute nicht da, wo sie normalerweise das Gaming-Notebook nutzen würden. Ich sehe eher den Desktop-Gaming-PC-Markt schrumpfen, denn da kommt nichts dazu als Ausgleich zum Trend zu Notebooks.
 
  • Gefällt mir
Reaktionen: RealMax123
blackiwid schrieb:
Ok at 14:23 in der Liste sieht man dann ne 9080XT was wohl ne 20% übertaktete 9070XT mit mehr VRAM ist, hoffe zumindest das sie mehr VRAM hat sonst wärs leicht witzlos, steht nur 16-32gb dran, ideal beides :) und "more than 450W".
Eine übertaktete Radeon RX 9070 XT als Radeon RX 9080 XT zu verkaufen finde ich ist genauso unseriös wie einfach einen Ryzen 8000G völlig unverändert als Ryzen 9000G rebranden zu wollen.

Ich hab nichts gegen das Konzept einzuwenden. Aber man sollte dann schon fair sein und die Karte z.B. als Radeon RX 9070 XTX, Radeon RX 9070 XT Ultra, Radeon RX 9070 XT Titan, etc. verkauen.

Eine Radeon RX 9080 XT sollte auf jeden Fall mehr ROPs und CUs haben damit sie die 80 im Namen verdient hat.

p-trettin schrieb:
Aber am schlimmsten wiegt für mich der Totalausfall bei Mobile. Und da wär so viel Markt. Die Preise für die billigsten akzeptablen Nvidia Laptops (12GB oder mehr VRAM) liegen bei weit über 2000 Euro. Das könnte AMD locker unterbieten. Da könnten sie richtig Gas geben, wenn sie einfach nur den 9070(XT) mit den 16GB im Notebook bringen würden (bzw. von vorne herein gebracht hätten) so wie er ist nur halt selektiert und entsprechend angepasst. Wenn der 9060 Desktop auf 130 Watt ohne Leistungsverlust kommt, dann geht das beim 9070XT auch, vielleicht 165 Watt für high-performance. Und das wäre nicht mal selektiert. Das wäre ein echter Hammer. Aber nöööööö
Ich weis nicht ob das wirklich eine gute und praktikable Idee wäre.

Weil bei den Desktop-Grafikkarten bauen auch bei annähernd gleicher Leistungsaufnahme die Radeon RX 9000 klobiger als GeForce RTX 5000. Es ist zwar nicht mehr so extrem wie es bei den Radeon RX 6000 gegenüber GeForce RTX 3000 war, aber immer noch deutlich.

Und extra was für den Mobilmarkt entwickeln wird sich wahrscheinlich nicht lohnen, weil ich denke der Notebook-Markt ist stark zweigeteilt.

Einerseits zählt für die meisten Kunden zwar der Preis, aber für die sind meistens maximal 1.500€ die absolute Schmerzgrenze. Und da bleibt dann für eine GPU keine allzugrosse Marge.

Der Markt für Notebooks über 2.000€ ist sehr klein, so das keine grossen Stückzahlen möglich sind. Und Kunden die über 2.000€ ausgeben wollen meistens absolute Höchstleistung, und zahlen auch gerne für ein paar Prozent mehr lieber 3.299€ statt 2.149€.

Boimler schrieb:
Gaming-Notebooks sind die absolute Nische geworden.
Kommt drauf an was man unter Gaming-Notebook versteht.

Sowas wie Ryzen 7 8845HS mit GeForce RTX 4050 für 999€ oder mit Georce RTX 4070 für 1.399€ verkaufen sich schon ziemlich gut.

forum929.jpg
forum930.jpg


Selbst in der 999€ Konfiguration mit GeForce RTX 4050 sehen die Spiele jetzt nicht so schlecht aus:

 
Puh, ich hoffe die News bestätigen sich so nicht.
Habe mir die Tage einen Ryzen 5 8600G mit Deskmini bestellt und hatte den Plan dann auf den 9000er Ryzen 7 aufzurüsten.
Mal sehen ob das so stattfinden wird...
 
RealMax123 schrieb:
Eine übertaktete Radeon RX 9070 XT als Radeon RX 9080 XT zu verkaufen finde ich ist genauso unseriös
Mit mehr VRAM seh ich das nicht so, wenn die Übertaktung ordentlich hoch ist, auch höher getakteter Speicher mit verkauft wird, seh ich da kein Problem damit, ein GRE heißt ja auch 7900 obwohl sie weniger Shader hat wie die andern 7900er karten. Selbst die 7900xtx hat mehr shader als die 7900xt sogar noch deutlicher.

Da AMD sich eben an Nvidia orientiert und die 9070er karten ungefähr mit 5070er messen ist halt die Frage wie schnell die ist, nach deiner logik könnte man eine 15% schnellere Karte 9080xt nennen solange sie nen anderen Chip mit mehr Shader hat aber wenn ne Karte durch Golden Sample picking oder neues Stepping 20% mehr Speed durch Takt bekommt nicht.

Vorallem wenn mehr Ram dabei ist seh ich da kein großes Problem, z.B. war die 4070 Ti und 4070 beides AD104 künstlich stark beschnitten bei der 4070, aber ja trotzdem gleiche Chip. da ist mir lieber man beschneidet keine der Chips und macht den unterschied mit Takt und Ram ausbau.

WENN der unterschied eben da ist, es muss natürilch deutlich mehr sein als du mit der Karte selbst übertakten kannst.

Zwischen ner 5070 Ti und 5080 liegen halt nur 12% wenn deren 5080 so scheiße ist da sie das mehr an Shader so schlecht nutzen kann in Games, bringt mir anderer Chip auch nichts wenn es eine übertaktete 5070ti auch erreichen könnte.

Letztlich vergleicht man die karte nach FPS, Lautstärke, Effizenz usw, nicht danach wie der Chip aussieht. Ich bin mir sicher das die Benchmarks das alles durchleuchten werden und wer so ne Karte blind kauft, die richtung 1000 Euro geht ist selbst schuld, wenn er überrascht wird.
 
Vielleicht ist es bei High-End-CPUs meist nebensächlich da die oft mit separater GPU gepaart werden, aber für alles darunter sehe ich eine iGPU als Pflicht.

Den letzten CPU ohne iGPU hatte ich zu Athlon X2-Zeiten. Die iGPU reicht in vielen Fällen für meine Szenarien aus, nur im Game-PC steckt normalerweise eine dGPU drin.

Gerade da uralte Karten a Geforce 210 mehr kosten und weniger leisten als eine wesentlich modernere iGPU, dazu geht ein PCIe-Steckplatz flöten
 
Staubwedel schrieb:
Vielleicht ist es bei High-End-CPUs meist nebensächlich da die oft mit separater GPU gepaart werden, aber für alles darunter sehe ich eine iGPU als Pflicht.

Den letzten CPU ohne iGPU hatte ich zu Athlon X2-Zeiten. Die iGPU reicht in vielen Fällen für meine Szenarien aus, nur im Game-PC steckt normalerweise eine dGPU drin.

Gerade da uralte Karten a Geforce 210 mehr kosten und weniger leisten als eine wesentlich modernere iGPU, dazu geht ein PCIe-Steckplatz flöten
Sehe ich anders, bis Intel UHD und AMD Vega taugten die iGPU nur für für Server wo man die Grafik nur für Wartungszecke braucht oder für Notbetrieb.

Erst mit Intel Iris, Intel Arc und AMD Radeon wurden die iGPUs halbwegs bauchbar. Also bei den Desktops ab Core Ultra 5 225 und Ryzen 5 8600G, bei den Noteboobs ab Core i5-11300H, Core i5-1135G7, Ryzen 5 6600H, Ryzen 5 6600U, Ryzen 3 7335U, etc.

Beim Core Ultra 5 225 für 185€ vs. Core Ultra 5 225F für 175€ wo die iGPU nur 10€ kostet würde ich sie schon mitnehmen weil sie ja fast geschenkt ist.

Aber beim Ryzen 5 8600G für 165€ vs. Ryzen 5 8400F für 90€ wo die iGPU dann 75€ kostet ist es sie eigentlich nicht wert.

Eine gebrauchte Palit GeForce GTX 970 JetStream 4GB kostet nur 43€ ( https://www.ebay.de/itm/326714587325 ) aber ist trotzdem den iGPU haushoch überlegen: https://technical.city/de/video/GeForce-GTX-970-vs-Radeon-760M

blackiwid schrieb:
Da AMD sich eben an Nvidia orientiert und die 9070er karten ungefähr mit 5070er messen ist halt die Frage wie schnell die ist, nach deiner logik könnte man eine 15% schnellere Karte 9080xt nennen solange sie nen anderen Chip mit mehr Shader hat aber wenn ne Karte durch Golden Sample picking oder neues Stepping 20% mehr Speed durch Takt bekommt nicht.
Ja, genauso sehe ich das.

blackiwid schrieb:
Vorallem wenn mehr Ram dabei ist seh ich da kein großes Problem, z.B. war die 4070 Ti und 4070 beides AD104 künstlich stark beschnitten bei der 4070, aber ja trotzdem gleiche Chip. da ist mir lieber man beschneidet keine der Chips und macht den unterschied mit Takt und Ram ausbau.
Durch die unterschiedliche Anzahl von ROPs und SMs und RT-Cores ist eine Geforce RTX 4070 Ti immer wesentlich besser als eine normale GeForce RTX 4070 obwohl beide Karten immer 12GB VRAM haben.

Die RTX 4070 Ti ist wirklich eine tolle Karte die sogar der RTX 5070 noch überlegen ist. Deswegen finde ich es schade das es keine Restbestände zu passablen Preisen mehr gibt.

Das Beispiel mit unterschiedlichen RAM Ausbau gibts bei Nvidia auch genug, zum Beispiel bei der RTX 4060 Ti und RTX 5060 Ti die es mit 8GB und 16GB gibt.

Das bringt eben bei den meisten Spielen erst bei UHD, aber immerhin bei manchen Spielen ab QHD einen gewissen Vorteil und mehr FPS, weil 8GB dann für die Texturen zu klein werden. Aber bei 720p oder FHD mit Pathtracing ist die 16GB Version keinen Deut schneller als die 8GB Version, weil sie eben keinen Deut mehr Rechenleistung hat.

Und bei 16GB vs. 32GB ist der Vorteil noch viel kleiner als bei 8GB vs. 16GB, da 8GB bei UHD meistens und manchmal schon bei QHD überlaufen können. Aber 16GB laufen wohl bei QHD niemals und selbst bei UHD nur gelegentlich über.

blackiwid schrieb:
Zwischen ner 5070 Ti und 5080 liegen halt nur 12% wenn deren 5080 so scheiße ist da sie das mehr an Shader so schlecht nutzen kann in Games, bringt mir anderer Chip auch nichts wenn es eine übertaktete 5070ti auch erreichen könnte.
Mit Raytracing und vorallem Pathtracing könnte man den Vorteil der RTX 5080 gegenüber der RTX 5070 Ti schon ganz gut nutzen.

Aber während man solide RTX 5070 Ti Karten wie die KFA² RTX 5070 Ti EX Gamer 1-Click OC bei x-kom für 799,99€ ( https://x-kom.de/001327400-kfa2-geforce-rtx-5070-ti-ex-gamer-1-click-oc-16gb-gddr7-dlss4?utm_campaign=price+comparison&utm_medium=cpc&utm_source=geizhals.de ) bekommen kann, kosten solide RTX 5080 Karten wie die Gigabyte RTX 5080 WindForce OC SFF bei Kaufland 1.134,99€ ( https://www.kaufland.de/product/524921900) und das sind dann doch satte 335€ oder 41,9% mehr.

Und so gross ist dann auch der Performancevorteil bei Pathtracing nicht, sondern es sind auch da nur so 20% Mehrleistung.

Wenn es eine solide RTX 5080 für so 949,99€ geben würde, dann wäre sie keine schlechte Wahl und durchaus eine noch bessere Alternative zur eh schon guten RTX 5070 Ti.

Aber 1.134,99€ ist einfach zu teuer!

blackiwid schrieb:
GRE heißt ja auch 7900 obwohl sie weniger Shader hat wie die andern 7900er karten. Selbst die 7900xtx hat mehr shader als die 7900xt sogar noch deutlicher.
Aber eine RX 7900 GRE hat mit 80 CUs und RT-Cores zwar weniger als die RX 7900 mit 84 CUs und RT-Cores, aber deutlich mehr als die RX 7800 XT mit nur 60 CUs und RT-Cores. Deswegen finde ich den Namen absolut gerechtfertigt.

Eine RX 9080 Serie könnte ich mir gut so vorstellen:

RX 9080 GRE: 144 ROPs, 72 CUs und RT-Cores, 20GB VRAM;
RX 9080: 192 ROPs, 84 oder 88 CUs und RT-Cores, 24GB VRAM;
RX 9080 XT: 192 ROPs, 96 CUs und RT-Cores, 24GB VRAM;
 
RealMax123 schrieb:
Sehe ich anders, bis Intel UHD und AMD Vega taugten die iGPU nur für für Server wo man die Grafik nur für Wartungszecke braucht oder für Notbetrieb.

Auf einem Büro-PC reichen auch andere iGPU-Lösungen locker, selbst für Multimedia ist das ausreichend.

Für meinen Videoschnitt-PC ohne Umkonvertierung ebenso
 
RealMax123 schrieb:
Eine RX 9080 Serie könnte ich mir gut so vorstellen:

RX 9080 GRE: 144 ROPs, 72 CUs und RT-Cores, 20GB VRAM;
RX 9080: 192 ROPs, 84 oder 88 CUs und RT-Cores, 24GB VRAM;
RX 9080 XT: 192 ROPs, 96 CUs und RT-Cores, 24GB VRAM;
Ja erstens updated Nvidia auch grad die oberen Modelle zu >16gb im Highend kann das durchaus Nett sein.

Mann kann über die Namensgebung streiten und vielleicht ists am ende ja ne rx 9070xtx aber AMD orientiert sich an Nvidia mit den Namen und wenn es eben ein 1:1 konkurent vom Speed her zu ner 5080 wird zumindest bei Raster würde es für mehr Verwirrung sorgen, der einfache Kunde würde sagen wieso soll ich 900 Euro für ne 5070Ti artige Karte zahlen oder so ähnlich.

Der ganze Ansatz hat einen weiteren Vorteil, man hat weiterhin nur 2 Chips, das senkt die Entwicklungskosten, und damit die pro Chip kosten, und Preis/Leistung ist immer noch ein starkes Argument für AMD.

Es ist ein Refresh ja auch bei Nvidia, die können halt mit den 3gb chips den RAM vergrößern die Option hat AMD nicht sie können es fast nur verdoppeln.

AMD braucht halt ne Antwort auf 24gb rtx 5070 super und 5070 ti super. die 5070 super kann man vielleicht noch mit Preis in Griff kriegen mit den alten karten aber die 5070 ti super wenn Nvidia halbwegs agressive Preise wählt braucht da AMD auch ne Antwort für.

Sonst werden bald alle Nvidia Fanboys uns erzählen wie wichtig und zentral viel VRAM bei Grafikkarten ist :D
 
blackiwid schrieb:
Der ganze Ansatz hat einen weiteren Vorteil, man hat weiterhin nur 2 Chips, das senkt die Entwicklungskosten, und damit die pro Chip kosten, und Preis/Leistung ist immer noch ein starkes Argument für AMD.
Da gäbe es aber noch eine intressantere Alternative wenn ich an die alte Rage Fury MAXX zurück denke:

pc217.jpg

Man könnte doch einfach zwei Navi 48 Chips entweder wie damals in einem Master-Slave Betrieb zusammen auf ein Board packen.

Die Version mit 2x 9070 GRE und 24GB könnte man dann als Radeon MAXX 9080 und die Version mit 2x 9070 und 32GB sogar als Radeon MAXX 9090 verkauen.

Theoretisch wäre auch eine Version mit 2x 9070 XT denkbar, aber ich denke da müsste man um den Stromverbrauch akzeptabel zu halten eh soweit runtertakten da keinen Vorteil gegenüber 2x 9070 mehr hätte.
 
RealMax123 schrieb:
Theoretisch wäre auch eine Version mit 2x 9070 XT denkbar, aber ich denke da müsste man um den Stromverbrauch akzeptabel zu halten eh soweit runtertakten da keinen Vorteil gegenüber 2x 9070 mehr hätte.
9070 und XT sind ja die gleichen chips, also Tomato Tamato... ja doppelter chip wäre möglich, aber da reden wir dann von bei 32gb RAM schon wahrscheinlich von 1300-1500 Euro.

Man ist dann halt nimmer im effizienten Bereich eventuell braucht man dann sogar ne Art SLI oder sowas das arbeitet, ist alles bisschen ugly, man begnügt sich halt auf Nvidias super zu antworten nicht jetzt noch mit 1 Jahr Verspätung richtige neue Karten raus zu bringen. Mit UDMA1 oder RDNA5 werden dann die wünsche alle erfüllt einfach bisschen Geduld AMD hatte öfters schon keine Highendchips. (oder Enthusiast) chips, das ist nicht das erste mal. Lieber gute obere Mittelklasse als verkorkste Oberklasse barely mit der 7900XT(X).

Für die paar % die >1000 Euro für ne Grafikkarte über haben. Ich mein ich hätte nichts dagegen, aber scheint halt nichts zu kommen. Ich bin die nächsten 3 Jahre vermutlich mit meiner 7800xt versorgt, irgendwann auch noch mit RDNA4 das steht schon fest, ob mit AMDs segen oder ohne unter Linux ist das jetzt in der Pipeline.
 
RealMax123 schrieb:
Weil bei den Desktop-Grafikkarten bauen auch bei annähernd gleicher Leistungsaufnahme die Radeon RX 9000 klobiger als GeForce RTX 5000. Es ist zwar nicht mehr so extrem wie es bei den Radeon RX 6000 gegenüber GeForce RTX 3000 war, aber immer noch deutlich.
Das gilt aber nur für die FE. Wenn man Board-Partner-Modelle vergleicht, dann sind die Nvidia-Karten auch ziemliche Trümmer. Es geht einzig um die Leistungsaufnahme = Abwärme, die weggeschafft werden muss.
RealMax123 schrieb:
Und extra was für den Mobilmarkt entwickeln wird sich wahrscheinlich nicht lohnen, weil ich denke der Notebook-Markt ist stark zweigeteilt.
Das sind auch bei Nvidia die gleichen Chips, nur selektiert. Der Aufwand wäre minimal. Nur der Aufwand für die Notebook-Hersteller ist groß, denn die müssen eine AMD-Plattform drumrum designen. Und weil AMD das Segment vernachlässigt bis ignoriert hat, tun sie das vermutlich gar nicht mehr, womit es für AMD jetzt schwer wird diese wieder ins Boot zu bekommen.
RealMax123 schrieb:
Einerseits zählt für die meisten Kunden zwar der Preis, aber für die sind meistens maximal 1.500€ die absolute Schmerzgrenze. Und da bleibt dann für eine GPU keine allzugrosse Marge.
Na ja. Also wenn eine RX9070XT Desktop - also die ganze Karte mit allem drumunddran - retail für 800 Euro weg geht, kann man davon ausgehen, dass die dGPU mit allem drum und dran fürs Notebook vielleicht 500, lass es 600 ausmachen würde. Das macht dann immer noch 900 bis 1.000 Euro für den Rest des Notebooks, womit man schon gute Designs hinbekommen würde.
RealMax123 schrieb:
Sowas wie Ryzen 7 8845HS mit GeForce RTX 4050 für 999€ oder mit Georce RTX 4070 für 1.399€ verkaufen sich schon ziemlich gut.
Selbst in der 999€ Konfiguration mit GeForce RTX 4050 sehen die Spiele jetzt nicht so schlecht aus:
Ja die Dinger verkaufen sich, aber sie sind schrott. An so was würde ich ich als AMD gar nicht beteiligen. Diese 8GB Gurken haben sie ja letzte Generation verkauft. Die aktuellen Spiele laufen da grad noch ganz OK und in zwei Jahren sind die Dinger Müll. Nvidia betreibt hier schlicht Resteverwertung (was nicht per se verkehrt ist) und rauskommen Wegwerfprodukte, ob im Desktop oder im Notebook. Sieht man ja an der Schwemme bei Ebay. Da kaufste jetzt und in zwei Jahren wieder. Leider gibt es ja unter 2.000 Euro akutell nichts mit mehr als 8GB VRAM, also kannste neu aktuell auch so ne Gurke kaufen, wenn es denn unbedingt jetzt sein muss. In zwei Jahren stehste dann eh da wegen der 8GB, 5050 oder 5070, vollkommen egal - und leider eben auch die 7600/7700er AMD Gurken der letzten Generation. Das VRAM ist das Problem, nicht der Chip, schlicht weil Spiele davon immer mehr brauchen und reicht es nicht, bricht die Leistung massivst ein.
Die sollen die 16GB 9070(XT) selektiert als mobile bringen. Damit stechen sie alles unter der 5080 Laptop aus für die von dir genannten 1.500 Euro für Einstiegsmodelle, 9060 dann darunter. Halt einfach was sie als Desktop haben selektiert als Notebookvariante. AMD muss Nvidia ausstechen um Marktanteile zu gewinnen. Und gerade im Notebooksegment wäre es so einfach aktuell, hätten sie es sich nicht mit den Notebookherstellern verdorben.
 
blackiwid schrieb:
9070 und XT sind ja die gleichen chips, also Tomato Tamato...
9070 GRE hat 48 CUs, 9070 hat 56 CUs und 9070 XT hat 64 CUs deswegen sind es für mich schon drei unterschiedliche Ausbaustufen.

blackiwid schrieb:
Lieber gute obere Mittelklasse als verkorkste Oberklasse barely mit der 7900XT(X).
Leistungsmässig war die Raden RX 7900 XTX schon toll, aber das Problem ist das sie von der Länge und Dicke her ein total schwerer und klobiger Brocken war.

blackiwid schrieb:
Für die paar % die >1000 Euro für ne Grafikkarte über haben. Ich mein ich hätte nichts dagegen, aber scheint halt nichts zu kommen.
Ich wüde eine Radeon MAXX 9080 mit zwei 9070 GRE Chips bei so 949€ UVP und eine Radeon MAXX 9090 mit zwei 9070 Chips bei so 1.349€ UVP positionieren.

p-trettin schrieb:
Das gilt aber nur für die FE. Wenn man Board-Partner-Modelle vergleicht, dann sind die Nvidia-Karten auch ziemliche Trümmer. Es geht einzig um die Leistungsaufnahme = Abwärme, die weggeschafft werden muss.
Ab der GeForce RTX 5070 Ti gibt es von den Custommodellen auch keine wirklich kompakten Karten mehr das stimmt.

Aber bei der GeForce RTX 5050, RTX 5060, RTX 5060 Ti und RTX 5070 fallen viele Custommodelle schon deutlich kompakter als aus die Radeon RX 9060 XT.

Bei der RTX 5050 gibt es eine kurze Single-Fan Zotac Gaming GeForce RTX 5050 Solo 8GB als auch eine niedrige Low-Profile Triple-Fan Gigabyte GeForce RTX 5050 OC Low Profile 8GB.

Aber auch bei der RTX 5070 gibt es eine recht kompakte Zotac RTX 5070 Twin Edge 12GB und Inno3D GeForce RTX 5070 Twin X2 OC 12GB.

Da ist eine Sapphire Pulse Radeon RX 9060 XT 8GB die innerhalb der RDNA4 Radeons eh schon eine der kompaktesten Karten ist, immer noch ein bisschen grösser.
 
RealMax123 schrieb:
9070 GRE hat 48 CUs, 9070 hat 56 CUs und 9070 XT hat 64 CUs deswegen sind es für mich schon drei unterschiedliche Ausbaustufen.
Unterschiedlich beschnitten, teildefekte Chips...
RealMax123 schrieb:
Leistungsmässig war die Raden RX 7900 XTX schon toll, aber das Problem ist das sie von der Länge und Dicke her ein total schwerer und klobiger Brocken war.
Und die Effizienz / Stromverbrauch.
RealMax123 schrieb:
Ich wüde eine Radeon MAXX 9080 mit zwei 9070 GRE Chips bei so 949€ UVP und eine Radeon MAXX 9090 mit zwei 9070 Chips bei so 1.349€ UVP positionieren.
Das wäre aber sehr sehr ungewöhnlich für einen "Refresh" was Nvidia auch nur macht, man würde mit nem riesen neuen Lineup auf nen Refresh reagieren, und man hat wie gesagt deminishing returns, die 2 Chip Karte wird nicht 200% so schnell sein wie die 1 chip variante.

Die Frage ist halt auch wie man das genau machen will, braucht man dann einen extra chip der die 2 koordiniert oder benutzt man ne Art SLI system mit dessen Nachteilen, wie willest die Bilder z.B. aufteilen in der Berechnung und dann noch FSR anwenden FSR auf 2 Karten verteilen etc... also kein Plan ob das so einfach ist.

Theoretisch soweit ich das verstehe, aber kann mich irren, verbietet AMD den OEMs nicht sowas zu machen ob die das könnten weiß ich nicht.
 
So ganz trivial das es Boardkpartner ohne Unterstützung des Chipherstellers hinbekommen würden ist es wohl nicht, aber AMD sollte es schon irgendwie hinbekommen.

Entweder in einer Art Master-Slave Betrieb das der Masterchip die Recheneinheiten des Slavechips koordiniert, oder man teilt wirklich die Berechnung der Bilder auf beide Chips auf.

Weis nicht mehr wie das damals bei der Rage Fury Maxx war.
 
Zurück
Oben