Der unheilige Build (R7 2700X + ARC 770)

E2K3

Newbie
Registriert
Feb. 2009
Beiträge
7
Hallo Zusammen,

seit vielen Jahre verfolge ich hier schon die Community, aber bisher wusste ich nicht so recht, ob ich da was sinnvolles beitragen kann.
Aber da ich im Internet nichts gefunden habe, wo jemand diese Kombo schonmal versucht hat, dachte ich schreibe ein bisschen was dazu.

Kleine Einleitung:
Normalerweise ist mein 2. PC immer die Hardware, die im Main PC rausfliegt, ich denke dieses System haben viele. :D

Irgendwann kam ich zufällig mal in GPU-Z in die Sektion rein, wo dran steht ob resizable-bar funktioniert und ich war überrascht, das bei Board und CPU kompatibel dranstand. (B450 Mainboard)
(muss wohl bei irgend einem BIOS update dazugekommen sein)
Ich wollte immer schonmal aus purer Neugierde ne ARC ausprobieren, aber das scheiterte immer daran, das ich die in den Main-PC hätte einbauen müssen und den wollte ich jetzt nicht unbedingt downgraden :D

Naja Arc 770 16GB bestellt, alte 1080ti raus, DDU durchlaufen lassen und auf der Intel Seite ne weile nach dem Treiber gesucht.
Ehrlich, ich hab schon übersichtlichere Downloadportale erlebt. (#Hust# AMD/Nvidia)

Und ähm... funktioniert wunderbar.

thumbnail_IMG_20230411_215041154.jpg

(Natürlich gleich mal die Farbe auf rot stellen :smokin:)

Bin selber etwas überrascht, aber bis auf die Tatsache, das bei Tempest Rising Schienen nicht gerendert werden und es aussieht als würden die Züge über den normalen Boden fahren, läuft die Karte bisher ohne Probleme.

Selbst Cyberpunk 1440p schafft sie gut:
Cyberpunk2077 2023-04-11 22-01-42.png

(Das ist hier ein wilder mix an Settings und kein Preset. Ist also nicht vergleichbar mit anderen Benchmarks)

Selbst wenn ich RT Reflektionen anschalte sinds dann noch ca 45 FPS.

Irgendwie interessant, das auch wenn der 2700X von Intel offiziell nicht supported ist, der entscheidende Faktor wirklich nur ReBar zu sein scheint und solange das System das hat ist alles easy.

Hab noch nie für nen 2. PC irgendwelche Hardware gekauft, ist ja normalerweise eher die Zweitverwertung aus dem Main PC.
Aber hat auch was, auf der ersten "Mainstream" Gaming Grafikkarte zu zocken die Intel jemals produziert hat.
(Ich weis da gabs schon frühere Versuche, aber das waren ja nicht gerade normale consumer Produkte)

Naja was denkt Ihr so, wird das noch was mit den Intel Karten?

Ich finde bisher siehts ganz gut aus und wenn man sieht wie schwer sich selbst ein Gigant wie Intel tut, sieht man erstmal wie schwierig es ist da einzusteigen.
Ist noch kein Meister vom Himmel gefallen und ich hoffe sie bleiben am Ball. Das wird schon.

na dann bin mal weg, cya.
 
  • Gefällt mir
Reaktionen: JohnDonson, Flo42, Tilman24 und 6 andere
Alchemist hat noch n paar Probleme mit der Leistung vs chipfläche und son paar unity games hakeln etwas, aber generell funktioniert arc als first gen Produkt schon ziemlich gut, vorallem in raytracing Titeln - allerdings geht da der a770 doch auch mal die puste aus - ist halt keine high end karte.

Ich denke Intel hat genügend Potential, um da mit Weiterentwicklungen noch richtig was zu reißen. Ist aber ab hier eine willens- und Budgetfrage und da hab ich so meine Zweifel bei Intel im moment.

Ich hoffe Intel bleibt dabei. AMD kann man als Konkurrenz bei den gpus abhaken, die wollen nicht mehr. Intel geht wenigstens bisher noch aggressiv über den Preis und features. AMD geht den Weg des geringsten Widerstands: nvidia - 10%.
 
E2K3 schrieb:
Naja was denkt Ihr so, wird das noch was mit den Intel Karten?
Mit der Generation? Nein.
Und fraglich obs noch eine weiter Generation gibt.
Und genau hier beißt sich die Katze in den Schwanz: Wann stellt Intel die Treiberentwicklung ein, wenn sie die Sparte einstampfen? Da haben sich schon einige eine blutige Nase geholt bei Intel.
Ich sag nur Core i7-8809G mit Vega-Grafik. Da war auch Intel zuständig für die Treiberentwicklung und selbst da mussten sie eigentlich nur anpassen und nicht von grundauf entwickeln und das ist furchtbar gelaufen.
Ergänzung ()

duskstalker schrieb:
AMD kann man als Konkurrenz bei den gpus abhaken, die wollen nicht mehr.
Wie kommst du darauf?

duskstalker schrieb:
Intel geht wenigstens bisher noch aggressiv über den Preis und features.
Weil sie sonst die Teile gar nicht losbekommen. Das ist aber eher Not anstatt Geschäftsmodell. Das wird nicht noch eine Generation so gehen, dass man sich hier aus Prestige (gut, war es ja jetzt nicht wirklich, gell) ein Milliardengrab leistet, wo andere Bereiche auch ziemlich am Trudeln sind, die aber konkurrenzfähig sind.
 
rg88 schrieb:
Wann stellt Intel die Treiberentwicklung ein, wenn sie die Sparte einstampfen?

ist natürlich ne Gefahr, aber das haben andere leute auch schon mit threadripper zwei mal erlebt - mit ca. zehnfachem geldeinsatz.
 
Was meinst du?
Ich wüsste jetzt nicht, warum ich bei einer CPU ständig aktuelle Treiber brauche.
Bei einer GPU brauch ich die aber potentiell bei jedem neuen Spiel das rauskommt, wenns rund laufen soll
 
rg88 schrieb:
Ich sag nur Core i7-8809G mit Vega-Grafik
Ja das war ne ganz komische Aktion, das war soweit mir bekannt ja nur nen AMD Treiber mit ner anderen Farbe und nem anderen Logo.

rg88 schrieb:
Mit der Generation? Nein.
Ja ok, das hätte ich vl besser hinschreiben können, mit der Generation denke ich auch ned das die noch große Sprünge machen werden.

Ich denke auch der Knackpunkt ist, ob sie am Ball bleiben. Wenn da irgend ein Erbsenzähler meint das bringt nix dann wird das wohl ein sehr kurzer Ausflug ins Land der Grafikkarten für Intel.
 
E2K3 schrieb:
Ja das war ne ganz komische Aktion, das war soweit mir bekannt ja nur nen AMD Treiber mit ner anderen Farbe und nem anderen Logo.
jein, die haben von AMD die Treiber bekommen, mussten sie aber selbst anpassen. Die normalen von AMD liefen da nicht, weil das ja jetzt doch ein kleines bisschen mehr ist, als nur Farbe ändern ;)
Das haben sie getan... so zweimal auf ein Jahr...

E2K3 schrieb:
Ich denke auch der Knackpunkt ist, ob sie am Ball bleiben. Wenn da irgend ein Erbsenzähler meint das bringt nix dann wird das wohl ein sehr kurzer Ausflug ins Land der Grafikkarten für Intel.
Da musst kein Erbenszähler sein. Was die da mittlerweile versenkt haben gleicht eher Hinkelsteinen.
Zumal sie Koduri auch schon gekickt habe, was jetzt kein gutes Zeichen ist, dass man sich aus der Sparte noch viel erwartet (wobei es bei AMD auch eher besser lief, als der weg war ;) Vielleicht ist es ja als positives Zeichen zu werten)
Du musst mal sehen, wie groß die Sparte von AMD im Vergleich ist und die schaffen es nur alle paar Quarale, dass sie das schwarze Karten schreiben. Das ist nicht so einfach in dem Bereich. Dann mit einem winzigen Marktanteil, einem jetzt schon ramponiertem Image und nur über den Preis da reinzudrängen... das wird auch Intel eher nicht gelingen, dass sie da noch auf einen grünen Zweig kommen.
Aber wer weiß, es sind schon andere Sterne am Hardwarehimmel gefallen. Wer sagt, dass es nicht irgendwann auch mal Nvidia treffen kann
 
duskstalker schrieb:
AMD kann man als Konkurrenz bei den gpus abhaken, die wollen nicht mehr
Das würde ich so jetzt auch nicht formulieren, die hatten auch schon Phasen wo sie nur bis zum Midrange was hatten (RX 4xx/5xx) Generation.
Und dann kam mit RX 6000 auch auf einmal der Sprung nach ganz vorne wieder.

Ich weis, mir kommt die ganze RX7000 Geschichte auch ein bisschen habherzig vor, aber wenn man bedenkt das Nvidia diesmal auch sehr brutal nach vorne gesprungen ist mit dem "Wir hätten gern alles" Chip in der 4090.
Wer weis....
Ergänzung ()

rg88 schrieb:
Das haben sie getan... so zweimal auf ein Jahr...
Ahh, hatte das dann bissl falsch in Erinnerung.

rg88 schrieb:
Da musst kein Erbenszähler sein. Was die da mittlerweile versenkt haben gleicht eher Hinkelsteinen.
Wenn manns so betrachtet, stimmt.
Ist aber auch viel Treiber, ich denke das haben die massivst unterschätzt.

Aber wie gesagt, wir werden sehen obse aufgeben oder nicht.
Ich kann da auch keine Vorhersage geben. :)
 
Zuletzt bearbeitet:
E2K3 schrieb:
Ist aber auch viel Treiber, ich denke das haben die massivst unterschätzt.
jepp, aber das haben auch viele im Vorfeld schon prophezeit, dass sie das aufstellen wird und genauso ist es passiert.
Und das wird bei einer neuen Arch wieder nicht von Anfang an klappen befürchte ich.
E2K3 schrieb:
Aber wie gesagt, wir werden sehen obse aufgeben oder nicht.
Wobei ich glaube, dass wir eher die aktuelle noch einmal sehen als lauwarmen Aufguss als Shrink um nochmal irgendwie ein wenig den Verlust zu verringern und dann ist Sense. Glaube einfach nicht dran, dass die da nochmal weiter machen und erneut Milliarden versenken werden. Dafür sind sie einfach zu weit weg.
Ergänzung ()

E2K3 schrieb:
Ich weis, mir kommt die ganze RX7000 Geschichte auch ein bisschen habherzig vor, aber wenn man bedenkt das Nvidia diesmal auch sehr brutal nach vorne gesprungen ist mit dem "Wir hätten gern alles" Chip in der 4090.
Ich denke schon, dass die 7000er Gen ziemlich gut war. Aber Nvidia hat halt da brachial was rausgehaut, wenn auch zu einem absurden Preis.
Aber das reicht ja bekanntermaßen um nach unten abzustrahlen. Die Leute kaufen ja am liebsten Karten von dem, der das schnellste Modell hat.
Aber sie kaufen dann nicht das schnellste Modell und Konkurrenzprodukte werden dann gleich ausgeblendet. Ziemlich absurd eigentlich aber so Ticken die Leute, wenns um Marken geht
 
AMD hat bei RDNA2 halt enorm von der moderneren Fertigung profitiert. Der Vorteil ist nun halt weg und NV glänzt, wie die vielen Generationen vorher, wieder vor allem durch Effizienz. Das war halt so ein wenig der "Win" bei AMD bei RDNA2: Die Karten waren im direkten Preisvergleich meist günstiger, häufig schneller und nicht selten sogar effizienter. Abstriche musste man halt bei RT machen.

Jetzt bleibt AMD eigentlich nur noch der großzügigere VRAM. Also würde ich jetzt wieder kaufen, würde ich wohl zu NV greifen. Das sind halt trotz aller Unkenrufe in Bezug auf die Preise dann doch die attraktiveren Karten. Das Thema VRAM ist ja quasi Dauerthema beim Vergleich AMD vs NV. Wäre NV noch mit 4 oder 6 GB RAM kam, waren es bei AMD schon 8. Wenn NV 10-11 GB verbaut hat, waren es bei AMD halt schon 16...
Oder so Experimente wie mit HBM.

Immer mit dem "Traum", dass AMD-Karten besser altern. Das taten sie z.T. auch. Aber nicht wegen des VRAM, sondern weil AMD immer wieder die theoretische Rohleistung anfangs nicht auf die Straße gebracht hatte...

NV ist halt Lichtjahre voraus. Gerade in Bezug auf Features. Und NV will halt, dass du regelmäßig neue Karten kaufst. Ist halt Unternehmen. Die verdienen kein Geld, wenn du deine Karte ein halbes Jahrzehnt behältst. Also "sparen" sie am VRAM. Für heute genug, für morgen gerade noch genug und für übermorgen eben zu wenig.

Nur wenn es zu wenig sind, reißt es dann auch eine aktuelle AMD-Karte mit 20 GB im Zweifel auch nicht mehr raus.

Und Intel? Günstig? Finde ich nicht. Ja, die Chips sind riesig und viel Marge wird Intel nicht haben. Aber im Verhältnis Leistung zum Preis ist Intel nicht einmal günstig. Das Problem mit älteren Spielen darf man nicht ganz ausklammern. Die Effizienz ist für den Poppes.
Hoffnung macht, dass die Architektur bei Intel in Bezug auf RT wohl durchaus in Richtung NV gehen kann.

Ob Intel der Messias wird? Ich glaube eher, dass Intel im Zweifel tödlich für AMD werden könnte. Wenn Intel sich wirklich breit am Markt macht, werden wohl zu erst die Marktanteile von AMD nachgeben...

@rg88 NV hat nicht nur mit der 4090 einen rausgehauen. Auch die 4080 ist ggü. der 7900 XTX das bessere Gesamtpaket und auch die 4070 Ti muss sich vor einer 7900 XT nicht verstecken. Selbst nicht im Verhältnis zum Preis.
Spätestens wenn ich RT einschalte. Und bei den Preisbereichen erwarte ich tatsächlich, selbst wenn es nicht das Hauptaugenmerk ist, dass die RT-Leistung ordentlich ist.
AMD ist halt auch nicht günstig. Und AMD war auch zuerst da, als es darum ging, die UVP anzuheben. Ich erwähne da nur gern den RDNA2-Refresh, der quasi einstellige Mehrleistung zu teils deutlichen Aufpreisen verkauft hat.
NV dagegen platziert halt jetzt die neuen Karten mit identischer Leistung der Vorgängergeneration genau in deren Preissegmenten. Was aber auch einfach daran liegt, dass die Vorgängergeneration erst jetzt überhaupt in die Nähe der ursprünglichen UVP kommt.
Eine 3060 Ti bspw. bekomme ich Stand heute nicht zur UVP. Wieso sollte NV dann die neue Generation dort einsteigen lassen?
 
kachiri schrieb:
Immer mit dem "Traum", dass AMD-Karten besser altern. Das taten sie z.T. auch. Aber nicht wegen des VRAM, sondern weil AMD immer wieder die theoretische Rohleistung anfangs nicht auf die Straße gebracht hatte...
Doch, der VRAM ist auch ein Thema, warum man mit einer alten AMD-Karte länger durchkommt. Wieviele nutzen heute noch eine 970er?
 
rg88 schrieb:
Aber sie kaufen dann nicht das schnellste Modell und Konkurrenzprodukte werden dann gleich ausgeblendet. Ziemlich absurd eigentlich aber so Ticken die Leute, wenns um Marken geht
Das wird generell der Grund sein wieso Nvidia immer um jeden Preis ganz oben in den Benchmarks laden will.
Hat man ja auch mit der 1080ti gesehen, das war auch ein untypisch großer Sprung, vermutlich auch um sicherzugehen, das egal was AMD raushaut man trotzdem an der Spitze landet.

Ist hald schade, denn am meisten befürchte ich das AMD da auch irgendwann raus "noped" und dann können wir uns erstmal auf Preise gefasst machen von Nvidia.
Oder wie bei Intel damals Innovation im kriechtempo.
 
kachiri schrieb:
AMD ist halt auch nicht günstig.
Nö, müssen sie ja auch nicht. Sie verlangen eben das, was sie angesichts der Leistung und Ausstattung verlangen können. Sind ja auch keine Wohltätigkeitsorganisation.
Aber wir kommen gewaltig vom topic ab
 
Du kommst jetzt mit einer Karte, die 8 Jahre alt ist? Ernsthaft? Aber wenn ich jetzt mal in die Steam Survey schaue, ist die 970 wohl häufiger im Einsatz als beispielsweise eine RX 480. Die ist btw. 2 Jahre jünger. Bei AMD war man damals ja schon froh, wenn man mit der "stärksten" Karte die 60er Karten von NV irgendwie geschlagen hat. Mit extrem schlechter Effizienz...
 
kachiri schrieb:
Immer mit dem "Traum", dass AMD-Karten besser altern. Das taten sie z.T. auch. Aber nicht wegen des VRAM, sondern weil AMD immer wieder die theoretische Rohleistung anfangs nicht auf die Straße gebracht hatte...
Jain, dazu muss ich sagen das gerade bei VRAM es auch Spiele gibt die nicht kapieren wenn der VRAM voll läuft. (Ghost Recon Breakpoint im Vulkan Modus z.B)

Und da hatte ich mit meiner 1080ti 50 FPS an stellen wo mein Kumpel 30 hatte mit seiner 2080.
Das ging dann als er Texturen auf mittel gestellt hatte, aber da war er schon auch pissed, das ich mit meiner älteren Graka das auf höheren Settings zocken konnte obwohl unsere Chips +/- gleich schnell waren.

Seitdem bin ich da sehr vorsichtig mit VRAM.
Was traurig ist, weils meistens ja reichen würde wenn die Spieleentwickler da mehr optimieren würden. Ich brauch nicht für irgend welchen winzigen Objekte gleich 8k Texturen.
Ergänzung ()

kachiri schrieb:
Du kommst jetzt mit einer Karte, die 8 Jahre alt ist? Ernsthaft?
Ganz ruhig, das war doch nur ein Beispiel, das AMD schon öfter so Szenarien hatte wo sie nicht an Nvidias Spitzenmodelle rangekommen sind und es so aussah als ob sies nicht mal versuchen würden.
 
E2K3 schrieb:
Was traurig ist, weils meistens ja reichen würde wenn die Spieleentwickler da mehr optimieren würden.
Und genau DAS ist eigentlich der springende Punkt. Das Spieleentwickler scheiße faul sind bzw. einfach nur Cash sehen kommt AMD sogar entgegen. Die Spiele sind für den PC so beschissen optimiert, obwohl der Mainstream halt doch eher mit 4, 6 oder 8 GB durch die Welt rennt und eben nicht mit 20 GB. Und auch durch die Konsolen ist das nicht erklärt, weil selbst die PS5 und die XBOX Series mit 16 GB gemeinsam(!) genutzten Speicher für CPU- und GPU-Einheit kommt.

Also eher Spieleentwickler lynchen.

Was heißt nicht versucht. Sie haben es mit der Vega 56 und 64 ja durchaus versucht. Sogar mit relativ teuren HBM-Speicher. Es ist definitiv nicht so, dass AMD nicht will. Aber wenn du halt nur 10-20% Marktanteil hast und mit deinen Karten auch meist geringere Margen erzielst, holst du den Rückstand einfach nicht auf, wenn die Konkurrenz nicht komplett verpennt (Guten Morgen, Intel).

NV ist regelmäßig
  • effizienter,
  • schneller,
  • hat die besseren Features

Das AMD bspw. so Dinge wie Freesync (Premium) oder jetzt auch FSR für quasi "alle" Karten anbietet, ist ja auch nur Selbstzweck. Irgendwie muss man ja Argumente für sich sammeln. Und das gilt eben auch beim VRAM.

Wie gesagt. Beim Vergleich 3000er vs 6000er habe ich gerne zu AMD gegriffen. Aktuell würde ich wohl eher wie zu NV greifen. Aber dafür müsste ohnehin erstmal Karten in meinem Bereich kommen, um das wirklich einschätzen zu können.
Aber NV kann derzeit so arg sparen, beim SI, beim Chip und überall und ist halt trotzdem noch schneller oder zumindest nicht langsamer.
 
kachiri schrieb:
Du kommst jetzt mit einer Karte, die 8 Jahre alt ist? Ernsthaft?
Es geht um den Speicher, nicht um das Alter. Und da kannst auch eine 1060 nehmen die durch 3 (LOL!) oder 6GB schon zeimlich aus dem letzten Loch pfeift, wo vergleichbar schnelle 480/580er mit den 8GB noch deutlich weniger Probleme haben.
Jetzt haben wir lächerliche 10GB vs 16GB bei Karten im High-End. Warum sollte man soviel Geld ausgeben und dann nur eine 10GB-Karte dafür akzeptieren? Das steht in keinem Verhältnis aus meiner Sicht.
Ergänzung ()

kachiri schrieb:
weil selbst die PS5 und die XBOX Series mit 16 GB gemeinsam(!) genutzten Speicher für CPU- und GPU-Einheit kommt.
du hast aber auch eine ganz andere Leistungsklasse bei so einer Konsole im Vergleich zu aktuellen Grafikkarten. Das kannst so nicht einfach vergleichen
 
kachiri schrieb:
holst du den Rückstand einfach nicht auf, wenn die Konkurrenz nicht komplett verpennt
Naja ich denke das ist der springende Punkt.
Nvidia ist nicht so leicht zu knacken, weil sie auch wenn sie vorne waren immer weiter gepusht haben.
Und an RX 6000 sieht man finde ich gut das das auch berechtigt ist.
RX 5000 im High-End mal wieder nix und auf einmal 3090 eingeholt mit RX 6000.
Da hatte Nvidia nur die RT Performance und DLSS gerettet.

Aber ich hab da ursprünglich auf die 3080 20GB gewartet und als die nicht kam dann anderweitig geschaut.
Wäre auch seltsam gewesen 2 Generationen später dann wieder von 11GB auf 10GB downgraden mit dem wissen dass manche Spiele dann wieder Probleme kriegen.
 
E2K3 schrieb:
RX 5000 im High-End mal wieder nix
Dafür war sie auch nicht konzipiert. Siehst ja schon am Namen den Modelle, dass man damit nicht den High-End-Bereich angegriffen hat. Über 5700 gabs nix.
Das Produkt ist eher "zufällig" abgefallen, weil zu der Zeit die meisten Ressourcen in der RDNA-Entwicklung für die Konsolenchips gebunden waren und das hatte absolute Priorität (und zahlt sich für AMD auch durch einen permanenten Cashflow heute noch aus). Entsprechend war die Optimierung der Architektur im Mittelfeld verortet und wurde dann eben für eine Destop-Karte adaptiert. War auch ein guter Weg um von GCN auf RDNA umzusteigen, weil man erstmal nur wenige Chips abdecken musste mit dem Treiber. Ist ja immerhin eine wirklich neue Arch gewesen.

Die 6000er war dann wieder eine richtige Desktop-Architektur und auch für den oberen Bereich gedacht.
Aktuell sind die 6800XT preislich zumindest das attraktivste am Markt, auch in Anbetracht des großen Speichers.
 
rg88 schrieb:
Das Produkt ist eher "zufällig" abgefallen, weil zu der Zeit die meisten Ressourcen in der RDNA-Entwicklung für die Konsolenchips gebunden waren und das hatte absolute Priorität
Ich dachte die Konsolen wären näher an RDNA2 dran als an RDNA.
Ging mir auch eher darum, das nur weil die Konkurrenz gerade nicht im High end angreift, sich das schnell ändern kann.

RX 6800XT hab ich, die war günstig zu haben und da hab ich schnell zugeschlagen.

Und seitdem spiele ich neben Cyberpunk lauter Spiele wo selbst meine ganz alte 980ti gereicht hätte :D
Ergänzung ()

Oder die ARC, da sitze ich mittlerweile auch oft am 2.PC um zu sehen ob Spiel X/Y auf der ARC läuft. :D
 
Zurück
Oben