GTX 1060 durch Vega 56 ersetzen

Ohne zu wissen welche Spiele in 4k gezockt werden sollen, kann man nicht sicher sagen ob eine Vega 56 reicht. TC Ghost Recon Wildlands läuft selbst auf einer RTX 2080TI nicht mit allen Details in 4k. Mit der Vega 56 muss man dann schon auf low stellen oder die Renderauflösung auf 50% setzen - beides wären heftige Qualitätseinbußen.

Bei Fifa, Mobas usw. reicht die Vega56 wiederum locker für 4k.

Der Preis geht inkl. Spiele für 300€ auf jeden Fall in Ordnung und eine Leistungssteigerung wäre es auch. Die GTX 1060 6GB geht so ca. für 140-160€ bei Ebay weg / Spiele abgezogen sind es dann vielleicht 100€ die du für das Upgrade bezahlst. -> Also kaufen ;)

(Ich gehe mal davon aus das kein Gsync Monitor vorhanden ist )
 
@Cool Master hinsichtlich des Netzteils, besitzt er bereits ein ausreichend starkes und modernes Netzteil aus 2017.

ohbacke schrieb:
Netzteil ist ein Xilence 550W Performance X 80+ Gold

Cool Master schrieb:
Für ~300 € findest du eigentlich ohne Probleme 1070er oder 1080er.

Aber weshalb sollte er sich für 300,00 Euro eine gebrauchte Grafikkarte kaufen, die auch nicht mehr Leistung als eine RX Vega 56 mit UV/OC bietet?

Eine RTX 2060 könnte ich gerade noch nachvollziehen, in 2019 würde ich persönlich aber keine 6GB VRAM mehr kaufen wollen.
 
Genau kaufe dann wenn du es brauchst, es ist einfach vom Zeitpunkt her ein finde ich günstiger, das verhältniss von Neukauf und Wiederverkauf passt beim Preis, man bekommt in spielen in Full HD ein ordentliches Leistungsplus das ich jetzt aktuell nicht "unbedingt" brauche aber mir für die Zukunft mehr ruhe gönnt und vor allem kann die VEGA OpenCL 2.0 die Geforce können alle nur 1.2 zumindest die aus der 1000 er Serie.

Nein der Monitor kann Freesync aber hat nur ein 60HZ Panel

Ich denke also auch das es sich derzeit lohnt umzusteigen bei den Preisen aufjedenfall und auch wenn man bedenkt das ich nicht High End möchte bei der Grafikkarte und "nicht in 4K unbedingt spielen muss".
 
  • Gefällt mir
Reaktionen: Palatas
@RYZ3N

Na ja Xilence ist nun nicht gerade ein guter Hersteller. Ob das wirklich 550 Watt liefern kann halte ich für fraglich. Am Netzteil sollte man nicht sparen. Gute Hersteller sind: be Quiet!, Enermax oder Seasonic. Diese Hersteller bauen und viel wichtiger designen ihre Netzteile selber. Die anderen Hersteller (EVGA, Corsair usw.) kaufen bei diesen Herstellern (idR Seasonic) ein.

Gebraucht bekommt man für ~300 € halt mehr Leistung im Vergleich zu einer 56. Hab mal Kleinanzeigen und ebay vorhin überflogen und da gehen 1080er, je nach Modell, für um die 300-350 € weg. Man bekommt also für das Budget die Leistung einer Vega 64 statt 56.

RAM spielt keine Rolle. Bevor RAM wirklich eine Rolle spielt ist die GPU eh schon lang am Limit, außer der RAM ist wie z.B. bei der 970 nicht voll angebunden. Es gibt natürlich außnahmen aber idR ist die GPU Leistung wichtiger als VRAM.
 
borizb schrieb:
Nope. Sicher nicht. Die 56 war nie und wird nie eine 4K Karte sein für aktuelle Spiele.
(ok, ich kann auch mit meiner 1060 in 4K zocken, low Details @40fps, 3 Jahre alte Games)
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-3840-2160

Und immer diese Speicher Diskussion. Wie viele Benchmarks müsst ihr noch lesen um zu
sehen dass der Speicher nicht vorrangig ist für die Leistung? Es ist in 9/10 Fällen der Chip!
Die 2080 mit 8Gb ist in 4K schneller als die 1080Ti mit 11GB. Die 1080Ti mit 11Gb Speicher
ist schneller als die AMD VII mit 16GB RAM. Auch in 4K, auch in High Detail. In 9/10 Spielen!

Exakt so steht es im Benchmark und exakt so sollte es auch dem Fragesteller gesagt werden.

Wo bitteschön schreibe ich, dass die Vega 56 eine 4K Karte ist (was immer das sein soll)? Ich habe extra in ihrer Preisklasse unterstrichen, da es für mehr Geld natürlich bessere Karten gibt.
Es wurde ausdrücklich geschrieben, dass keine Ultra Details nötig sind. und da gibt es für 300 € momentan nichts schnelleres zu kaufen. Evtl. eine 1070, die ist aber auch etwas langsamer.

Da es dem TE vorrangig um Videoschnitt geht, ist der Vram je nach Videoauflösung und genutzten Tools sehr wohl ein wichtiger Faktor. In Programmen wie z.B. DaVinci Resolve sind die Vegas verdammt schnell und eine optimierte Vega 56 kann mit einer Custom 1080ti leistungsmäßig mithalten. HBCC funktioniert übrigens auch in solchen Compute-Workloads.
Link
 
@Cool Master ich weiß ja nicht wie du mich einschätzt, aber ich sage nicht „Hey er hat ein ausreichend gutes Netzteil!“, wenn ich das Netzteil nicht kenne.

Das Xilence Netzteil des TE war u.a. hier im ComputerBase Test.

2E4A2709-A5CD-446B-9765-08C106D7B146.jpeg


Zudem habe ich es auch schon mit einer RX Vega 64 FE in Betrieb genommen.

Es reicht vollkommen aus um eine RX Vega 56 damit zu betreiben.
 
  • Gefällt mir
Reaktionen: Acedia23
kommt immer auf die Ansprüche an.
natürlich schafft die vega56 aktuelle Spiele nicht auf 4k mit Ultra Settings. aber in High kann ich alles was ich hab in 4k (in meinen Augen ) Ruckelfrei spielen.
 
Manchmal sollte man über den Tellerrand schauen, ich kann es nicht oft genug Posten den Link zum Test des Xilence Netzteils es schenidet selbst in vielen bereichen besser als das Bequiet Pure Power 10 ab.

https://www.computerbase.de/2017-09/80plus-gold-netzteil-test-corsair-xilence/5/

Aber das ist dann, was der Bauer nicht kennt das Frist er nicht :-)
Ergänzung ()

Und zur not hab ich hier auch noch ein Bequiet System Power 9 mit 600 Watt im anderem Rechner verbaut, die zu tauschen wären nicht das Problem wobei ich mir sicher bin das das Xilence hier seinen Job besser macht ;-)
Ergänzung ()

Zu den Ansprüchen sag ich es gerne noch mal in erster Linie Videoschnitt und nach Bearbeitung mit Effekten und das eben auch von Videos in 4K deshalb auch der 4K Monitor. Spielen nur gelegentlich und dann nicht unbedingt die neuesten Spiele und ich brauch auch nicht unbedingt in jedem Spiel 4K und Ultra High wenn ich das wollte würde ich bestimmt abwarten bis Navi raus kommt. Ich möchte jetzt upgraden weil das Verhältnis zwischen Wiederverkauf und Neuanschaffung recht gut ist. Ich wollte auch nur wissen ob jemand Erfahrung hat zur Mehrleistung bei Videobearbeitung, Spiele Benchmarks findet man wie Sand am Meer ;-) Aber darum ging es mir ja gar nicht unbedingt.
 
Zuletzt bearbeitet:
Irgendwie finde ich den Begriff "4k Grafikkarte" schwer greifbar. Meine Ersatzkarte (AMD RX 460 2GB) kann auch 4k (Desktop sowie simple Spiele wie They Are Billions) und kein Gamer käme auf die Idee diese als 4k Karte zu bezeichnen.

Letztlich muss jeder selbst prüfen was er zockt und welche Auflösung/Qualität für ihm ausreichend ist.


@ netzteil - Reviews suchen und man hat schon mal einen guten Anhaltspunkt für das jeweilige Netzteil. Sobald ein Gold oder Platin Aufkleber drauf ist ( glaubwürdig / bekannter Hersteller), ist die Gefahr das es ein Chinaböller ist wohl auch sehr gering.
 
Cool Master schrieb:
Ich würde eher Richtung RTX 2060 schauen.
Bei allem Respekt, der TE schreibt hier gerade dass es Hauptsächlich um 4k Videoschnitt geht und da kann man einfach nicht guten gewissens eine Grafikkarte mit 6GB VRAM empfehlen!
Ergänzung ()

Mit welchem Programm arbeitest du denn @ohbacke ?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Shadow86 und andronom
Bisher mit Pinnacle Studio 21.5 und wollte jetzt entweder auf das 22 Upgraden mit aber vorher noch mal Adobe Premier und After Effects an schauen
 
Ich hab gerade mal ein 4k Projekt in DaVinci aufgemacht, die 8 GB VRAM sind da sofort voll und meine graka arbeitet auf full power mit für die videovorschau.

(Intressanter hint: Die vega taktet bei mir in Games bis max 1600 -im videoschnitt programm allerdings auf den eingestellten turbo von derzeit 1650!) :daumen:

Also nix unter 8 GB anrühren....
 
@Fuchiii vielen lieben Dank das ist mal eine Aussage die ich gesucht habe, also würde man die Mehrleistung der VEGA sowohl beim VRAM als auch der GPU spüren.
 
ohbacke schrieb:
Bisher mit Pinnacle Studio 21.5 und wollte jetzt entweder auf das 22 Upgraden mit aber vorher noch mal Adobe Premier und After Effects an schauen
Ok..also.. Adobe profitiert zumeist sehr von Nvidia, Im Da Vinci konkuriert die Vega 56 lt. Test mit ner 1080Ti.
Bei Pinnacle find ich grad kein vergleich^^
Ergänzung ()

Adobe Premiere Pro
1551869553218.png


Da Vinci:

Die Vega 56 lässt sich mittels Wattman und einem Bios-Flash auf eine Rechenleistung heben die bei Berechnungen in DaVinci Resolve 14 einer Nvidia 1080Ti mindestens ebenbürtig ist, bzw. diese sogar noch etwas übertreffen kann. Nicht umsonst wird der gleiche Vega-Chip in anderen Konfigurationen auch in Serverbeschleunigern und Workstation-Karten vermarktet und kann dort deutlich teureren Karten von Nvidia bemerkenswert paroli bieten.
 
Davinci werde ich mir auch mal anschauen, an Abo stört mich bisher ehrlich gesagt das man es nur als Abo bekommt. Und Pinnacle habe ich damals gewählt als ich damit angefangen habe und es eben eine tolle MultiCam Unterstützung hatte. Bin da nicht so der Profi drin ich finde klick klick immer schön um zb. Farben aufzufrischen oder um das licht zu korregieren aber so nach und nach wird es eben immer mehr und da wollte ich dann auch mal eine bessere Software. Es stört mich auch nicht ob ich nun 5 Minuten warten muss oder 1 Minute.
Ich fand nur den Zeitpunkt gerade gut für ein Upgrade wegen der kosten. Und für 100 bis 150 Euro Effektiv ein Leistungsplus von 50% geht man jetzt mal von Spielen aus finde ich ok.
 
  • Gefällt mir
Reaktionen: Fuchiii
Ich denke verkehrt liegste nicht mit ner Vega 56 - Adobe ABO-Modell is zum kotzen, deshalb verwende ichs nicht mehr.
Und wie gesagt die Vega sind gute Arbeitstiere und sauschnell - wenn man nicht grad Adobe verwendet - da hat Nvidia die nase vorn.
 
Interessant zu wissen wäre jetzt bei dem vergleich den Du gepostet hast wer die Berechnung durch geführt hat den Adobe hat da Probleme mit der Igpu bei Intel wenn man OpenCL benutzt wird. Greift irgend wie immer auf die Igpu zurück. Gibt da aber auch irgend welche Work Arounds. Aber genau nach gelesen hab ich da noch nicht wie man es schafft die GPU zu nutzen soll aber machbar sein.
 
Fuchiii schrieb:
Bei allem Respekt, der TE schreibt hier gerade dass es Hauptsächlich um 4k Videoschnitt geht und da kann man einfach nicht guten gewissens eine Grafikkarte mit 6GB VRAM empfehlen!

Da ich selber Videoschnitt mit Premiere Pro und Davinci Resolve gemacht habe und mache kann ich dir sagen, dass der VRAM einer GPU 0 Auswirkung auf Videoschnitt hat. Wichtig ist eins und zwar das es eine dGPU gibt. Ich hab auch schon auf nem MacBook Pro 13" Video geschnitten mit iGPU und "nur" 1,5 GB VRAM da begrenzt die CPU bevor es die GPU tut.
 
In welcher Auflösung? in FullHD lieg ich in DaVinci auch unter 3 GB - beim öffnen eines 4k projekts ist der VRAM während des bearbeitens allerdings voll.
Die Effekte werden mWn über die Grafikkarte gerendert daher auch unter anderem der Videospeicher notwendig.
Ergänzung ()

"für 4K können 3-4GB auch knapp ausreichen, wenn man nur homöopathisch die Noise[IMG]https://www.slashcam.de/images/zumglossar.gif[/IMG] Reduction, Motion Blur[IMG]https://www.slashcam.de/images/zumglossar.gif[/IMG] und Time Remapping in parallelen Nodes einsetzt. "
"Wer mit 4K bis auf weiteres auf der sicheren Seite sein will, sollte daher beim GPU-Neukauf so viel GPU-RAM nehmen, wie er aktuell für einen vernünftigen Preis bekommen kann."
Quelle: slashcam -> davinci test

Empfehlung sind hier dann 6GB, damals gabs nicht mehr! 2014!

Das man am besten so viel wie möglich an VRAM mitnimmt hat sich nicht geändert - in aktuellen Foren wird empfohlen in jedem Fall oberhalb 8GB in Davinci zu liegen.

Wenn ichs richtig weis gleicht das Prog das ansonsten über den normalen ram aus, was aber einbusen in der Geschwindigkeit mit sich bringt.

Sry - aber das VRAM nichts damit zu tun hat ist einfach nicht korrekt.

Und klar kann man auch mit 1,5 GB VRAM arbeiten - vermutlich dann ohne oder nur mit bedingter Grafikbeschleunigung. Wie gesagt..wir reden hier von 4k und nicht von FullHD! Mach mal ein 4k Video auf und setzt da paar effekte drauf, da war sogar mein videoram bei fast "9GB", hat also schon auf den RAm vom PC zurückgreifen müssen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben