Ersatz für eine 1050Ti

Bentosan schrieb:
Ab Anfang 24 dürfte es wieder interessanter werden, da werden die 8000G Apu's rauskommen. Wäre zwar eine neue Platform, aber es könnte durchaus sein, dass die CPU alleine alle Kriterien erfüllt. Mehr CPU und GPU Leistung bei weniger Verbrauch.
ich bin kein Fan von nagelneuen Dingen gleich kaufen, aber dann passt es ja Ende 24, Anfang 25 mal zu schauen, wenn es was taugt ist es dann auch ohne Kinderkrankheiten und bezahlbarer
Bentosan schrieb:
Verbrauch ist nach wie vor niedriger und mit der IGPU ist das später auch als Standalone zu verwenden. Gerade bei ITX wirklich ne Überlegung wert. Laufen auch mit den Mini ITX Netzteilen von Pico oder Inter-Tech und passen daher ohne Probleme in die kleinesten Gehäuse.
hab ein ITX Gehäuse von CoolerMaster, läuft aber mit einem ATX Standard Netzteil, klein genug das es auf den Tisch passt und groß genug das alles ohne Probleme reinpasst
Bentosan schrieb:
Alternativer Kühler statt Noctua von Thermalright. Geht hier nur um die Höher der Lüfter, Boxed reicht meistens ohne Probleme und mit tweaks ist auch der leise.
ich verbaue schon seit Ewigkeiten immer eine Wasserkühlung, dafür ist immer Platz über der CPU
 
Eddy021771 schrieb:
ich bin kein Fan von nagelneuen Dingen gleich kaufen, aber dann passt es ja Ende 24, Anfang 25 mal zu schauen, wenn es was taugt ist es dann auch ohne Kinderkrankheiten und bezahlbarer
Naja, Nagelneu kann man auch anders auslegen. Sowohl die RDNA Technik in der CPU, als auch die Technik die hinter dem Aufbau steht ist schon mehrfach veröffentlich worden. Der Releasepreis dürfte sich eh gewaschen haben, von daher, ja bis Ende des Jahres sollte da etwas Bewegung kommen. Sagtest ja selber 1-2 Jahre planst du bei dir noch ein.
Fokus lag hier auch eher auf Daten der neuen APU's im Vergleich zu den derzeitigen. Wie der Verbrauch und die Mehrleistung aussieht. Sollten sie ähnlich viel ziehen bei mehr Leistung, wären sie für Office als Neusystem wahrscheinlich die neue Empfehlung. Mit dem Phönix 2 Aufbau, also den mini Zusatzkernen, dürfte der Stromverbrauch für kleine System ggf. vielleicht sogar noch unter dem 5600G liegen. Wie viel dann RDNA zieht und das Boost-Verhalten in den grafischen Anwendungen aussieht ist halt auch noch so ne Sache.


Eddy021771 schrieb:
ich verbaue schon seit Ewigkeiten immer eine Wasserkühlung, dafür ist immer Platz über der CPU
Ich steh nicht so auf Wasser und bei Low End finde ich den Mehrwert eher fragwürdig. Zu viele Teile die Strom fressen und zu viele mögliche Fehlerstellen. Effizient, simpel und leicht zu tauschen ist da eher so meine Richtung.

Beim Gehäuse gehe ich mal von einem der NR200 Serie aus. Dein Mainboard würde mich allerdings noch immer interessieren.

Wenn das ganze eh keine Eile hat, dann passt doch alles. Ne AM4 Apu steht später noch immer zur Wahl.
 
Die Anforderungen des Themenerstellers sind schon sehr speziell.

Meiner Meinung nach werden sie aktuell nur von einer Grafikkarte erfüllt: AMD Radeon RX 6400

Ob der Kauf dieser Karte Sinn macht, kann hier ja gern diskutiert werden.
 
Für 200 Euro wäre ne RX 6600 eine gute Wahl.
 
  • Gefällt mir
Reaktionen: ArrakisSand
Noisaku schrieb:
Meiner Meinung nach werden sie aktuell nur von einer Grafikkarte erfüllt: AMD Radeon RX 6400

Ob der Kauf dieser Karte Sinn macht, kann hier ja gern diskutiert werden.

Wenn es um mehr Leistung bei ähnlichem Verbrauch geht... vielleicht. Hat er nen B450 Board, erhält er nicht nur weniger Features, sondern auch noch weitere Einbußen in der Leistung durch mögliche Bandbreiteneinbrüche in einigen Bereichen. Da er nur einen 3600 hat würde hier ebenso sämtliches Encoding wegfallen. Klingt für mich nach einer Wahl zwischen Pest oder Cholera.

Bei Preis/Leistung schneidet die 6500XT noch besser ab, die unter den gleichen Problemen leidet.

Der Mehrgewinn zur 6400 ist nicht wirklich hoch. Selbst bei meinem 5600G empfand ich die schon als zu gering. 6500XT ging noch, nur verglichen mit einer 6600 + UV macht die ebenso keinen Sinn, vor allem nicht bei dem Leistungsunterschied und den geringen Preisunterschieden.

Es gibt derzeit keine alternative GPU, die wirklich Sinn machen würde. Einzige Option wäre APU, da es primär um den PC Verbrauch ging und nicht um die Leistung der Karte selbst.

Die Frage wäre nach wie vor, ob die Leistung einer gtx 750ti, was in etwa dem der 5600G IGPU entspricht, ausreicht. Anders wird er kaum was einsparen können...

Selbst ne optionale Nvida GT Karte mit weniger Verbrauch hat da schlechte Karten.
Die 700er erhalten keinen Treibersupport, die GT 1030 mit ddr 5 Speicher ist auch mit 30W angeben, in etwa die Leistung der APU, die teilweise deutlich mehr leisten kann, da sie nicht auf 2GB Vram beschränkt ist. Die 20W DDR4 sieht zwar im Verbrauch besser aus... aber die Leistung... bei den Preisen macht ein 5600G mehr Sinn und bietet deutlich mehr Optionen.

Wenn es um Sparsamkeit, Effizienz und Minmaxing geht, ist Low End mit Sicherheit der interessanteste, leider aber auch der schwerste umzusetzende Bereich. Ein B450m S2h Mainboard verbraucht 5W mehr als ein B450 Tomawahk Max und nur 1 Watt weniger als ein X570S Tomahawk Max Wifi.

WoW würde ja theoretisch auch auf der Apu laufen. Ich hab allerdings absolut keine Ahnung, in wie weit sich die möglichen Overlays auswirken und wie heftig das ganze in großen Kämpfen wird. Selbst wenn ich jetzt ne Testrunde zocken würde, um da selber nen paar Daten zu holen, komme ich nicht in die Bereich, die hier ggf. relevant wären.
Beste Vergleich... Death Stranding Benchmark Videos und Death Stranding Endgame sind 2 vollkommen verschiedene Belastungen. Da bricht mir auch ein 3900x mit ner 3070 unter die 100 FPS wegen CPU Limit. Vorher bin ich da auch weit über 100. Da nutzen mir hier auch keine 12Kerne 24 Threads, der ist am Ende des Tages genauso fix unterwegs wie der 5700G... nur der hat deutlich weniger Verbrauch.

Folgende Werte also bitte nicht als 1:1 gegeben nehmen, nur als Richtung.


Am ehesten sollte TE mal selber gucken, was er mit der Leistung anfangen kann. Gibt ja genug Videos.

Reto geht relativ gut auf die Eigenleistung der IGPU ein und wie sie mit Karten und Auflösung skaliert. Er hat 300 Spiele auf der IGPU getestet und Eckdaten dazu veröffentlich und den 5600g sogar mit einer 7900 XTX befeuert. Zeigt hier eigentlich wie immer schön die Kernfragen.... wieviel FPS willst du und welche Auflösung spielst du.

Pixovert hat ne ganz gute Langzeitzusammenfassung für Adobe Produkte.
Ich bin mit gerade nicht sicher ob Pixovert auf die RadeonMod eingeht, aber mit der kann man auch für die APU Serie den 10-Bit Support freigeben, die man normal nur auf den Fire Pro Karten seitens AMD bekommen würde. Thema 30-bit Workflow.

theTechNotice geht überwiegend auf die Workflowsituationen ein. Welche CPU GPU für welche Arten von Arbeit und Loads - Foto, Video, teilweise Gaming. Auch einer der wenigen die den Verbrauch etwas mehr betrachten. So hier auch vieles nur aus Benchmarks bestehen mag, vermittelt er etwas deutlicher, wo Stärken und Schwächen der Hardware liegen und in welchen Bereichen diese im Real World Szenario am ehesten greifen.

Die APU's sind weder die stärksten, noch die schnellsten CPU's, teilweise nicht mal die sparsamsten, wenn man bei Intel schaut. Wie genau sie sich allerdings schlagen, hängt noch immer von der Nutzung ab. Es ist ein Hans Dampf in allen Gassen, warum sie gerade für Nutzer, die sich nicht nur auf einen Punkt in der PC Nutzung fokussieren, mehr rentiert, als diese meistens gerne hören wollen. Betrachtet man die ganze Palette an Nutzungsmöglichkeiten, hab ich noch keine andere CPU/APU gefunden, welche im Durchschnitt so gut abschneidet, ohne dabei groß auf andere Vorzüge zu verzichten.
 
Zuletzt bearbeitet:
200€ ist hard neu nur die rx6600 gebr ne rtx2060 super ansonsten ehrlich gesagt nix
Mit glück findet man ne gtx1080 für das Geld.
Ist aber nicht zu empfehlen.
 
@syfsyn Hast du überhaupt gelesen, was der TE will?
 
Wenns wirklich definitiv 100% nur für WOW auf Lebenszeit ist, go for it. Wenn du Zweifel hast...

Aber generell: Wie von anderen gesagt, Karten mit weniger Stromverbrauch kannst du vergessen. Ich hab auch noch die 1050ti drin... die letzte (zu Release) einigermaßen brauchbare Karten, die da rankam, war die GTX 1650. Aber auch nur ein überschaubares Performance-Upgrade. Vielleicht nicht ganz zufällig mit die letzt Nvidia-Karte, die ohne Raytracing-Hardware auskam. Warum die heute selbst Low-End-Karten verbaut haben, weiß der Geier. Die sind viel zu lahm dafür. So was wie die GTX 1050ti wirst du aber in den nächsten Jahren nicht mehr finden. Sie ist rückblickend eine Ausnahme.

Seither verbrauchen selbst, man muss es sagen, komplett verstümmelte Karten in etwa so viel wie eine GTX 1050ti, die zu Release das volle Featureset ihrer Reihe hatte. Etwa die RX 6400, aber das ist je nach Game kein Upgrade, je nach Game auf PCIE 3.0 sogar ein Downgrade, weil sie anders als die GTX 1050 ti (volle Lanes) nur mit 4 Lanes angebunden ist. Als Sidegrade, nur um evtl. ein paar Watt zu sparen, macht sie auch keinen Sinn. Die RX 6500 XT ist bereits über dem Stromverbrauch. Ist aber in etwa so flott wie eine GTX 1060 -- bei gleichem Verbrauch. Sechs f*cking Jahre später als die GTX 1060 quasi die gleiche Effizienz -- bei weniger VRAM. Der Markt entwickelt keine Karten sub 100W mehr, bis auf absolute Einstiegsmodelle mit miserablem P/L-Verhältnis, schlechter Energieeffizienz und null Features. Wenn du diese Liste durchgehst, wirst du sehen: Karten mit niedrigem Spitzen-Verbrauch und trotzdem brauchbarer Performance waren zwar schon vorher rar. Aber heute sind sie praktisch tot. http://www.3dcenter.org/artikel/stromverbrauchs-ueberblick-fuer-directx-1112-grafikkarten (zweite Seite beachten)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eddy021771
Die GTX 1660 werkelt im PC von meiner Frau undervoltet mit max 90 Watt und einem Idle Verbrauch von 7-9 Watt.

Die Karte ist deutlich effizienter als eine 1050ti.
Das gleiche kann man über die RX 6600 sagen.

Wenn man das gleiche Spiel nimmt, FPS z.b. auf 60 begrenzt, werden beide Karten (1660 und 6600) weniger als eine 1050Ti verbrauchen, da diese einfach effizienter sind.
Wo eine 1050 Ti ihre 75 Watt für 60 FPS verbraucht, wird eine RX 6600 locker mit 40 Watt auskommen, um gleiche FPS zu generieren.

Warum begreifen Leute es nicht?
 
Die GPU allein verbraucht im WoT (75 FPS VSYNC), ja 12 Watt :D Gesamt 35 Watt. Der zweite Monitor ist auch noch eingeschaltet. Soviel verbrauchen manche AMD Karten nicht mal im IDLE. :D
Es handelt sich übrigens um eine RTX 2060 Super mit einem TDP von 175 Watt.
Bild 2 ist die Karte unter Volllast. Max. 120 Watt in Wot mit Undervolting.
Jeder hat es selbst in der Hand.

Screenshot - 19_11.jpgScreenshot - 19_11 002.jpg
 
Kann man dann hier festhalten, dass TE ggf. genauer auf sein Benutzerverhalten eingehen sollte?

Das UV Verhalten von den GPU's wurde mehrfach angesprochen, selbst bei einem maximalen Undervolt der 6600 würde er in einigen Spielen sicherlich weniger verbrauchen als mit einer 1050ti und das bei deutlich mehr Leistung, hätte schon aus dem 0,775 UV und dem 3dMark Vergleich hervorgehen sollen.

Von der Art der Nutzung her klang es für mich eher danach, dass er sich mehr im Office und der Linux Umgebung aufhält, warum bei mir der Fokus mehr auf den unteren und Idle Lasten lag, als auf der potentiellen Gaming Ersparnis durch nen UV. Dieser hat ja leider auf Grundverbrauch der Karte keinen wirklichen Einfluss. Da TE mit der Leistung der Karte und seinen Einstellung zufrieden war, erschien mir die 1050TI nicht wirklich als "problematischer" Verbraucher. Selbst wenn sein Auszug bei dem Punkt GPU lag, ging es doch im "Allgemeinen" um eine Senkung der Leistungsaufnahme. Sofern die Leistung von der APU für seine Nutzung ausreichend ist, sollte diese im Durchschnitt einen besseren Verbrauch aufweisen.

So siehts dann bei mir aus, wenn ich Office oder gerade Forum Gedöns betreibe.
1700398321942.png
Nehme ich nun mal Maneater siehst so aus.
1700399641920.png

Lost in Random
1700400354190.png

Graveyard Keeper
1700400640880.png

Assassins Creed Odyssey - Luna Stream
1700402055474.png
Youtube Video
1700403655086.png
 
Zuletzt bearbeitet:
maxi_rodriges schrieb:
Wo eine 1050 Ti ihre 75 Watt für 60 FPS verbraucht, wird eine RX 6600 locker mit 40 Watt auskommen, um gleiche FPS zu generieren.

Warum begreifen Leute es nicht?

Meine nächste wird wohl auch eine RX6600 oder vergleichbar, wenn ich nicht doch noch eine Gen aulasse. Aber: Das hatte mir hier ein RX6600-Besitzer auch mal vorgerechnet hier, finde den Post nicht mehr. So weit ließe sich die nicht drücken, nicht annähernd, nicht für spielbare Frameraten. Finde da aber auch seither wenig zu.

Meine aktuelle Karte ist leicht undervoltet. Aber selbst wenn ich dazu die Framerate in etwa BG3 auf 10 (!) limitiere, schluckt die Karte trotz in der Szene 10 statt 60 fps keine 20W weniger (laut Softwareanzeige). Irgendwann scheint dann wohl Schicht, bzw. ein "Grundverbrauch" schlicht nötig, um überhaupt Echtzeit-3D zu rendern. 40W im Spielebetrieb mit einer RX6600 scheint arg niedrig. Aber wer Artikel hat, gerne. :)

edit: Hier hatte mal jemand gefragt, ob es möglich sei, eine RX6600 auf 75W max (Chip+Karte) zu limitieren (allerdings wegen eines nicht tauglichen Netzteils) https://www.computerbase.de/forum/threads/rx6600-75w.2121135/ Sonst finde ich gerade nichts.
 
Zuletzt bearbeitet:
Svennc schrieb:
40W im Spielebetrieb mit einer RX6600 scheint arg niedrig. Aber wer Artikel hat, gerne. :)
Siehe mein Screenshot oben.
Im WoT 75 FPS hab ich 35 Watt Verbrauch, davon 12 Watt GPU. Karte rtx 2060 Super.
Nichts ist unmöglich
 
  • Gefällt mir
Reaktionen: Svennc
maxi_rodriges schrieb:
Siehe mein Screenshot oben.
Im WoT 75 FPS hab ich 35 Watt Verbrauch, davon 12 Watt GPU. Karte rtx 2060 Super.
Nichts ist unmöglich


Finde ich eherlich gesagt krass. Gut, ich habs mit Afterburner ausgelesen, wobei der ja angeblich eher konservativ auslesen soll, also der echte Verbrauch höher sein soll. Aber selbst meine 1050ti zieht mit dem 10fps(!)-Limit in BG3 noch ~40 Watt (leicht undervoltet). Die gleiche Szene mit 60fps: knapp über 60. Und die 1050ti hat weniger VRAM verbaut, der Strom bräuchte, keine RT-Hardware und auch sonst...
 
Ja gut. Im Schnitt habe mit dann so 40-50 Watt je nach Szene.
Mit einer 1660 hatte ich sogar 25-30 Watt Verbrauch bei 60 FPS.
Ok, WoT ist jetzt auch nicht so anspruchsvoll.
1050 Ti muss sich halt mehr anstrengen um die FPS zu liefern 😆


Die RX 6600 kann man auf 75 Watt limitierten nur ist sie dann wahrscheinlich genau so schnell wie eine RX 6500 xt. 95-100 Watt sind aber drin mit etwa -5% Leistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Svennc
maxi_rodriges schrieb:
maxi_rodriges schrieb:
Ja gut. Im Schnitt habe mit dann so 40-50 Watt je nach Szene.
Mit einer 1660 hatte ich sogar 25-30 Watt Verbrauch bei 60 FPS.
Ok, WoT ist jetzt auch nicht so anspruchsvoll.
1050 Ti muss sich halt mehr anstrengen um die FPS zu liefern 😆


Die RX 6600 kann man auf 75 Watt limitierten nur ist sie dann wahrscheinlich genau so schnell wie eine RX 6500 xt. 95-

Ganz im Ernst, dass IRGENDEIN 3D-Spiel mit weniger als 20W für irgendeine halbwegs moderne GPU läuft, ist wow.

Ich hab jetzt meine GTX 1050 ti auf 0,75V undervoltet und sie dabei noch untertaktet (muss ich eh, sonst läuft sie bei der Spannung nicht stabil). Selbst wenn ich dann in Baldur's Gate 3 den FPS-Limitierer auf 10 fps stelle UND die Auflösung von 1080p auf 720p runterschraube, zeigt mir der Afterburner noch ~38W an. Auch ZUSÄTZLICH zu 720p nativ FSR einzuschalten und auf "Pixelmatsch" zu stellen, also die GPU noch mehr zu entlasten, ändert nichts mehr. Die GPU ist hier nicht ausgelastet und am Keuchen wegen des Untertaktens: Ohne Limitierer rendert sie die Szene in diesen Einstellungen mit 150 FPS statt 10. ~38W scheint das Limit. Wirklich viel effizienter als Pascal war der Nachfolger ja nicht, das Hauptargument war RT, also das RT in RTX. :D

edit: Wobei mir HWInfo selbst im Idle 35W anzeigt. Und das Softwareauslesen scheint ja generell nicht arg zuverlässig. https://www.reddit.com/r/techsupport/comments/tdahng/high_gpu_idle_power_draw/
 
Zuletzt bearbeitet:
Der hohe Grundverbrauch kommt aus dem hochtakten des VRAM der Grafikkarte.
Moderne Radeons (wie meine RX5700 oder neuer) haben hier meines Wissens nach 3 VRAM States: 2D Grundlast (ca. 5W), Mittelhohe Auslastung wie ein Youtube Video in 4k (ca. 18W), hohe Last wie Gaming (ca. 35W).
Radeons takten auch relativ aggressiv in die höheren VRAM Taktmodi und sind mehr oder weniger unabhängig von der Auslastung des Grafikchips.

Das heisst soweit ich es gelesen und getestet habe, dass man unter ~60W-70W mit einer RX5700 und auch einer RX6600 kaum kommt.
VRAM: ~25W
Grafikchip: ~35W
Platine mit Spannungswandlern: ~10W

Genaue Messreihen habe ich aber leider nicht, aber zur Orientierung langt es
 
  • Gefällt mir
Reaktionen: Svennc
So ungefähr dachte ich mir das auch. Apropos: Die RX 6400 / RX 6500XT kommen insgesamt über einen sehr aggressiven Takt, weil sie so "verstümmelt" sind in Sachen Bandbreite etc. Ich würde mir die zwar NIEMALS als 1050ti-Ersatz oder Upgrade kaufen, persönlich (alleine schon die 4GB VRAM machen die schon gestern als Neuerwerbung obsolet).

Aber viel geht da vermutlich auch nicht... Wie auch Computerbase herausfand: Die Energieeffiizienz ist nicht annähernd wie bei den besseren Karten der Reihe, auch der 6600.
 
Die 6600 bekommt man sogar relativ leicht unter die 75W. Sie ist dabei noch immer schneller als die 6500XT

RX 6500 XT / GTX 1070 / RX 6600 / GTX 1080 (Edit: 1080 hinzugefügt)

Die 6400 ist leider ne andere Hausmarke als die 6500XT und von der Leistung her ist es ein Vergleich wie Tag und Nacht.
6400er im SSF Format sind alle grausam von der Hitzeentwicklung. 60°C Idle mit Lüfter und bei nem Game instant auf 80° steigend. Bei 90° hab ich se wieder ausgebaut. Ganze Gehäuse war am Kochen und die Geräuschkulisse erinnerte an Rasenmäher, nervige Frequenz.
Von der Leistung her, sind die gar nicht mal soooo schlecht. Für jemanden der ältere Sachen spielt, gerne Emuliert oder einfach nur seine Basisgrafik etwas mehr mit Schatten aufpeppen will, da kann man sie in der Tat selbst auf 3.0 empfehlen. Wer nicht mehr braucht kann auch damit glücklich werden. Es ist aber def. keine Karte die man für "Gaming"only Builds nehmen sollte. Auch für alte OEM Builds wo noch GT Karten verbaut sind, wird die 6400 ordentlich die Endleistung anheben ohne dabei über ein neues Netzteil nachdenken zu müssen. Lief auch bei mir im 5600G mit nem 200W ITX Netzteil ohneProbleme. Spitze lag bei 110W.

6500XT ist bei meiner Frau mit nem 5600er verbaut. Hier passt es, da ihre Vorlieben weder Tripple AAA und auch nicht die neusten Spiele sind. Ich hab se in der GPU Kriese für 169€ bekommen und war einfach zu wild darauf sie im 5600g zu testen, eben wegen der ganzen Beschränkungen. Was an Bandbreite verloren geht regelt man über nen UV. Wenn ich se eh nicht voll nutzen kann, dann mache ich daraus halt an anderer Stelle einen Vorteil. Unterm Strich bekomme ich mit ner 1070 + UV mehr raus und habe mehr Headroom für neuere Spiele durch die 8GB.
Für die Kriese gute Karte... für Sohnemann PC Einstieg und casual light gaming auch total ok. Nicht jeder spielt nur die neusten und aufwendigsten Sachen.

Als to go Karte ist es auch bei mir noch immer die 6600... die Basis Limitierung auf 100W, UV bis 0,775v und noch immer mehr Leistung als ne 1070. Wir haben hier in Stock schon 1070 150W gegen 6600 100W und mit der angepassten Spannung wird das nur noch besser.

Für APU passt sie richtig gut, da gleiche Treiber, und Limitierungen konnte ich keine Feststellen, naja, zumindest nicht in der Bandbreite. Die 6500XT ist im Idle etwas besser aufgestellt als die 6600, aber die beiden kann man für kleinere Lasten durchaus vorschlagen. Der Boost ist halt nach wie vor höher als bei der APU, dafür ist der Unterschied bei der Endleistung halt auch ordentlich.

5600g/5700g/RX 6600


1700472402662.png1700467204595.png


Aber um hier auf den Thread zurück zu kommen. Die GPU alleine zu tauschen wird nicht viel bringen. Auch ist nicht bekannt in weit TE die 6600 in Linux undervolten kann und ob er das überhaupt wollen würde.
6400 oder 6500xt als Alternative bringt mehr Leistung, hängt aber vom Board 3.0/4.0 ab und Encoding fällt weg. Bei den Preisen von 6500xt -> 6600 tut es einfach nur weh die 6600 nicht zu nehmen, wo dann halt UV Pflicht wäre.
Ob dann eine Leistungsbegrenzung + FPS Lock am Ende wirklich weniger verbrauchen wird als die 1050ti. Kommt auch sehr auf die Spiele an... Ich habe keine 1050ti zum Testen, wäre also nur Spekulation von meiner Seite. Von daher bin ich noch immer bei der APU, um die Vorteile der Bauart zu nutzen. Die Ersparnis betrifft dort ja alle Ebenen, statt nur den Grafikbereich, selbst wenn er die 1050Ti weiter nutzen sollte, wird das System dort weniger verbrauchen.

1700473341470.png1700474047267.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Svennc
Zurück
Oben