News Jon Peddie Research: Neue Zahlen zum GPU-Markt in Krisenzeiten

Was sind schon 1000 Euro für ne Grafikkarte wenn die Gasrechnung 4 mal so hoch ist....
 
  • Gefällt mir
Reaktionen: CHB68, -=[CrysiS]=- und GT200b
@SavageSkull Da der Preis im Keller ist verkaufen große Mining-Farmen doch schon ihre Hardware, da es sich nicht mehr lohnt. Die verdienen zurzeit mehr am Verkauf von Strom. Auch werden Coins verkauft um die steigenden Kosten zu decken. Nur diese Mining-Unternehmen sind interessant, da die den Markt an Grafikkarten leer gekauft haben. Der positive Effekt ist eben auch das Grafikkarten wieder erhältlich sind.

@kennbo82 In Krisenzeiten kann es für Hersteller oft günstiger sein, wenn man weniger für einen hohen Preis verkauft als viel zu einem Niedrigeren. Viel verkauft man über die breite Masse die es sich aber in Zukunft überlegt ob sowas wie eine Grafikkarte wichtiger ist als Strom/Gas und Essen.
 
Merkwürdige Diskussion hier.
Ich vermute mal das der Prozentsatz der Leute hier im Forum die Solar auf dem Dach haben und ne Wärmepumpe im Keller gering ist und wenn, die diskutieren hier mit Sicherheit nicht über GPU Preise. Dann vielleicht noch die Leute die eine Preisgarantie haben. Wobei, was ist die Wert ? Fakt ist , kommt man über den Basisverbrauch wird es brutal teuer und darüber kommt man mit einem Gaming PC locker flockig . Wenn in Frankreich noch Atomkraftwerke über den Winter dichtmachen dann wird man nicht mehr auf günstige GPUpreise warten sondern seinen Gaming PC verkaufen und mit seinem Raspy Retrospiele zocken.
https://www.zeit.de/politik/ausland/2022-09/frankreich-atomkraft-blackout-strom-deutschland
https://www.sueddeutsche.de/politik/grossbritannien-energie-heizung-1.5646919
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Helge01
Holylemon schrieb:
Bei keiner einzigen Grafikkartengeneration in diesem Zeitraum stimmte das Preis-/Leistungsverhältniss.
Selbst wenn meine RX480 den Geist aufgibt werde ich diese irrsinnigen Preise nicht bezahlen.
Lieber verzichte ich auf Gaming und nutze schlicht eine iGPU.

[...]

Das ist doch Quatsch. Die RX480 hatte einene Einführungspreis von 255€ in 2016. Für den gleichen finanziellen Gegenwert musst du heute ca. 288€ aufbringen. Dafür bekommst du eine RX 6600, die ungefähr die doppelte Leistung deiner alten GPU hat.
 
Laphonso schrieb:
Das ist eine kühne These, aber warten wir mal ab :)
Das ist keine kühne, sondern eine billige These:
Nvidia hat noch genau ein Feature übrig, das die Masse kennt* und positiv assoziiert ist: DLSS 2.X. Wenn Nvidia sich nicht darum kümmert, dass es sich von der Konkurrenz, sprich FSR 2.X, genügend absetzen kann, dann ist der Effekt halt hin.
Deshalb braucht es mal langsam ein DLSS 3.X...


*zu den sonstigen Kandidaten:
(DL)DSR: Ist selbst unter Enthusiasten vergleichsweise unbekannt. (denn selbst die großen Youtubekanäle machen nichts dazu.
GPU PhysX und Gameworks: Ziemlich tot.
3DVision: Genauso tot wie 3D generell.
GSYNC: Eigenständig im Mainstream tot, im Highend da, aber vollkommen absurd überteuert.
 
Laphonso schrieb:
[...]

https://www.coolblue.de/beratung/g-sync-freesync-bildschirm.html

Selbst wenn es Nuancen sind, für mich (und offensichtlich genug andere) sind genau diese kleinen Facetten der ("technisch") besseren GSync Lösung relevant.

Ich würde das nicht als Nuancen bezeichnen. Für Spieler, die Wert auf Grafikqualität setzten oder das entsprechende Spiel zocken, kann die wesentlich bessere VRR Abdeckung von G-Sync Monitoren eklatant sein. Ich würde den MS Flight Sim z.B. nur auf richtigen G-Sync Monitoren nutzen wollen.
 
coral81 schrieb:
Merkwürdige Diskussion hier.
Hatte letztens erst jemand gehabt den ich in seiner Konsumlaune wohl gestört habe und meinte, man sollte solche dummen Sprüche über Strom/Gas und Essen lassen. Ihm kann ja mit der 50/40/10 Regelung nichts passieren. Die Reglung ist grundsätzlich sehr gut, funktioniert aber nur bei stabilen Preisen. Bisher war das ja auch immer der Fall und man musste seine Ausgaben nur geringfügig jedes Jahr anpassen. Zurzeit explodieren aber die Energiepreise, da kann es je nach Einkommen sein, dass seine 50% schon jetzt 130% betragen. Er weiß es nur noch nicht da er die Rechnung dazu erst nächstes Jahr bekommt.

Es wird einen nicht geringen Teil der Bevölkerung geben die nächstes Jahr unverschuldet abends ins Bett geht und morgens verschuldet oder gar hochverschuldet aufwacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Otacu und coral81
Helge01 schrieb:
Er weiß es nur noch nicht da er die Rechnung dazu erst nächstes Jahr bekommt.

Es wird einen nicht geringen Teil der Bevölkerung geben die nächstes Jahr unverschuldet abends ins Bett geht und morgens verschuldet oder gar hochverschuldet aufwacht.

Das lese und höre ich öfter, kann es aber nicht ganz nachvollziehen.

Man hat doch einen laufenden Vertrag, in dem drinnen steht was es kostet und der Abschlag ist entsprechend vom Versorger angelegt.
Wenn man wechselt, das gleiche.

Läuft der alte Vertrag aus, so verlängert sich der Vertrag, entweder zu gleichen Konditionen oder neuen, auch diese sind bekannt und der Abschlag wird entsprechend hoch gesetzt.

Zumindest ist es bei mir so.

Wo kommen in diesem Konstrukt die hohen Nachforderungen her, außer man hat deutlich mehr verbraucht als angegeben, aber dann ist es auch selbst schuld.
 
Laphonso schrieb:
Das stimmt so nicht.
Der Artikel ist völliger Müll.
Was da steht ist Rosinenpicken und verwischt G-Sync Ultimate mit G-Sync auf der anderen Seite wird aber FreeSync 2/Premium ignoriert.
Seit FreeSync LFC (keine Ahnung aber wahrscheinlich seit 2017/18) kann ist FreeSync (1) mit G-Sync (1) gleichwertig.
FreeSync Premium ist G-Sync Premium mindestens gleichwertig, wenn man diesen Lüfter am G-Sync Modul betrachtet sogar überlegen.
Ja der Weg den Nvidia mit dem eigenen Chip und damit die Range definiert hat, war am Anfang ein guter Weg aber bestimmt schon 4-5 Jahre, als die Monitor Hersteller nachgezogen haben, hinfällig.
 
  • Gefällt mir
Reaktionen: baizer, av4l, Lamaan und eine weitere Person
JJJT schrieb:
der Abschlag wird entsprechend hoch gesetzt
Das ist der springende Punkt. Dieser Wert ist nicht bekannt und wird dadurch geschätzt, kann aber ein Vielfaches davon betragen. Bei uns wurde für Strom der Abschlag unverständlicherweise sogar verringert, da kann man sich vorstellen wie hoch die Nachzahlung sein wird. Anders sieht es aus, wenn man einen Vertrag mit Preisgarantie hat, aber auch da kann man sich nicht 100% sicher sein.

Man bezahlt ja jetzt schon durch einen höheren Abschlag mehr, explodieren die Energiepreise weiter dann kann es trotzdem passieren das z.B. ein Haushalt 3000€ Gas und 3000€ Strom nachzahlen muss. Wenn jemand jetzt schon am Limit ist kann er das nicht bezahlen.
 
Zuletzt bearbeitet:
@GT200b

Das wäre der Untergang für die Deutsche Industrie. Die DM musste noch alle 10-12 Jahre bewusst entwertet werden, damit Deutschland konkurrenzfähig blieb. Deswegen waren zu DM zeiten auch solch hohe Inflationen die Norm. Eine zu starke Währung ist für produzierende Länder ein Problem. Deswegen wertet z.B. China regelmäßig den Yuan ab und Norwegen hat den Staatsfond gegründet um die Währungen nicht in Kronen umwandeln zu müssen.

"Wenn in Frankreich noch Atomkraftwerke über den Winter dichtmachen ..."
Die sind Teils schon länger dicht. Da wird gerade fieberhaft daran gearbeitet die soweit zu reparieren, dass sie zumindest noch 1-2 Jahre laufen. Urpsrünglich war mal geplant, dass diese Kraftwerke schon lange durch EPRs ersetzt werden sollten (davor waren Thorium Brüter geplant, allerdings sind da ja alle Versuche gescheitert).
Selbst wenn sämtliche Braunkohlereaktoren wieder am Netz sind, hilft das bei den derzeitigen Weltmarktpreisen nur bedingt was. Zumindest pendelt sich der Strompreis gerade wieder bei ~36-37 Cent die KWh im Schnitt ein.
 
Zuletzt bearbeitet von einem Moderator:
lifestorock schrieb:
Das ist doch Quatsch. Die RX480 hatte einene Einführungspreis von 255€ in 2016. Für den gleichen finanziellen Gegenwert musst du heute ca. 288€ aufbringen. Dafür bekommst du eine RX 6600, die ungefähr die doppelte Leistung deiner alten GPU hat.
Nicht nur das man die Inflation ignoriert, man schaut auch ständig auf irgendwelche High End/Prestige Modelle, obwohl man in dem Budget selbst gar nicht aktiv ist.
Klar ist eine 3090Ti in einem Budget was es vorher nie gab. Ändert nur am niedrigen Bereich kaum was.
 
SavageSkull schrieb:
Der Artikel ist völliger Müll.
Dann hast Du sicher einen journalistischen Qualitätsartikel Deines Anspruchs bereit, der die technische 1:1 Gleichwertigkeit der Freesync und Gsync Lösung präsentiert.

Wäre das anders, könnte Nvidia auch nicht weiterhin mehr Geld für diese immer noch - selbst wenn es nur Nuancen sind - bessere Lösung verlangen.

Gsync>Freeync wurde m.W. damit bisher nicht korrigiert, aber ich ich freue mich, wenn das bereits in 1:1 Vergleichen untersucht wurde und mein Wissensstand veraltet ist.
Ergänzung ()

SavageSkull schrieb:
FreeSync (1) mit G-Sync (1) gleichwertig.
Bleibt bis dahin eine Falschaussage.
Ergänzung ()

@SavageSkull

Hochaktueller Artikel
https://www.pcwelt.de/ratgeber/Adap...variabler-Bildwiederholfrequenz-11272145.html

Ändert nix am Fazit, letztlich
 
Zuletzt bearbeitet:
Laphonso schrieb:
Ändert nix am Fazit, letztlich

Naja, auch der Artikel ist oberflächlich und falsch.
Dort wird als großer Vorteil von gsync gegenüber freesync angepriesen, dass durch die Verdoppelung der refreshrate ein sync auch unterhalb der Range eines Bildschirms geht.
Es wird aber verschwiegen, dass freesync genau das auch kann.
Nennt sich LFC.

Wofür brauchst du da eigentlich einen artikel?
Guck dir doch an, was gsync kann und was freesync. Am besten in den aktuellen Ausbaustufen und dann wirst du feststellen, dass diese ziemlich das gleiche können.

Mit dem Nachteil, dass gsync teurer ist und einen Lüfter im Monitor mitbringt.
 
  • Gefällt mir
Reaktionen: av4l, Lamaan und Laphonso
JJJT schrieb:
Wofür brauchst du da eigentlich einen artikel?
Also ich brauche da keinen Artikel ;)
Der Inhaltsbogen war eher die Marktanteile AMD vs Nvidia und welche Rolle spielen die Features. Ich würde nicht widersprechen, dass Gsync im Vgl. zu RT und DLSS keine wichtige Rolle spielt bei dem Entscheidungsprozess.
(Mein erst 2 Jahre alter Alienware DW34 Gsync hat btw keinen Lüfter. )
 
JJJT schrieb:
Naja, auch der Artikel ist oberflächlich und falsch.
Dort wird als großer Vorteil von gsync gegenüber freesync angepriesen, dass durch die Verdoppelung der refreshrate ein sync auch unterhalb der Range eines Bildschirms geht.
Es wird aber verschwiegen, dass freesync genau das auch kann.
Nennt sich LFC.

Wofür brauchst du da eigentlich einen artikel?
Guck dir doch an, was gsync kann und was freesync. Am besten in den aktuellen Ausbaustufen und dann wirst du feststellen, dass diese ziemlich das gleiche können.

Mit dem Nachteil, dass gsync teurer ist und einen Lüfter im Monitor mitbringt.
So, sieht es aus. Nvidia ist toll wenn man auf deren Marketing hereinfällt,
oder auf andere Fans.
Man muss sich nur die Geschichte der letzten 5 - 6 Jahre von Nvidia ansehen, um zu erkennen das dies das aggressivste kapitalistische Unternehmen unter den großen in der IT ist.
Ich wundere mich immer wie die ganzen Skandale so schnell vergessen werden und dann durch angebliche Vorteile ihrer Hardware ersetzt werden.

Beispiele:
Knebelverträge um AMD aus den lukrativen Game-Marken auszuschließen,
Speicherbetrug,
Dx 11 Betrug,
Lügen über den Bedarf and Schaltungen für bestimmte Funktionen (Physik, Sound, Raytracing),
The was it’s meant to be played,
Usw…

Nvidia nehme ich nur in Notfällen und wenn ich kann meide ich diesen Verein, aus Selbstachtung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: av4l, Otacu und Grantelb4rt
Laphonso schrieb:
Das stimmt so nicht.

https://www.coolblue.de/beratung/g-sync-freesync-bildschirm.html

Selbst wenn es Nuancen sind, für mich (und offensichtlich genug andere) sind genau diese kleinen Facetten der ("technisch") besseren GSync Lösung relevant.
Der Artikel klingt so, als wäre mein Samsung U28E590 mit 40-60Hz FreeSync-Range der Stand der Technik bei FreeSync.

Da steht auch:
"Ein Monitor mit FreeSync ist leichter verfügbar und oft billiger. Seit Januar 2019 unterstützt FreeSync einige NVIDIA-Grafikkarten"

Es ist aber andersherum: Nvidia-Grafikkarten unterstützen seitdem FreeSync. Müsste also auch mit entsprechendem Treiber mit meinem 2016er Monitor laufen.
 
  • Gefällt mir
Reaktionen: Lamaan und Bonanca
@Lamaan @C0rteX Das ist so einfach nicht richtig und ich finde es teilweise auch etwas angreifend. Ich stecke nämlich genau in derselben Situation: RX6900XT --> zertifiziertes HDMI Kabel auf einen DENON X1700H (welcher mind. VRR kann) --> zertifiziertes HDMI Kabel auf LG CX48 (welcher eigentlich auch Freesync Premium und VRR kann). Du bekommst so kein VRR oder Freesync hin, jedenfalls nicht auf Full RGB mit 10 Bit + 4k@120 Hz. Freesync geht nur bis 60 Hz und auch dann nur auf 8 Bit mit 4:2:0 Subsampling. Komischerweise geht aber Freesync auf Anhieb wenn du den Fernseher direkt anschließt. Was schließen wir daraus? Richtig: VRR über HDMI wird nicht korrekt unterstützt, obwohl es beworben wird. Das war auch mit den Konsolen eine schwere Geburt mit vielen Firmware-Updates. Übrigens kann ich genauso auch ein Treiber Absturz provozieren: einfach den Receiver ein oder aus schalten, wenn er via eARC an den Fernseher dann verbunden ist. Das es seit irgendeiner Treiberversion irgendwann in der Mitte des Lebenszyklus von Vega bei Titanfall 2 (Spiel von 2016 !) jedes Mal wenn man von Monarchs Energy Siphon getroffen wird einen massiven Frameratedrop gibt sprechen wird gar nicht erst. Das kannst du auch alles toll melden, es passiert nichts bei AMD. Ich glaube bei meinen beiden Hawaiis hatte ich damals aber auch irgend so einen Fehler, wo ich mich ob des Preises des Crossfire Gespanns so unglaublich aufgeregt hatte, weil einfach nichts passiert ist.

Klar kann man sicherlich auch Anekdoten bei nVidia finden, aber das aktive Bewerben von VRR und dann nicht liefern ist halt gerade für Leute die sich einen HTPC basteln einfach inakzeptabel. Da überlege ich schon mir jetzt im Abverkauf vielleicht doch lieber wieder eine nVidia reinzupacken, denn mit der 1080Ti hatte ich null Probleme.
 
  • Gefällt mir
Reaktionen: stevefrogs
KlaasKersting schrieb:
Selbst wenn Nvidia die US-MSRPs beibehält, werden die deutschen Preise um ca. 20% steigen, weil der Euro in etwa so viel an Wert verloren hat. Also nicht mehr 699$ MSRP -> 699€ UVP, sondern eher 699$ MSRP -> 849€ UVP.
Hinzu kommt, dass die Rohstoffe alle in US Dollar gehandelt werden und die Rohstoffe wie Energie gehen durch die Decke..
Das heißt selbst wenn AMD, Nvidia wollten können die das nicht billiger vertickern.
 
Zurück
Oben