News Krypto-Flaute: 36 % weniger Grafikkarten als vor einem Jahr verkauft

@Laphonso Muss denn immer ein nicht sachdienlicher Autovergleich dazu? Was hat ein G-Sync Modul mit mehr Leistung zu tun? Es ist eine völlig andere Implementierung und insofern nicht mit FreeSync zu vergleichen.

Ich verstehe nicht wirklich, was die verlinkten Artikel sollen. Der aus dem ursprünglichen Post, auf den ich zuerst geantwortet habe, ist nicht geeignet, um Deine These zu stützen und in keinem der Artikel geht es um etwas wirklich technisches. Die Probleme die genannt wurden, haben nichts mit FreeSync perse zu tun, sondern eben mit speziellen Bildschirmen, was auch in den Artikeln von pcworld und techspot (aka HardwareUnboxed) steht: Man muss bei den FreeSync-Bildschirmen ein Auge auf die genauen Specs haben. Das "Problem" ist aber keins mehr, sobald man zum Vergleich FreeSync- und G-Sync-Modell desselben Bildschirms vergleicht, denn die haben das gleiche Panel. Dass FreeSync außerhalb der Range nicht funktioniert, ist kein Fehler, sondern eben technikbedingt; deshalb gibt es jetzt ja auch LFC als Bestandteil von FreeSync 2 (nebst strikterer Qualitätsauflagen für die Bildschirme).

Ums nochmal anders zusammenzufassen: Ja, man muss, wenn man sich für einen FreeSync-Bildschirm interessiert, ggf. besser recherchieren. FreeSync 2 soll wie G-Sync ein bisschen Arbeit dabei abnehmen durch striktere Auflagen. Nein, das ist kein Nachteil der Technik an sich, wovon Du geredet hast.

Mein Punkt mit dem G-Sync-HDR-Modul war nicht, dass es Aufpreis kostet. Die Elektronik, die dafür nötig ist, gibt es nicht geschenkt, das ist völlig klar und kein Problem. Mein Punkt ist, dass die Bildschirmhersteller deshalb das neue HDR-Modul eben nicht in ihren "günstigeren" Bildschirmen verbauen, wo das Modul mehr als ein Drittel des Bildschirmpreises ausmachen würde und deshalb die älteren (technisch für die Bandbreite nicht gerüsteten) Module verbaut werden, wie bei den beiden verlinkten LG Bildschirmen.

Dass man nach dem Kauf im Korsett steht, ist übrigens nVidias Verdienst. Mal sehen, was mit den neuen Intel-GPUs passiert.
 
Der Konsens lautet, wenn das Budget nicht entscheidet ist die über alle Skalen und Featurtes beste Kombination aus GPU und Monitor Kopplung immer GSync. Ich kenne nicht einen Artikel, der das anders bewertet.
Der "Preis" dafür ist der, ja, der Preis und dass Du dann nvidia GPUs kaufen "musst".
Das war die Botschaft, mehr nicht.
Freesync ist super und kostet weniger Kohle am Ende.

Wollte Dich nicht dazu bringen, Dich für etwas zu rechtfertigen. Die These, dass Freesnyc auf Augenhöhe mit Gsync ist, stimmt halt nicht im Gesamtpaket, das kommt aus jedem Artikel und Video heraus. Daher wundert mich dieses "Gegenanreden". Warum ist das so hart, dass zu akzeptieren? Weil man nvidia dann "zugestehen" müsste, da besser zu sein? Ja und? Dafür ist das auch zu bezahlen dann, aber keiner "muss" es, sondern kann Geld sparen und nimmt die Kombo, die eine Ecke langsamer ist und nicht auf dem Niveau abliefert und sondern etwas darunter, ist doch okay.
 
Laphonso schrieb:
Wollte Dich nicht dazu bringen, Dich für etwas zu rechtfertigen. Die These, dass Freesnyc auf Augenhöhe mit Gsync ist, stimmt halt nicht im Gesamtpaket,

Bei mir funktioniert G-Sync seit Jahren nicht, 3 verschiedene Systeme und 3 Bildschirme, propietäre :kotz:
 
  • Gefällt mir
Reaktionen: DerKonfigurator
@Laphonso Dein erster Post dazu war mit einem Artikel "begründet", der schlecht recherchiert ist und teilweise unsinnig. Das wollte ich so nicht stehen lassen.

Um davon sprechen zu können, ob aus den Artikeln rauskommt, G-Sync und FreeSync seien nicht auf Augenhöhe, müsste man sich erstmal Gedanken drüber machen, was das heißen soll. Was Input-Lag angeht, sind die Technologien ziemlich auf Augenhöhe, siehe zum Beispiel hier oder hier. Was die oftmals geringere FreeSync-Range angeht (was übrigens auch monitorspezifisch ist), gibt es mittlerweile LFC, was effektiv dieselbe Lösung ist wie bei nVidia. Was Eliminierung von Tearing angeht, sind beide auch ziemlich auf Augenhöhe.

Der Rest Deiner Punkte hat nichts mit G-Sync oder FreeSync zu tun, sondern damit, welche Bildschirme betrachtet-- bzw. mit der jeweiligen Technik ausgestattet werden. Es geht damit nicht um Vorteile der einen oder anderen Technologie.

Zum letzten Punkt: Es geht mir nicht um Rechtfertigung. Mich stört dieser Anstrich, den AMD-Karten und Technologien gerne in Foren bekommen: Das seien nur günstigere (und angeblich qualitativ schlechtere) Lösungen für Leute mit weniger Geld (aka die sich kein nVidia leisten können). Das ist falsch. Und das so, wie Du es begründet hast, in einem Forum abzugeben, finde ich einfach nicht gut. Man kann bei AMD technisch gleichwertige Lösungen bekommen, die dann zufälligerweise auch noch günstiger sind, weil sie (cleverer?) umgesetzt sind. Dass die FreeSync-Kombo am Ende effektiv langsamer ist, liegt aber wieder nicht an FreeSync, sondern an den Karten von AMD, die es im Moment zu kaufen gibt.
 
  • Gefällt mir
Reaktionen: Kalsarikännit
Es ist schon beschönigend, zu schreiben, daß nVidia Markanteile gewinnt, denn eigentlich verliert NVidia ja nut weniger als AMD, wodurch der Marktanteil steigt.
 
Riseofdead schrieb:
Aber solang die nur eine 590er und eine Vega 56/64 vorweisen können ist es klar das keiner AMD Karten kauft.

Allen Unkenrufen entgegen spricht der recht stabile Preis dieser Karten dafür dass sie eben doch gekauft werden. Sehr zu meinem Bedauern als künftiger Käufer, die 580 hätte ruhig noch ein wenig nachgeben können.(*) Sehr zu meiner Freude als Aktionär andererseits, denn es bedeutet dass AMD die GPU-Sparte gegenwärtig nicht ganz so katastrophal gegen die Wand gefahren hat wie seinerzeit die CPU-Sparte.

(*) ungefähr in einer Woche kann ich mich nicht mehr halten und hole mir für X4 meine 580. Erfahrungsgemäß ist das für die Händler ein Signal ähnlich dem Hornstoß zu Beginn der Jagd und wird dazu führen das wenige Femtosekunden nach dem Kauf die Preise erdrutschartig nach unten schießen. Wartet es ab, so wird es kommen. ;-)
 
Ausnahmen bestätigen die Regel!
 
Rage schrieb:
@Laphonso Muss denn immer ein nicht sachdienlicher Autovergleich dazu? Was hat ein G-Sync Modul mit mehr Leistung zu tun? Es ist eine völlig andere Implementierung und insofern nicht mit FreeSync zu vergleichen.

Ich verstehe nicht wirklich, was die verlinkten Artikel sollen. Der aus dem ursprünglichen Post, auf den ich zuerst geantwortet habe, ist nicht geeignet, um Deine These zu stützen und in keinem der Artikel geht es um etwas wirklich technisches. Die Probleme die genannt wurden, haben nichts mit FreeSync perse zu tun, sondern eben mit speziellen Bildschirmen, was auch in den Artikeln von pcworld und techspot (aka HardwareUnboxed) steht: Man muss bei den FreeSync-Bildschirmen ein Auge auf die genauen Specs haben. Das "Problem" ist aber keins mehr, sobald man zum Vergleich FreeSync- und G-Sync-Modell desselben Bildschirms vergleicht, denn die haben das gleiche Panel. Dass FreeSync außerhalb der Range nicht funktioniert, ist kein Fehler, sondern eben technikbedingt; deshalb gibt es jetzt ja auch LFC als Bestandteil von FreeSync 2 (nebst strikterer Qualitätsauflagen für die Bildschirme).

Ums nochmal anders zusammenzufassen: Ja, man muss, wenn man sich für einen FreeSync-Bildschirm interessiert, ggf. besser recherchieren. FreeSync 2 soll wie G-Sync ein bisschen Arbeit dabei abnehmen durch striktere Auflagen. Nein, das ist kein Nachteil der Technik an sich, wovon Du geredet hast.

Mein Punkt mit dem G-Sync-HDR-Modul war nicht, dass es Aufpreis kostet. Die Elektronik, die dafür nötig ist, gibt es nicht geschenkt, das ist völlig klar und kein Problem. Mein Punkt ist, dass die Bildschirmhersteller deshalb das neue HDR-Modul eben nicht in ihren "günstigeren" Bildschirmen verbauen, wo das Modul mehr als ein Drittel des Bildschirmpreises ausmachen würde und deshalb die älteren (technisch für die Bandbreite nicht gerüsteten) Module verbaut werden, wie bei den beiden verlinkten LG Bildschirmen.

Dass man nach dem Kauf im Korsett steht, ist übrigens nVidias Verdienst. Mal sehen, was mit den neuen Intel-GPUs passiert.

Klar ist G-Sync Hardwaretechnisch anders (sprich: teurer herzustellen) als FreeSync, nur steht eben der Preis in keinem Verhältnis zu den Kosten und noch weniger zum Nutzen.
 
Allerdings gibts auch nicht unbedingt die Quantensprünge die einen so begeistern das man jetzt eine 300 Euro und mehr Grafikkarte vom Vorjahr vertickt.
 
Holt schrieb:
Ausnahmen bestätigen die Regel!

Sei mir bitte nicht böse und nimms nicht als persönliche Anmache (so ist es nicht gemeint), aber das ist Blödsinn. Ein Maximum ist ein Maximum ist ein Maximum. Das von Dir genannte Maximuim wurde schon aus dem Gedächtnis nach wenigen Minuten Suche um satte 50 Prozent überboten. Du lagst mit Deiner nostalgischen Betrachtung von "früher war mehr Lametta" schlicht daneben.
 
Niygo schrieb:
AMD braucht keine Karte, die die 2080Ti alt aussehen lässt. Die brauchen eine Karte ala HD5xxx Zeiten. Gute Performance zum guten Preis mit einer guten, für die Zukunft gerüsteten Architektur. Dass man immer den längsten angeblich brauchen muss... 🙄.

Ist unmöglich mit dem derzeitigen Marktsahre und Software Umgebung bei PC Games.
Es hat schon seinen Grund wieso AMD mit Vega die sparte der Desktop Hochfrequenzgamer hat fallen lassen, wobei Vega noch genug Hardwarefeatures hätte die bei Nutzung an eine 1080Ti ranreichen könnte.

imho.
Es würde mehr Sinn machen über Konsolen SoCs Druck auf den gesamten PC auszuüben, sollte die PS5 wirklich mit 4k(glaub ich erst wenn ichs sehe), Med details und 60Hz ankommen.
 
Zuletzt bearbeitet von einem Moderator:
Sony kann auch nicht zaubern, da wird genau wie in der PS4/PS4 Pro/One/One X ne leicht modifizierte APU oder GPU von AMD oder NVidia drin stecken.
Die werden kaum wieder auf eigene Chips zurück gehen, PC-Hardware zu nehmen ist einfach zu komfortabel.
Von daher wird da auch kein Druck kommen, da du in der PS5 nichts drin haben wirst was dann aktuelle PCs aussticht.
Bevor AMD nicht ne brauchbare neue GPU rausbringt wird sich imho gar nichts mehr tun. Und das scheitert aktuell eher am können als am wollen.

Aber wenigstens bewegen sich deshalb gerade die Preise der Mainstream (sofern man RX570/580 noch nicht unter entry einsortieren muss) Karten wieder auf vernünftige Regionen.
 
Es wird aber auch nicht einfacher die Besitzer von Grafikkarten zum Neukauf zu animieren wenn die Leistung nur so "minimal" steigt (Edit. bzw. auch die Anforderungen an die Karten) wie sie es in den letzten Generationen tut.

Es ist noch nicht so schlimm wie es bei Prozessoren mit dem Intel-quasi-Monopol war. Dort kann man mit 8 Jahre alte CPUs immer noch gut zurecht kommen und ohne AMD wären auch noch ein paar Jahre draufgekommen.

Allerdings ist es bei GPUs halt auch mittlerweile so, dass eine 4-5 Jahre alte Mittelklasse- bzw. gehobene Mittelklasse-Karte für FHD immer noch dicke ausreicht. Und 4K ist immer noch nicht in der breiten Masse angekommen.
Diese Leute fischt man mit der aktuellen Preisgestaltung und Leistung nicht ab.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Starsurfer
Dann sind sie jetzt eben wieder da wo sie vor dem Boom waren. Das sind auch immer noch sehr ordentliche Zahlen. Jammern auf hohem Niveau.
 
"Die GPU-Hersteller haben den Einfluss dieses Absatzmarktes unterschätzt und sitzen auf vollen Lagern, wie erst jüngst Nvidias CEO Jensen Huang öffentlich eingestehen musste."

Gilt aber nicht für 1080 und 1080Ti. Die sind doch teilweise schon ausverkauft!


Was passiert jetzt mit den ganzen GPU´s der (großen) Farmen?
Werden die jetzt verschrottet, wenn sich das Geschäft nicht mehr lohnt?
 
1080(Ti) sind ausverkauft weil die vermutlich schon vor x Monaten die Produktion eingestellt haben weil 2070/2080 in der pipe war.
Ich denke die meisten Miner haben die Karten spätestens verbimmelt als der Strom teurer wurde als die Erlöse.
 
Meine Hardware ich nicht mehr die neuste ich kann trotzdem alles was ich spiele in adäquater Auflösung genießen doch wenn sich was am Preis tut sollte einer Aufrüstung nichta im Wege stehen.... AMD und nvidia wussten beide das der Boom ein plötzliches Ende haben wird. Und wirklich Verluste gemacht zu haben kann ich mir nicht ganz vorstellen wenn man überlegt was für Preisaufschläge gemacht wurden. Wir sind immer noch nicht ganz beim Preisgefüge von vor 2 Jahren. Aber die Zeit ist weitergelaufen die sonst immer die preise bisschen purzeln lassen hat. Ich bin gespannt wie sie die Läger leer bekommen... Zu vernünftigen Preisen bin ich bereit zuzugreifen😊
 
Riseofdead schrieb:
AMD soll Grafikkarten bauen die für einen "OHA" Effekt sorgen und die 2080Ti alt aussehen lässt.

So wie ich die Klientel hier kennen gelernt habe, werden die meisten trotzdem nvidia kaufen.

Fanboys finden immer einen Grund bei ihrer Marke zu bleiben.
Im Zweifelsfall wird damit argumentiert das AMD zu billig ist und die Preise von Nvidia ein Feature wären.
Dss ist kein Witz. Solche argumentativen Stunts habe ivh bei Nvidiabase tatsächlich gesehen :o
 
  • Gefällt mir
Reaktionen: Rage
Zurück
Oben