News Wochenrück- und Ausblick: Neue Grafikkarten werfen ihre Schatten voraus

Axxid schrieb:
Fuer mich geht die Entwicklung einfach in die falsche Richtung. Aber warum sollten sich Entwickler Muehe geben Spiele auf schwaechere Hardware zu optimieren,
Hab ja noch die Hoffnung das man bei der 4070 immerhin eine Karte bekommt die schneller ist als eine 3090 aber wesentlich weniger verbraucht. Man muss ja nicht den extremsten kram kaufen. Selbst bei 3440x1440 komme ich ganz gut klar mit meiner aktuellen 3070.
 
  • Gefällt mir
Reaktionen: schneeland
Wahrscheinlicher ist, wenn die 4070er schneller als die 3080er sein sollte, dass sich auch deren UVP daran orientiert (+ Inflation...)

Man kann daher locker die UVP der 4070 bei 1499,- ansetzen und um alle zu beruhigen für 1399,- verkaufen - dann sind doch alle direkt glücklich^^
 
Kuhprah schrieb:
Meine 3090 läuft mit gemütlichen 70 Grad vor sich her, da is wenig mit Heizen. Denke mal dass die 4090 auch nicht viel mehr Hitze entwicklen wird.
Natürlich wird sie das. Das ist ja ziemlich genau mit der Leistungsaufnahme korreliert. Wenn die 4090 unter Last bis zu 600W ziehen darf, wäre das etwa das 1,5fache der 3090.
Hitze/Abwärme ist auch nicht mit Temperatur gleichzusetzen. Völlig unerheblich ob die GPU-Temperatur 70, 80 oder 90 Grad misst, die 450 bzw 600 Watt fallen an und werden emittiert.
Eine geringe GPU-Temperatur bedeutet nur, dass der Kühler die Wärme schneller von der GPU abführt. Die insgesamt im Gehäuse landende Wärmeenergie ist jedoch immer die selbe, egal ob der Chip mit schlechtem Kühler bei 100 Grad schwitzt oder mit einem sehr guten auf 60 bleibt.

Darum kann ich auch mit der Aussage nicht mitgehen, dass Gehäuse, die 450W bewältigen, wohl auch noch 600W ganz gut schaffen werden.
Bis zu ner gewissen Abwärme schaffen die durch Luftzirkulation diese schneller raus zu transportieren als sie entsteht. Wird die Hitzequelle zu groß, wird sich das Gehäuse jedoch kontinuierlich aufheizen, was wiederum die Effektivität der Kühlung herabsetzt. Und irgendwann kann dann auch der sehr gute Kühler die Wärme nicht mehr vernünftig abführen. Kann also gut sein, dass „nur“ 150W mehr die Temperaturen locker um 20 Grad hochtreiben.
 
  • Gefällt mir
Reaktionen: FLCL, n4pst3r_92, BGnom und eine weitere Person
tox1c90 schrieb:
Darum kann ich auch mit der Aussage nicht mitgehen, dass Gehäuse, die 450W bewältigen, wohl auch noch 600W ganz gut schaffen werden.
Bis zu ner gewissen Abwärme schaffen die durch Luftzirkulation diese schneller raus zu transportieren als sie entsteht. Wird die Hitzequelle zu groß, ...
So ist es, für diese Behauptung gibt es daher keinen Beleg und das wird so bleiben bis man eine weitere Wärmequelle hinzufügt um das zu testen.
Natürlich nur bezogen auf das Gehäuse, wie sich eine einzelne GPU mit 600W und möglicherweise abweichender Kühlung (AIO?) selbst verhalten wird steht auf anderem Blatt.
 
tox1c90 schrieb:
Darum kann ich auch mit der Aussage nicht mitgehen, dass Gehäuse, die 450W bewältigen, wohl auch noch 600W ganz gut schaffen werden.
Bis zu ner gewissen Abwärme schaffen die durch Luftzirkulation diese schneller raus zu transportieren als sie entsteht. Wird die Hitzequelle zu groß, wird sich das Gehäuse jedoch kontinuierlich aufheizen, was wiederum die Effektivität der Kühlung herabsetzt.
Zum einen gab es erst einen, wenn auch wenig wissenschaftlichen Test, zu genau diesem Thema.

Zum anderen haben Lüfter sowas wie m3/h im Datenblatt stehen und Modelle können passend dem Szenario gewählt werden.

Bei Sli/CF + OC hat es doch auch funktioniert :).
Es ist doch schön wenn es endlich mal wieder etwas Herausforderungen gibt um eine Karte kühl zu halten.

Mir persönlich ist das egal, Hauptsache die 4070 hat 16gb!
 
...
Bei Sli/CF + OC hat es doch auch funktioniert :).
Es ist doch schön wenn es endlich mal wieder etwas Herausforderungen gibt um eine Karte kühl zu halten. ...
Also ich fände es eigentlich viel schöner, wenn die Karten bei gleichem oder weniger Verbrauch mehr Leistung bringen. Passte auch besser in die heutige Zeit.
 
  • Gefällt mir
Reaktionen: n4pst3r_92
hahaqp schrieb:
Man könnte meinen das neue Portfolio wird nur aus 90/Ti bestehen...

Das nicht, aber es wird ja jetzt schon klar, dass zum Marktstart der kommenden GPU-Generationen die Halo-/Flaggschiffprodukte bei beiden Entwicklern - nVidia etwa mit RTX 4090 und 4080 (evt. noch mit Glück einer RTX 4070 - mit MSRP/UVP aktuell gemunkelt im 700+ Euro Bereich - aber die soll ja beim 104er Chip bleiben wohingegen die RTX 4080 angeblich einen eigenen 103er Chip bekommen soll, so dass eine etwas teurere RTX 4070Ti als beschnittener 103er Chip evt. wahrscheinlicher wäre) und AMD/RTG mit RX 7900(XT) GPUs (gemunkelt werden Preise (deutlich) über 2000 Euro für den Navi 31 MCM-GPU-Vollausbau und um die 1500 Euro für die abgespeckte Navi31 MCM-GPU-Version) - ganz klar die Priorität haben werden.

Letztere GPUs richten sich in erster Linie an Kryptominer und Scalper(-Händler), gefolgt von semi-professionellen Nutzern und einer Handvoll Early Adopter und HardCore-Gaming-Enthusiasten, die solche Grafikkarten für die vorhersehbar veranschlagten Mondpreise kaufen werden.

1652008144035.png


Zuerst werden wohl Raphael Zen4 (RyZen 7000er) CPUs offiziell im September an den Start gehen und dann vermutlich zuerst Navi 31 bis Ende 2022/Anfang 2023 und mit Glück noch Navi 33 (kurz) danach/im Quartal 1 2023).

Die breite "Spielerschaft" dürfte - wenn es ähnlich wie beim letzten Mal läuft - evt. auch wieder 1.5 Jahre auf die dann schon angestaubten Produkte leicht oberhalb MSRP/UVP warten müssen, denn vermutlich wird das zur neuen Norm im GPU-Bereich.

Die Gamer interessieren nVidia und AMD/RTG in Wahrheit einen feuchten Kehricht als eigentliche Zielgruppe, solange sie nicht (wie ehemals AMD etwa vor mehreren Jahren, denn damals waren die Gamer als Ziel-/Abnehmergruppe mit höchster Priorität noch gut genug, wer sich noch erinnern kann) existenziell darauf angewiesen sind und solange die anderen Abnehmergruppen für Einsatzgebiete - abseits des laut Marketing eigentlich primären Einsatzgebietes der Produkte - deutlich mehr zahlen, wird die aktuelle bedenkliche Entwicklung weiter Ihren Lauf nehmen und Gaming bzw. Gaming-GPUs zunehmend Luxus werden.

Geld regiert eben die Welt und natürlich gibt es auch bei Gaming-GPUs mittlerweile eine klare Mehrklassengesellschaft mit Leuten die ganz ausgestiegen oder zu Konsolen gewechselt sind oder gar auf iGPUs/APUs (ältere und technisch anspruchslose Titel) spielen, Leuten, die noch gewillt sind massiv überteuerte Einsteiger-GPUs sich zu leisten und Leuten, die sich überwinden müssen von Generation zu Generation bei nicht gerade überragendem Leistungszuwachs und z.T. unausgereiften Features (RT-Raytracing, DLSS, FSR, etc.) immer mehr für Mittel- oder gar Oberklasse-GPUs zu zahlen.

Irgendwie läuft da bei der Entwicklung und Vermarktung der GPU-Produkte (und den vielfach leider angefixten Konsumenten) seit einiger Zeit vieles falsch aus Konsumentensicht (aus Unternehmenssicht rollt natürlich der Rubel).

Vielleicht ist es auch gut so, wenn zunehmend mehr Konsumenten sich irgendwann von den Entwicklern, Boardpartnern und der vorstellenden und dafür indirekt werbenden Fachpresse nicht mehr locken lassen (als ob man spätestens alle 2 Jahre eine neue GPU bräuchte) und sich irgendwann von Vernunft leiten lassen und wegen der hohen Preise nur noch alle 4-6 Jahre frühestens eine neue Gaming-GPU für i.d.R. schwach optimierte Spiele kaufen.

Zumindest würde das Ressourcen, Energiebedarf und somit die Umwelt mehr schonen und vielleicht werden ja auch diejenigen, die damit den großen Reibach machen, wieder mehr geerdet :).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: axi, -Stealth-, Laphonso und eine weitere Person
Laphonso schrieb:
Und hier kommt AMD ins Spiel. Anstatt diese Preisspirale mitzumachen, sollten sie viel mehr über den Preis die Impulse setzten.

Mal provokativ:
AMD bekommt nicht die Marketshare verändert, wenn sie die 7700 über 450 Euro und die 7800 über 600 verkaufen wollen.
Nvidia macht es ihnen doch einfach, mit "diesen" Preisen. Warum nutzen sie das nicht aus?

Das betrachtet nur einen Teil des Gesamtbildes - AMD würde gerne über den Preis attackieren. Durch die Chip-Knappheit (simpel - mehr bedarf als angebot) müssen die Hersteller schauen, jedes Stück Chip so teuer wie möglich zu verkaufen. Deshalb glaube ich auch, das wir zu Beginn verhältnismäßig Hohe UVP sehen werden mit noch höheren Straßenpreise, die innerhalb von 6-8 Monaten (eben länger als üblich) langsam auf UVP Niveau fallen und danach auch unter UVP.

Es sind halt andere Zeiten bis die großen Chip-Produzenten entsprechend ihre Herstellungsanlagen vergrößern können um auf das neue normal zu reagieren.
 
  • Gefällt mir
Reaktionen: Laphonso
Laphonso schrieb:
Mal provokativ:
AMD bekommt nicht die Marketshare verändert, wenn sie die 7700 über 450 Euro und die 7800 über 600 verkaufen wollen.
Nvidia macht es ihnen doch einfach, mit "diesen" Preisen. Warum nutzen sie das nicht aus?

Weil "Marketshare" nicht alles ist. Den Fehler ihrer Vorgänger wiederholt Lisa Su nicht, indem sie mit der Preisbrechstange verzweifelt um Marktanteile kämpft, während die Finanzen ins Bodenlose stürzen.

AMD haben selbst seit Jahren "margin expansion" als wichtiges Ziel deklariert. Bei jedem Financial Analyst Day findet sich eine Folie mit diesem Schlagwort.
AMD wollen da hin, wo Intel und nVidia bei der Marge sind. Sie haben schon gut aufgeholt und schließen immer mehr auf.
Lisa Su kümmert sich zurecht primär um Wirtschaftlichkeit und erst dann um Marktanteile. Marktanteile ergeben sich automatisch, wenn man gute Produkte liefert.

Abgesehen davon haben sowohl AMD als auch nVidia in den letzten Jahren sofort alles verkauft, was produziert wurde. Was will man da die Preise senken? Das wäre ja richtig dämlich.

Und last but not least ist es auch fraglich, ob man wirklich dieses Image des "Billigheimers" pflegen will. Der Kunde empfängt so das Signal, dass nVidia Premium-Produkte zu bieten hat und AMD-Produkte billige Abklatsche sind.
Mir erscheint es unter Marketingaspekten richtig, wenn AMD durchaus selbstbewusst ihre Produkte preislich am jeweiligen Konkurrenzprodukt ausrichten. Warum sich selbst klein machen und verzwergen als "Billigmarke"?
 
  • Gefällt mir
Reaktionen: axi, .fF und McTheRipper
Kuhprah schrieb:
Kann mir mal jemand erklären warum das Gehäuse da ein Problem haben sollte? Irgendwie verstehe ich den Zusammenhang da nicht...
...

Weil ein Gehäuse - bei gleichen Lüfter-rpms bei den CPU- und GPU-Lüftern - durchaus locker 20 Grad Unterschied machen kann, sowohl bei der CPU als auch bei der GPU - selbst getestet (bei konstant 303 W auf der GPU und um die 80 Watt auf der CPU. Entsprechende Tests habe ich erst vor kurzem gepostet und findet man über mein Profil).
Neben der Größe des Gehäuses, dem Aufbau des Gehäuses kommt es auch stark darauf an, ob Gehäuse-Lüfter verbaut sind. Generell gilt: Umso leiser das System und umso höher die Leistungsaufnahme, umso wichtiger das Gehäuse und die Gehäuse-Belüftung. Bei meinen Tests wurden die Lüfter so eingestellt, dass 32 db nicht überschritten wurden, was für 303 / 80 W ziemlich leise ist. Das Torrenct Compact mit 2x180x38 und 2x140x25, also vier Gehäuse-Lüftern (zwei in Front und zwei Boden) in Summe, hat hier jeweils (CPU und GPU) locker 20 Grad besser abgeschnitten, als das kleinere Torrent Nano, welches nur ein (Front) statt vier Gehäuse-Lüfter hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dideldei, .fF und Laphonso
Ich sehe das entspannt: die genannten bis zu TDP sind ja die Top Modelle die sich kaum jemand leisten kann oder möchte. Bis diese dann später bezahlbar werden wurde an den Chips und Kühlung was gedreht dass diese vielleicht auch mit mehreren Gehäuse und weniger Gehäuselüfter funktionieren und diese keinen Hitzetod sterben müssen.
 
RogueSix schrieb:
Warum sich selbst klein machen und verzwergen als "Billigmarke"?
Ein spürbarer Preisunterschied ist doch keine "Billigmarke"?
Und es geht auch nicht darum, Minus zu machen, sondern um Nvidias horrende Preise zu kontern.

Auf Hardware Unboxed wurde übrigens genaus das diskutiert in einem der letzten Videos.


Ab Minute 21:50. Es geht nur über die Marketshare und das "better buy". Und hier ist der Preis erfolgskritisch.

Ich hatte genau das wieder im Kollegenkreis. 6900 oder 3080Ti? Beide mit ähnlichen Preisen und auf fps Augenhöhe in den meisten Games.
Sind jeweils beides wieder Nvidia Käufe geworden, trotz 100 Euro mehr, weil das "Featureaddon" Raytracing, DLSS und in Teilen GSync hier immer noch viel ausmacht.

"Ja, aber FSR 2.0!!!" Ja, mit der 3080Ti (respektive Turing, Ampere, Lovelace generell) hat man BEIDES. FSR 2.0 und DLSS und kann die pro Game bessere Variante wählen. Kann ich bei AMD nicht. DLSS 3.0 kommt, und wenn das so ein Sprung wird analog DLSS 1 auf DLSS 2, dann sehe ich FSR 2.0 nicht in der gleichen Liga. Das werden aber die Tests zeigen.

Im Preisverfall kaufen nun viele ihre 3070 und lassen die 6700 liegen. Zu wenig Preisunterschied (100 Euro), um das Nvidia Featureset zu ignorieren.


Ich freue mich sehr, dass AMD mit RDNA 2 so abgeliefert hat. Aber sie haben sich das auch bezahlen lassen.

Daher sage ich, dass AMD mit RDNA 3 gerade im 7800er, 7700er und 7600er Segment andere Preise aufrufen sollte und lieferfähig sein sollte, DAMIT sie in der Nvidia Gruppe angeln können.

Bei den Enthusiasten können sie mit der unlocked 7900 ja so agieren wie Nvidia bei der 3090 und 4090 und cashen da die größte Marge ein. Der Gruppe ist es meistens eh egal.
Ergänzung ()

Chismon schrieb:
Das nicht, aber es wird ja jetzt schon klar, dass zum Marktstart der kommenden GPU-Generationen die Halo-/Flaggschiffprodukte bei beiden Entwicklern - nVidia etwa mit RTX 4090 und 4080 und AMD/RTG mit RX 7900(XT) GPUs ganz klar die Priorität haben werden.
Ja, macht ja auch Sinn, hier das Geld mit der Schubkarre abzuholen.
Ich gehöre auch zu dieser "Zielgruppe", weil z.B. Cyberpunk unter Psychosettings in UWQHD auf einer 6900XT tragisch-traurig ist und auf einer 3090 auch nur mühselig erträglicher .
AC Valhalla , Metro Exodus oder Control treten die 6900 und 3090 auch in den U90 fps Keller (MEINE subjektive smooth fps Wohlfühlzone), wenn man die Slider bedienen kann.

Mir fehlen viel, viel VIEL mehr fps in diesen, "meinen", Games, also warte ich auf die 4090 (da ich nicht sehe, dass die 7900 die 4090er Raytracing fps challengen wird/kann).

Andersherum, was möchte ein full HD Spieler mit der 4090 oder 7900 und echauffiert sich hier über die Preise und den Verbrauch?
"Ich bin nicht Zielgruppe, aber ich quake einfach mal rum, wie doof diese Produkte sind!".
Wozu? Wer fragte danach? Einfach nicht kaufen, fertig ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon
Robo32 schrieb:
Man kann daher locker die UVP der 4070 bei 1499,- ansetzen und um alle zu beruhigen für 1399,- verkaufen - dann sind doch alle direkt glücklich^^
Muss schon ein schweres Leben sein, wenn man anscheinend nicht mal UVP und Ladenpreis auseinanderhalten kann. Keine Ahnung, was man geraucht haben muss, um ernsthaft anzunehmen, die UVP würde sich von der 3070 zur 4070 verdreifachen. Das ist doch völlig absurd. :rolleyes:
 
  • Gefällt mir
Reaktionen: RogueSix
finde diese Watt Diskussion witzlos. Dann holt doch eine 3070 oder eine 6800 XT und drosselt ein wenig. Zack super effiziente 250 Watt Karten.
 
  • Gefällt mir
Reaktionen: iWenzi82
Gibts scho gehäuse die 2 netzteile vertragen ?:freak:
 
Ich bin ehrlich gesagt gespannt was sich Alles an den Gerüchten bewahrheiten wird und lehne mich erstmal entspannt zurück. Solange Nix kommt was mich vom Hocker haut ,Inhalt als auch Optik, gibt es für mich 0 Grund dem Neuesten hinterher zu jagen und mir Stress zu machen, da ich alle meine Lieblingsgames zu meiner Zufriedenheit zocken kann und auch an der Wattgrenze bei den Karten für meine Komfortzone (Hitze/Aufwand der Kühlung) angekommen bin. Daher müsste mir die Kinnlade tatsächlich ungebremst auf den Boden fallen und gleichzeitig ein technisches Wunderwerk entstehen um mich in nächster Zeit vorm Ofen zu locken.
Erheblich für mehr Aufregung würden bei mir z.B. Oled Monitore in 34 und UWQHD sorgen.
 
  • Gefällt mir
Reaktionen: PegasusHunter
Laphonso schrieb:
Ich schreibe es auch hier nochmal: Wer glaubt, dass es im Herbst
1.) verfügbare und
2.) orientiert an der 3070(ti) UVP bepreiste 4070er gibt mit 3090Ti Performance für ~ 550 Euro:

...wird seinen Glauben verlieren.

Meine These der Handelspreise, best case Szenario, von September 2022 bis Februar 2023:

4090: 1600-1900 Euro
7900: 1200-1300 Eureo
4080: 900-1100 Euro
7800: 800-950 Euro
4070: 700-850 Euro
7700: 600-700 Euro
4060: ab 500 Euro
Sollen das UPV Preise sein? Wäre ja fast zu schön um wahr zu sein! ^^
Hoffen wir das beste.
 
  • Gefällt mir
Reaktionen: Laphonso
Syrato schrieb:
Sollen das UPV Preise sein? Wäre ja fast zu schön um wahr zu sein! ^^
Hä? Die aktuellen UVPs sind dir aber schon geläufig, oder?

Für Ladenpreise könnte ich dein "zu schön um wahr zu sein" nachvollziehen, aber ganz sicher nicht für UVPs.
 
Ich habe gehofft, dass sich die Technik so entwickelt, dass neue Grafikkarten schneller werden bei gleichbleibendem oder (besser noch) niedrigerem Strombedarf, Stichwort: Effizienz. Das was ich derzeit so lese über die "Next-Gen" der Grafikkarten macht diese für mich ziemlich unattraktiv. Vor allem in Zeiten von Inflation und höheren Strompreisen und wo doch alle auf Effizienz getrimmt sind - und die Grafikkartenhersteller hauen einfach nur mehr Strom in die Teile? Naja. Ehrlich... da sehe ich keinen Fortschritt.
 
rongador schrieb:
... und die Grafikkartenhersteller hauen einfach nur mehr Strom in die Teile? Naja. Ehrlich... da sehe ich keinen Fortschritt.
Dieser Eindruck ensteht aber auch dadurch, dass alle ständig nur von den Spitzenmodellen 4090 und 7900 und deren Stromhunger sprechen. Du kannst aber davon ausgehen, dass eine 4080 oder vielleicht sogar bereits eine 4070 die Leistung einer 3090 erreichen werden, dabei aber weniger Strom verbrauchen werden als diese. Derartigen Fortschritt gab's bislang noch bei jeder Generation und das wird auch diesmal nicht anders sein.
 
Zurück
Oben