News Quartalszahlen: AMD macht 99 Prozent mehr Umsatz als vor einem Jahr

Xul schrieb:
Auch Ryzen Master ist mittlerweile echt toll.
Wenn es aufrufbar ist, ja. Leider geht das bei meinem Zen+ nur, wenn die Virtualisierungsfunktion der CPU nicht aktiviert ist. Da dies bei einer Multi-Core CPU ein geradezu naheliegender Anwengungsfall ist, finde ich Ryzen Master de facto sinnfrei.
 
DarkInterceptor schrieb:
@SV3N im ersten Satz unter dem Bild wäre für mich ein "ein" zu viel drin.

zum topic
ich vergönne es AMD wirklich sehr da sie mal aus der underdog schiene rauskommen. intel war zu lange alleine auf dem markt. es braucht wieder einen echten zweikampf (auch dreikampf wenn man NV miteinbezieht) auf augenhöhe. der kunde wird es danken

Du vergönnst es AMD? Du böser Du.
 
[wege]mini schrieb:
Wir werden uns im Bereich des Tausendsassas bewegen.

1k sind schon wirklich viel, 2k sind zu viel und Fantasiepreise von Nvidia wird AMD nicht aufrufen. Wir reden immer noch über die kleinen Kunden, die für ihr Geld arbeiten müssen und die Hardware als Zeitvertreib kaufen.

mfg
Wenn das so kommt wie du sagst und 6900XT Midrange wird, dann muessen sich einige Menschen einfach damit abfinden, dass sie aus ihrem Hobby herausgepreist werden, bzw. AMD und nVidia sie dann auf die Konsolen verbannen per Default, wenn jemand nicht bereit ist die Hardware 3-5 Jahre spaeter zu einem Bruchteil des Preises zu kaufen aber somit eben aktuelle Spiele auch VIEL SPAETER zu spielen.

Denn gehen wir mal davon aus, dass AMD gnaedig ist und die Performance zu einem Rabatt nach unten reicht. Also 6900 XT Performance zu im besten Fall 700 Euro (ich traue AMD einfach nicht mehr zu dass sie nett sind zu ihren Kunden und die Performance fuer 500 Euro bieten, was meine Schmerzgrenze waere, fuer die relative Performance im Vergleich zum Top Modell mit 2,5x-3,0x Performance.

Das wuerde bei 700 Euro dann bedeuten dass die Midrange von um die 500 Euro auf ca. 700 Euro angestiegen ist in nur einer Generation. Und ich persoenlich denke, dass wenn AMD diese Performancespruenge aufrufen kann, dann wird AMD Minimum 2000 Euro fuer das Top-Modell verlangen. Alles andere ist utopisch und Wunschdenken. Jetzt haben AMD und nVidia Blut geleckt. Es wird immer besonders betont von allen hier im Forum, dass nicht AMD und nVidia die Preise in der Mining Phase gemacht haben. Das mag stimmen. Aber AMD und nVidia haben gesehen, was Leute bereit sind zu zahlen in diesen Zeiten und werden die Preise dementsprechend anpassen - NACH OBEN!

Ich denke, dass AMD und nVidia die Zeit reif halten fuer 500 Euro Einsteiger GPUs mit der naechsten Generation. Damit meine ich 60er - Level GPUs. Der Grundgedanke ist dann, dass Leute die sich das nicht leisten koennen einfach eine Konsole kaufen sollen. Wenn das so eintrifft bin ich echt raus.

Dann mache ich einen Cut bei Games aus 2019 und kaufe nichts neues mehr, bis ich 3x Performance meiner Vega 56 fuer 400 Euro bekommen kann. Notfalls gebraucht. Bis dahin spiele ich dann einfach alte Games immer und immer wieder. Wenn das erst 2025 so passiert ist das halt so.

Ich war diese Generation bereit fuer 650-800 Euro mit der 3080/6800XT eine Ausnahme bzgl. meines Budgets zu machen. Eigentlich war mein Limit davor 500 Euro maximal fuer eine GPU. Diesmal waere ich aber bereit gewesen das hohe Budget zu stellen, weil mich die GPUs bei 1440p die naechsten Jahre mit hohen Einstellungen auf 100+FPS gebracht haetten, sogar etwas laenger mit FSR /DLSS, RT aussen vor, da kein Interesse daran.

Aber man merkt, dass weder AMD noch nVidia nach dem Desaster bereit sind diese GPUs zu den Preisen anzubieten, bis auf die paar Alibi GPUs alle paar Tage. Sonst gaebe es die 3080 Ti und 3070 Ti nicht in der Form wie sie erschienen sind. Vor allem zu den Preisen.

Ich haette gerade sogar das Geld da fuer meinen Wunsch PC. Aber warum soll ich denn 2500-2600 Euro zahlen was eigentlich mittlerweile bei 2000-2100 Euro liegen sollte. Ich bin arg frustriert und kann AMD ihren Erfolg nicht goennen. Denn um nun noch mehr Geld rauszupressen lassen sie ihren Hauptmarkt im Stich. Die preisbewussten Gamer.
 
ETI1120 schrieb:
Und AMD priorisiert den 5800 um ihm mit Rabatten verkaufen zu können?
Nein, es gibt keine Priorisierung in Q2. Die Priorisierung ist Vergangenheit. AMD kann seit Mitte Q2 die Nachfrage nach Desktop-5000-Serie im Retailmarkt vollständig bedienen.

Jetzt in Q3 ist der 5800 sogar deutlich unter UVP gefallen, deutlicher als die anderen CPUs aus dem Portfolio. Ich denke 5800er ist für AMD in Zeiten der Chipknappheit einfach lukrativer als der 5900, wo gleich zwei Chiplets drauf gehen und wie die Quartalszahlen ja zeigen, haben eben viele zum R9 gegriffen, also hat man den 5800-er im Preis reduziert um wieder mehr CPUs mit einem, statt zwei Chiplets zu verkaufen und um der Intelkonkurenz in Form des i7-11700 den gar auszumachen.
 
Zuletzt bearbeitet:
Postman schrieb:
Nachdem man auch Jahre geschlafen hat ... bleibt es mit dem Aufwärtstrend so, ist meine nächste CPU auch eine von AMD ...

man hat nicht geschlafen, es fehlte schlicht die finanziellen Mittel und die Manpower um das ding schnell zu drehen. Dann kam noch einige nicht so Kluge Management Entscheidung dazu :)
 
Creeping.Death schrieb:
Jetzt bei AMD einzusteigen ist eher weniger aussichtsreich. Die Aktie ist mit einem KGV von rund 44 überbewertet, während z.B. Intel mit einem KGV von 10 eher unterbewertet ist.
Wenn man nicht auf kurzfristiges Zocken aus ist, sondern eher langfristig plant, würde ich momentan Intel den Vorzug geben (nur bei den Aktien wohlgemerkt).

und wie wächst intel so? schau dir mal nvidia an mit pe rratio aktuell bei 92. da ist amd mit 41 fast ein schnäppchen...(Annahme: amd ist ein growth stock)
 
Dittsche schrieb:
und wie wächst intel so? schau dir mal nvidia an mit pe rratio aktuell bei 92. da ist amd mit 41 fast ein schnäppchen...(Annahme: amd ist ein growth stock
Tesla ist sogar noch heftiger. Aber wer weiß schon, wann sich die Börse "bereinigt"?

Ich persönlich bin da vielleicht ein wenig vorsichtiger als Andere. Aber jeder, wie er mag.
 
  • Gefällt mir
Reaktionen: Dittsche
Convert schrieb:
Nein, es gibt keine Priorisierung in Q2. Die Priorisierung ist Vergangenheit. AMD kann seit Mitte Q2 die Nachfrage nach Desktop-5000-Serie im Retailmarkt vollständig bedienen.
AMD kann inzwischen ausreichend Zen 3 CPUs liefern, da stimmen wir überein.

Gegen diesen Unsinn mit der Priorisierung der margenschwächeren CPUs spricht der Vergleich des Preisverlaufs von 5600X und mit dem vom 5900X. Die Produktions und Vertriebskosten eines 5900X sind kleiner als die von zwei 5600X. Entsprechendes gilt für 5950X und 5800X.

Bei den Verkaufszahlen bei Mindfactory hatte der 5800X zwischenzeitlich den 5600X überholt. Seit auch der 5600X den UVP erreicht/unterschritten hat, verkauft sich der 5600X wieder deutlich besser als der 5800X.

Benji18 schrieb:
man hat nicht geschlafen, es fehlte schlicht die finanziellen Mittel und die Manpower um das ding schnell zu drehen. Dann kam noch einige nicht so Kluge Management Entscheidung dazu :)
Eine neue Architektur zu entwickeln benötigt eben Zeit. Vielleicht wäre es mit vollen Kassen ein Jahr schneller gegangen.

Die schlechten Management-Entscheidungen waren schon längst getätigt worden, als das Bulldozer-Desaster offensichtlich wurde. Aber mit der CPU-Entwicklung ist es wie bei einem Öltanker, es dauert eine ganze Weile bis Entscheidungen sichtbar werden.

Der Balanceakt von AMD war es das Tagesgeschäft mit den Bulldozerderivaten am laufen zu halten, während eine komplett neue Architektur entwickelt wurde.
 
  • Gefällt mir
Reaktionen: Benji18
ETI1120 schrieb:
Gegen diesen Unsinn mit der Priorisierung der margenschwächeren CPUs spricht der Vergleich des Preisverlaufs von 5600X und mit dem vom 5900X.
Der 5900X und der 5600X haben beide im Mai ihre UVP erreicht. Ich habe aber auch nie behauptet, dass der 5600X priorisiert wurde, sondern lediglich vom 5800X gesprochen. Der 5800X wurde sehr wohl priorisiert, denn der hat seine UVP bereits Ende Januar 2021 erreicht und war auch über AMD.com zu UVP lieferbar.

ETI1120 schrieb:
Die Produktions und Vertriebskosten eines 5900X sind kleiner als die von zwei 5600X. Entsprechendes gilt für 5950X und 5800X.

Man muss das gesamte Bild sehen. Die Chiplets werden nicht nur in Ryzens verbaut, sondern auch im Epic.
Jedes Chiplet, dass man beim 5900X und 5950X sparrt, kann man mit noch mehr Gewinn im Epic verkaufen. Daher macht es für AMD Sinn, denn 5800X besser zu verkaufen, als die CPUs mit zwei Chiplets, zumindest so lange, solange man alle Chiplets im Epic los wird. In der zweiten Jahreshälfte will AMD ja mehr Milans als Rome verkaufen, dafür braucht man eben die Chiplets und Threadripper will man in Q4 ja auch noch launchen.
Außerdem muss AMD den Notebookmarkt mit APUs versorgen, also darf der 5700G im August dem 5800X nicht das Wasser abgraben, also muss der 5800X entsprechend Attraktiv sein/bleiben, also noch ein Grund warum jetzt in Q3 der 5800X weiter im Preis sinkt. Den 5700G noch höher im Preis anszusetzen geht nicht, denn der muss ja zum Core i7 11700 preislich irgendwie noch einigermaßen passen. Schon der aktuell komunizierte Preis für den 5700G ist zu hoch, aber der wird schon noch auf 300 Euro sinken, wenn die Leute den nicht wie Blöde kaufen, weil die unbedint eine APU wollen....
 
Convert schrieb:
Der 5900X und der 5600X haben beide im Mai ihre UVP erreicht. Ich habe aber auch nie behauptet, dass der 5600X priorisiert wurde, sondern lediglich vom 5800X gesprochen. Der 5800X wurde sehr wohl priorisiert, denn der hat seine UVP bereits Ende Januar 2021 erreicht und war auch über AMD.com zu UVP lieferbar.
Der Artikel über die Priorisierung der diese ganze Diskusion lostrat, hat sich immer auf 5600X und 5800X bezogen. Nur verhält sich der 5600X nicht wie angekündigt, ...
Convert schrieb:
Man muss das gesamte Bild sehen. Die Chiplets werden nicht nur in Ryzens verbaut, sondern auch im Epic.
Jedes Chiplet, dass man beim 5900X und 5950X sparrt, kann man mit noch mehr Gewinn im Epic verkaufen. Daher macht es für AMD Sinn, denn 5800X besser zu verkaufen, als die CPUs mit zwei Chiplets, zumindest so lange, solange man alle Chiplets im Epic los wird. In der zweiten Jahreshälfte will AMD ja mehr Milans als Rome verkaufen, dafür braucht man eben die Chiplets und Threadripper will man in Q4 ja auch noch launchen.
Außerdem muss AMD den Notebookmarkt mit APUs versorgen, also darf der 5700G im August dem 5800X nicht das Wasser abgraben, also muss der 5800X entsprechend Attraktiv sein/bleiben, also noch ein Grund warum jetzt in Q3 der 5800X weiter im Preis sinkt. Den 5700G noch höher im Preis anszusetzen geht nicht, denn der muss ja zum Core i7 11700 preislich irgendwie noch einigermaßen passen. Schon der aktuell komunizierte Preis für den 5700G ist zu hoch, aber der wird schon noch auf 300 Euro sinken, wenn die Leute den nicht wie Blöde kaufen, weil die unbedint eine APU wollen....
Du verwechselt Preisänderungen, die sich aus Angebot und Nachfrage ergeben mit Preisänderungen bei AMD.

Wir hatten das Thema schon Mal zu Jahresanfang.

Ein Chiplet kann nicht beliebig verwendet werden. Beim Binning werden Chips entsprechend ihrer Eigenschaften den Kategorien/Produkten zuordnet.

D. h. AMD kann priorisieren welche Chips gefertigt werden. Beim Verwenden dieser Chips hat AMD nur noch begrenzt Möglichkeiten wie priorisiert wird.
  • Wenn für eine Binning-Klassifizierung nur wenige Chips anfallen, dann können von dem entsprechenden Produkt weniger verkauft werden.
  • Wenn für eine Binning-Klassifizierung viele Chips anfallen, dann können von dem entsprechenden Produkt mehr verkauft werden.

Priorisieren kann AMD nur dann, wenn eine Binning-Kategrie für mehrere Produkte verwendet werden kann.
 
thepusher90 schrieb:
dass sie aus ihrem Hobby herausgepreist werden

Das Eigentum an eigener High-End Hardware wird sich in den nächsten Jahren auf die wohlhabende Schicht verlagern. Das sage ich aber schon längere Zeit.

Die Gamer werden jedoch ihre Hardware weiterhin besitzen. Sie steht aber nicht mehr bei ihnen zu Hause und lungert nicht stundenlang rum, wenn das "Herrchen" gerade schläft oder arbeiten ist.

5-10k Euro für High-End im Jahr 2025 ist mMn kein hoher Preis, für Enthusiasten. Für jedermann, ist dies natürlich nicht gedacht. Dafür wird es Miete oder Leasing geben.

Falls dir dieser Trend erst jetzt bewusst wird, hast du die letzten Jahre wohl in einer Höhle gelebt.

mfg
 
[wege]mini schrieb:
5-10k Euro für High-End im Jahr 2025 ist mMn kein hoher Preis, für Enthusiasten. Für jedermann, ist dies natürlich nicht gedacht. Dafür wird es Miete oder Leasing geben.

Falls dir dieser Trend erst jetzt bewusst wird, hast du die letzten Jahre wohl in einer Höhle gelebt.
Das heisst dann fuer den Menschen der sich fuer 2000 Euro einen PC kaufen moechte und damit alles machen moechte, wie seine Games modden, mit Ini Files rumbasteln, aber auch alle Interfaces jedweder Programme fuer sich selbst anpassen faellt dann weg. Fuer uns heisst es dann Shit happens oder sorg dafuer dass du eine massive Gehaltserhoehung bekommst. Super Aussichten! Und die Enthusiasten zucken mit den Schultern, weil sie sich das weiterhin leisten koennen. Ich kriege gerade Brechreiz. Diese "Ist halt so"- Haltung ist widerlich!

Ich hatte mit Ampere Release noch die leise Hoffnung dass fuer 700 Euro das 80er Tier jetzt als Standard festgelegt wurde, nachdem genug Leute bei Turing nicht zugegriffen haben. Quasi ein Lerneffekt fuer nVidia und damit auch AMD. Aber dann kam Corona und alle anderen Unannehmlichkeiten und hat beiden perfekt in die Haende gespielt um sich die Kaeufer zu hoeheren Preisen zu erziehen.

Sobald ich an meinem Rechner nicht mehr machen kann was ich will (Und sei es weil er in einer Leasing Farm steht und dort bestimmte Sachen blockiert werden) bin ich auch raus.
 
thepusher90 schrieb:
Ich verstehe schon dass Du Dich von dieser Aussage provoziert fühlst.

Aber es wäre doch viel sinnvoller darüber zu reden, was man für eine Leistungs fürs Gaming haben will. Also wieviele Pixel bei welcher Frequenz dargestellt werden sollen, 8k @ 150 Hz oder 16k @ 200 Hz? Wie hoch soll die Grafikqualität werden, sollen effizientere Berechnungsverfahren verwendet werden oder muss deutlich mehr Rechenleistung investiert werden, um die Bildqualität zu steigern.

Wenn man also ins Blaue gesprochen die 20-fache Rechleistung einer 3090 haben will, muss man darüber nachdenken wie diese 20-fache Rechenleistung bereitgestellt werden soll. Kann man die Effizienz der GPUs um den Faktor 20 verbessern, oder gehen wir von Grafikkarten mit 1000 W bis 2000 W Verbrauch aus?

Auf der anderen Seite ist es doch so, mit jeder weiteren Steigerung der Auflösung wird der Zuwachs des Nutzen kleiner. Ich bin davon überzeugt, dass viele Leute keinen Sinn in 8k und 16k (falls es denn kommt) sehen werden. Es gibt Enthusiasten, die geben gewaltige Summen für Hifi-Anlagen aus während die Mehtheit dfer Leute Musik über MP3 oder andere verlustbehaftete Formate hört.

Ich bin sicher Du wirst in 5 Jahren mit einem PC für 2000 Euro erheblich bessere Grafikqualität bekommen als heute für dieselbe Summe. Ein Problem hast Du nur, wenn Du mit dieser Grafikqualität nicht zufrieden bist. Wenn Du mit dieser Qualität zufrieden bist, was jucken Dich ein paar Freaks die das fünffache für Systeme ausgeben, bei denen Du keinen zusätzlichen Nutzen erkennst?
 
Zuletzt bearbeitet von einem Moderator:
ETI1120 schrieb:
Ich verstehe schon dass Du Dich von dieser Aussage provoziert fühlst.

Aber es wäre doch viel sinnvoller darüber zu reden, was man für eine Leistungs fürs Gaming haben will. Also wieviele Pixel bei welcher Frequenz dargestellt werden sollen, 8k @ 150 Hz oder 16k @ 200 Hz? Wie hoch soll die Grafikqualität werden, sollen effizientere Berechnungsverfahren verwendet werden oder muss deutlich mehr Rechenleistung investiert werden, um die Bildqualität zu steigern.

...

Ich bin sicher Du wirst in 5 Jahren mit einem PC für 2000 Euro erheblich bessere Grafikqualität bekommen als heute für dieselbe Summe. Ein Problem hast Du nur, wenn Du mit dieser Grafikqualität nicht zufrieden bist. Wenn Du mit dieser Qualität zufrieden bist, was jucken Dich ein paar Freaks die das fünffache für Systeme ausgeben, bei denen Du keinen zusätzlichen Nutzen erkennst?
Du hast grundsaetzlich recht. Im Moment wuerden mir 1440p und 144 Hz ausreichen (da das mein Monitor hergibt). Allerdings muss ich gestehen, dass fuer mich das angepeilte Optimum eine Aufloesung von 5120x2880 waere. Ich habe die Aufloesung als VSR Variante mal ausprobiert (ich weiss dass das nicht nativ entspricht) und konnte keine Treppchenbildung auf meinem 1440p Monitor mehr feststellen (Es war ein Traum Dishonored 1 so zu durchzuspielen). Und das ist fuer mich die optimale Aufloesung. Wo AA nahezu ueberfluessig ist. Denn das stoert mich mehr als alles andere - das Flackern und Krisseln von Aliasing. Bei 4K nativ tritt das fuer mich auch noch auf (habe mal einen 4K 27" Monitor gesehen wo das noch auftrat). 8K Waere also Overkill fuer mich, aber gedoppelte 1440p waeren fuer mich top (auch wenn es wohl nie Monitore in der Aufloesung geben wird). Scheinbar wuerde es mir reichen die VSR Variante in gelockten 144 Hz zu schaffen. Das ist mein Zielsetting.

In deiner Argumentation dass ich fuer meine Zielsetzung aber vielleicht gar nicht Mid- bis Highend brauchen werde in Zukunft gibt es einen Aspekt den du vernachlaessigst. Spieleentwickler! Wenn du Ihnen 1000-fache Power einer 3090 vor die Fuesse wirfst, kannst du sicher sein, dass sie mehr Effekte, 1000 NPCs, Pathtracing und anderen Schabernack in die Spiele schmeissen um die Hardware auszulasten. Das spricht dann fuer [wege]minis Theorie, dass dann alles ueber Streaming laufen wird aus Serverfarmen, weil du dann die Power als Normalo nicht mehr abrufen kannst vor Ort. Und da sehe ich komplett schwarz. Allein schon die Vorstellung, dass ich ueber meine Maschine keine Adminrechte mehr habe...wieviele Apps und Emulatoren nicht mehr funktionieren wuerden, weil du die als Admin starten musst. Die Haelfte meiner Plugins in Foobar2000 wuerden schon nicht mehr funktionieren.

Und dann gibt es sicher EULAs (Oder gleich eine Option die die Installation verbietet) die Emulatoren grundsaetzlich verbieten. Und dann sitzen die PCMRler da und zucken mit den Schultern und/oder empfehlen dir dann einen "Retro" Rechner von 2023 zu kaufen, worauf dann aber Windows 15 nicht mehr laufen wird.

Aber nicht nur Spiele Entwickler: Jensen Huang wird sich auch schoene Features ausdenken, damit du deine einmal gekaufte GPU nicht auf immer und ewig in 1440p 144Hz nutzen kannst. RTX ist ja nur der Anfang. Er findet sicher noch tolle Sachen die er dann als "Must Have" vermarkten kann. Wahrscheinlich dann irgendwann wirklich eine variabel skalierende KI auf der GPU die die KI Ingame reguliert und die Scripte die wir bislang als KI bezeichnen durch eine echte KI ersetzen.. Je teurer die GPU, desto realistische/besser wird die KI ingame.

Ich wette mit dir, dass wir die 1000-fache Performance einer 3090 brauchen werden um 1080p mit 60 FPS betreiben zu koennen. Das kriegen die schon hin.
 
thepusher90 schrieb:
Du hast grundsaetzlich recht. Im Moment wuerden mir 1440p und 144 Hz ausreichen (da das mein Monitor hergibt). Allerdings muss ich gestehen, dass fuer mich das angepeilte Optimum eine Aufloesung von 5120x2880 waere. Ich habe die Aufloesung als VSR Variante mal ausprobiert (ich weiss dass das nicht nativ entspricht) und konnte keine Treppchenbildung auf meinem 1440p Monitor mehr feststellen (Es war ein Traum Dishonored 1 so zu durchzuspielen). Und das ist fuer mich die optimale Aufloesung. Wo AA nahezu ueberfluessig ist. Denn das stoert mich mehr als alles andere - das Flackern und Krisseln von Aliasing. Bei 4K nativ tritt das fuer mich auch noch auf (habe mal einen 4K 27" Monitor gesehen wo das noch auftrat). 8K Waere also Overkill fuer mich, aber gedoppelte 1440p waeren fuer mich top (auch wenn es wohl nie Monitore in der Aufloesung geben wird). Scheinbar wuerde es mir reichen die VSR Variante in gelockten 144 Hz zu schaffen. Das ist mein Zielsetting.
Ich wage zu behaupten für K4-Gaming mit 144 Hz wird niemand ein System für mehr als 20 000 Euro brauchen.

thepusher90 schrieb:
In deiner Argumentation dass ich fuer meine Zielsetzung aber vielleicht gar nicht Mid- bis Highend brauchen werde in Zukunft gibt es einen Aspekt den du vernachlaessigst. Spieleentwickler!
Da hast Du im Prinzip recht.

Vor allem wenn sie von Nvidia bezahlt werden sie die neuesten Features auszunutzen.

Aber grundsätzlich müssen sich die Spieleentwickler daran orientieren was ihre potentielle Kundschaft an Hardware hat. Ein tolles Spiel zu entwerfen das praktisch niemand kauft, weil die Hardwareanforderungen zu hoch sind, führt direkt in den Bankrott.

Die verbratene Rechenleistung muss bei den Anwendern ankommen und für sie einen Mehrwert bedeuten.
Wenn kein Mehrwert erkannt wird, und nur horrende Grafikanforderungen hat, kauft das praktisch niemand.

thepusher90 schrieb:
Und dann gibt es sicher EULAs (Oder gleich eine Option die die Installation verbietet) die Emulatoren grundsaetzlich verbieten. Und dann sitzen die PCMRler da und zucken mit den Schultern und/oder empfehlen dir dann einen "Retro" Rechner von 2023 zu kaufen, worauf dann aber Windows 15 nicht mehr laufen wird.
Das Gängeln funktioniert nur so lange wie es die Anwender mitmachen. Und dafür bezahlen sich schlecht behandeln zu lassen.

thepusher90 schrieb:
Aber nicht nur Spiele Entwickler: Jensen Huang wird sich auch schoene Features ausdenken, damit du deine einmal gekaufte GPU nicht auf immer und ewig in 1440p 144Hz nutzen kannst. RTX ist ja nur der Anfang. Er findet sicher noch tolle Sachen die er dann als "Must Have" vermarkten kann.
Du machst hier einen Denkfehler. Jensen Huang macht das Angebot. Die Fanboys kaufen. Die Fanboys sind das Problem, nicht Jensen Huang.

Je höher der Preis wird, desto weniger Leute werden/können das Spiel mitmachen.

Der Trick mit der Grafik-Hardware auf Serverseite ist:
  • Die Grafik-Hardware auf dem Server wird über den Tag hinweg von mehreren Personen genutzt.
  • Die Grafik-Hardware im PC, der in der Privatwohnung steht. wird in der Regel nur von einer Person genutzt.

Durch die höhere Auslastung der Grafik-Hardware kann die Miete für die einzelnen Nutzer kleiner ausfallen, als es für jeden von Ihnen ein Hardwarekauf wäre.

Folgende Probleme bleiben bestehen:
  • Wenn die Grafik-Hardware 20 000 Euro kostet, muss das Geld über die Miete wieder reinkommen. D. h. die Mieten werden auch teuerer als heute.
  • Internetbandbreite auf der Serverseite, Personal, ... müssen bezahlt werden.
  • Die Serverhardware muss zuverlässiger sein als die im PC. Damit ist sie teurer.
  • Der Anbieter muss Gewinn machen.

Also, billiger bedeutet nicht billig. Und deshalb halte ich es unwahrscheinlich, dass Enthusiastenleistung gemietet werden kann.

thepusher90 schrieb:
Wahrscheinlich dann irgendwann wirklich eine variabel skalierende KI auf der GPU die die KI Ingame reguliert und die Scripte die wir bislang als KI bezeichnen durch eine echte KI ersetzen..
Je teurer die GPU, desto realistische/besser wird die KI ingame.
Die meisten Games begrenzen ihre KI, da sonst die Spieler keine Chance hätten. Das war doch schon bei Battle Isle so. Da wurde die KI so programmiert worden, dass sie meisten ihrer Einheiten dumm rumstehen lässt und darauf wartet dass sie abgeschlachtet werden. Gegen eine intelligentere KI hätten die menschlichen Spieler keine Chance gehabt. Es gab in einer Battle Isle Version ein Szenario wo die KI alle verfügbaren Einheiten effektiv fürs Gefecht eingesetzt hat. Da hatte man keine Chance und wurde weggeblasen. Der einzige Ausweg war das Missionsziel , einen Bunker zu betreten, rechtzeitig zu erreichen.

Was bei Nvidia als KI herumgeistert sind Algorithmen. Die Tensorcores sind Rechenwerke, die einige dieser Algorithmen effektiv umsetzen.

thepusher90 schrieb:
Ich wette mit dir, dass wir die 1000-fache Performance einer 3090 brauchen werden um 1080p mit 60 FPS betreiben zu koennen. Das kriegen die schon hin.
Ja das ist theoretisch möglich. Ein paar Dilettanten werden das hinbekommen.

Die beste Option zum Steigern der Leistungsfähigkeit ist, bessere Algorithmen zu verwenden. Und wenn ein Spiel mit ähnlichen Gameplay und ähnlicher Optik viel effizienter arbeitet, wird es sich besser als die Konkurrenzprodukte verkaufen. Denn für alle Nutzer (Tester) bietet dieses Spiel im subjektiven Empfinden die viel bessere Grafik als Konkurrenzprodukte.
 
Ich pflege schon lange eine gewisse Sympathie für AMD und gönne ihnen diesen Erfolg.

Nun muss man aber wirklich aufpassen, dass man den Bogen mit den Grafikkartenpreisen nicht überspannt.
Das kann ganz schnell nach hinten los gehen und ist in meinen Augen tatsächlich sehr frech was dort abläuft.

Hat man schon wieder vergessen, wo man noch vor 5 Jahren stand?
 
Zurück
Oben