@usernamehere Der ganze Thread hier beweist, dass die Kritker falsch liegen. Alleine die Vergleiche mit Bildgeneratoren zeigen, dass die Leute nichtmal die Aussagen von Nvidia verstehen, geschweige denn verstehen, welche Möglichkeiten KI bietet und wie sie hier angewendet wird. Viele verstehen ja nichtmal, dass das kein Filter ist, der aufs fertige Bild angewendet wird. Da fängts ja schon an. Leseverständis 0. Technikverständnis 0. Es ist zum heulen, ganz ehrlich.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AI-Slop-Kritik an DLSS 5: Jensen Huang: „Spieler liegen mit ihrer Kritik völlig falsch“
- Registriert
- März 2025
- Beiträge
- 820
Macht es nicht besser. Warum sollte er das tun? Warum sollte NVidia das tun? Es werden beide Märkte bedient, der eine ist aktuell atraktiver. Trotzdem werden ja Features für den Gaming Markt weiterentwickelt und geliefert, neue Consumer-Karten auf den Markt gebracht. Nur weil einem das Preisschild nicht gefällt muss man nicht so tun als würde NVidia einen Markt nicht bedienen. Tun sie.catch 22 schrieb:für den Fall geht es mit einem "oder" in meinem Beitrag weiter...
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 8.361
hmm.. jetzt wäre wohl der Zeitpunkt deine 4090 zu verkaufen.. kriegst gut Geld dafür..Serandi.87 schrieb:Die 4090 war die erste und letzte Grafikkarte, die ich mir von euch gekauft habe! 👋🏻
{...}
Kann es kaum erwarten wieder zu AMD zurückzukehren (wenn sie denn endlich wieder vernünftige High End GPUs herstellen würden 😭🙏🏻)
ah.. moment.. die 4090 ist die beste Wahl derzeit für dich? weil die anderen Hersteller für dich derzeit nix brauchbares haben.. ?
slogen
Lt. Commander
- Registriert
- Apr. 2011
- Beiträge
- 1.929
PC Hardware macht einfach schon länger keinen Bock mehr. Ich denke das ich nicht der einzige bin der das fühlt.
Früher hat man um jedes bisschen mehr Leistung gekämpft.
Ich finde auch das sich das auf CB widerspiegelt vorallem was die News / Themen angeht.
Früher hat man um jedes bisschen mehr Leistung gekämpft.
Ich finde auch das sich das auf CB widerspiegelt vorallem was die News / Themen angeht.
piccolo85
Lt. Commander
- Registriert
- März 2009
- Beiträge
- 1.328
Die Technik ist sicher noch nicht ausgereift, aber eines ist sicher:
Die Katze ist aus dem Sack und die Technik wird nur noch besser werden.
DLSS 1 habe ich noch gemieden wie die Pest, heute meide ich Spiele ohne DLSS 4.
Ich bin davon überzeugt, dass Neural Rendering in 10 Jahren nicht mehr wegzudenken ist.
Die Katze ist aus dem Sack und die Technik wird nur noch besser werden.
DLSS 1 habe ich noch gemieden wie die Pest, heute meide ich Spiele ohne DLSS 4.
Ich bin davon überzeugt, dass Neural Rendering in 10 Jahren nicht mehr wegzudenken ist.
- Registriert
- Juli 2021
- Beiträge
- 3.906
… Es ist ja bekannt, dass der Mensch in der Regel erst mal alles brav liest und sich nicht aufregen möchte, sondern in der Regel sehr besonnen handelt und alles abwägt, sich alle Informationen holt und sich dann eine fundierte und wissenschaftliche Meinung bildet, die auf Fakten und Logik basiert.Taxxor schrieb:Das ist aber ja nicht passiert, es wurde genau so präsentiert wie es hier nochmal erklärt wurde, die Spieler habens halt einfach nicht gelesen.
Es ist halt die Frage, wie man damit umgeht und ob man das ganze dazu nutzt zu beschwichtigen, oder den "verbalen" Holzhammer rausholt. Nvidia hat sich für den Holzhammer entschieden. Man kann mit "Kritik" auch unterschiedlich umgehen und auch versuchen mal zu deeskalieren, statt zu eskalieren und einfach auch mal selbst Niveau zeigen.
Ja und Nein, das Thema ist an der Stelle deutlich komplizierter.Kraeuterbutter schrieb:und "Realismus", viele Details etc. etc. ist ja das, wonach Gamer seit Jahrzehnten streben..
Gibt es den? Und jetzt bitte nicht falsch verstehen, ich weiß, dass ich jetzt provokant einsteige damit und das nicht die feine englische Art ist.Kraeuterbutter schrieb:natürlich gibt es einen großen Anteil an Spieler die genau das wollen: mehr Richtung Fotorealismus, mehr Details, etc.
Und ich möchte an dieser Stelle deine Aussage sogar - ich bin heute richtig gemein - trennen in die Punkte "Richtung Fotorealismus" und eben "mehr Details". Ich bin mir bei beiden Punkten auch nicht sicher, ob es da einen großen Anteil, einen kleinen Anteil oder gar eine Mehrheit gibt, die entsprechende Erwartungen haben oder ob hier nicht auch eine verschobene Wahrnehmung auf Grund der Intensität der Kommunikation einer kleinen Gruppe kommt. Ich kenne Spieler, die einen "realistischen" Stil - also Fotorealismus - bevorzugen, in meinem direkten Umkreis ist das jedoch nicht die Mehrheit - wie sich auch immer wieder bei bestimmten Spielen zeigt, wenn da die Diskussion um die Grafik losgetreten wird.
Gerade beim Thema Fotorealismus würde ich persönlich weniger davon ausgehen, dass es da einen großen Anteil an Spielern gibt, die das wirklich wollen oder fordern. Wenn ich mir in den letzten Jahren da alles ansehe, dann geht es vielen Spielern darum, dass sie ein gutes Spiel bekommen, dass vernünftig aussieht, es muss allerdings eben nicht Fotorealistisch sein.
Beim Thema Details bin ich mir da auch unsicher und ich trenne das an der Stelle echt bewusst. Bei Details ist es eben auch immer so eine Sache und da ist es wie mit einem guten Buch, ein gutem Film und eben vielen anderen Sachen: Zu viele Details können erschlagen und die eigene Vorstellungskraft und Kreativität dämpfen. Genauso allerdings auch anregen.
Grafik ist bei Spielen ein Aspekt. Details und "Fotorealismus" sind dann Teilaspekte von Grafik. Sehe ich mir zum Beispiel Kena als Spiel an, dann hatte ich selten ein so schönes Spiel gesehen, weil da einfach alles passt. Art-Design ist ein wichtiger Punkt bei der Grafik, weil sie auch über die empfundene Ästhetik entscheidet.
Komplexes Thema und in dem Zusammenhang gilt halt auch: DLSS 5 kann ein richtig tolles Werkzeug werden, es kann allerdings auch ein Fluch werden. Aktuell ist es halt "Schrödingers DLSS 5". Ich bin gespannt, was kommt.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 8.361
na ist das nicht das was gewollt wird ?Azeron schrieb:noch weniger Zeit und Geld in die Entwicklung und Optimierung eines Spiels zu stecken weil den Rest macht halt dann einfach DLSS 5.
die Firmen sollen Geld und Zeit nicht in Grafikfeatures stecken sondern in den Spielspaß...
wurde vorher so wo geschrieben, dass heutige Spiele zuviel Fokus auf Grafik und zuwenig auf Spielspaß/Spieldesign legen würden.
Na das wäre dann ja die Möglichkeit: weniger Geld für Grafikentwicklung verbraten (DLSS5 hilft hier aus),
dafür mehr in den Rest ;-)
Salamimander
Rear Admiral
- Registriert
- Okt. 2019
- Beiträge
- 5.347
Postman
Rear Admiral
- Registriert
- Juni 2003
- Beiträge
- 5.756
Wäre schlimm, wenn es anders wäre - er macht bislang seinen Job kaufmännisch richtig.BloodReaver87 schrieb:Eher alles für sein Unternehmen.
Seit er an der Spitze steht, ist NVIDIA eines der wertvollsten Unternehmen, welches man nicht bestreiten kann.
Wie das moralisch bzw. für die Spiele Studios oder für die Spieler zu bewerten ist, wäre eine ganz andere Sache.
Nur weil ein paar Schreihälse johlen, welche vielleicht die Spiele noch nicht mal im Besitz haben, würde ich auch nichts ändern.
Ich bin auch kein Freund von KI, da es in den wenigsten Fällen steuerbar bleibt.
Aber grundsätzlich ist der Weg für digitale Güter nicht verkehrt.
Dass man für das Gezeigte aber gleich 2 x eine RTX 5090 benötigt ist für mich elementarer.
Denn das ist eher utopisch vom Anschaffungspreis und der Verfügbarkeit.
DonDonat
Rear Admiral
- Registriert
- Apr. 2013
- Beiträge
- 5.603
Natürlich. Alle Kritiker liegen falsch. Aber das Beispiel was sie sich ausgesucht haben und was somit dem BESTEN entspricht was man zeigen konnte, sieht halt einfach wie "AI Slop" aus.
Wir haben hier also ähnlich wie bei MS & Co. die Differenz zwischen Manager, der "AI" UNBEDINGT verkaufen muss weil es das Überleben seiner Firma sichert und Realität wo das Ergebnis nicht so gut ist, wie es das Manager wahrhaben möchte in Kombination mit Kunden die kein "AI Slop" möchten.
Sollte der Backlash groß genug werden und es in der Praxis häufig genug nicht genutzt werden, dann könnte das Ding hier eventuell wieder verschwinden. Wenn es aber wie in der Letzten News hierzu von mir spekuliert dazu führt, dass wie bei der Spiele-Optimierung die Publisher deutlich weniger Arbeit bei Gesichtern haben... Dann wird es kommen, egal was die Spieler nun wollen oder nicht, einfach weil EA, Acti, Ubi & Co. hier immer den Weg der geringsten Ausgaben gehen werden. Gerade wie letztes mal geschrieben, wenn man den KERN ASPEKT Performance dank Upscaling und Framegen komplett mit Füßen tritt, darf man sich gerne vorstellen, wie Gesichter aussehen werden, wenn es nach Publishern geht.
Fast so, als ob der "Fortschritt" den du meinst in vielen Bereichen keiner ist, sondern ein von einer Blase getriebener Wahnsinn, der mit der Realität, sei es finanziell, technisch oder logisch nichts zu tun hat. Und um dass hier noch mit nem Fakt zu unterlegen, letzter wissenschaftlicher Kenntnis-Stand z.B. was das Produktivitäts Plus durch "KI" angeht ist immer noch Null. "Fortschritt" kann man sowas also nicht wirklich bezeichnen.
Gerade der Punkt irrationale Ablehnung ist bei der aktuellen Daten-Lage nicht mal immer "irrational" sondern häufig konsequent: wie hat sich die Performance von Spielen noch entwickelt seit dem man das Trost-Pflaster Upscaling und Framegen drauf packen kann? Und wofür wird "KI" heute hauptsächlich verwendet? Gerade bei letzterem solltest du dringend mal googlen wie viel Slop aktuell generiert wird und das Internet wirklich stichwörtlich geflutet wird... Noch bevor wir bei den "KI" Produkten wie KI" Toaster, "KI" Bett, "KI" Reiskocher, "KI" Monitor, "KI" Waffeleisen etc. sind.
Mit solchen stark generalisierenden Aussagen wie du sie hier treibst sollte man sehr vorsichtig sein, da gerade die Technik Affinen Menschen sinnvollen Einsatz-Szenarien von "KI" definitiv nicht abgeneigt sein werden... Nur musst du diese halt auch mal präsentieren.
Leider ist vieles was "KI" wirklich sinnvoll und finanziell tragbar nutzt auch nicht Endkunden relevant.
Hautkrebs Erkennung z.B. sieht tatsächlich danach aus, dass es in Kombination mit einem Hautarzt sehr sinnvoll sein kann (sofern man nicht dunkle haut hat, dann geht die Fehler-Rate leider deutlich nach oben). Oder die Vorhersage von Molekülen für Medikamente. Oder das durchsuchen von den Peta-Bytes an astronomischen Daten oder oder oder
"KI" ist gekommen um zu bleiben. Aber dass heißt nicht, dass LLMs die finanziell nicht tragbar sind und technisch eine Sackgasse sind oder "KI" Slop ein sinnvoller Teil der technischen Entwicklung sind und genau da machen hier viele den Unterscheid, was man dem Lesen der Kommentare nach auch oft genau so entnehmen kann.
Statt hier aber immer negativ zu sein, könnte man auch mal positiv schreiben, dass erste Firmen die defacto Sackgasse LLMs verstanden haben und am nächsten großen Schritt von sinnvoller "KI" arbeiten: "World Models". Ohne die ist es quasi unmöglich aus den Daten der Eingaben effektiv Informationen zu ziehen, was dann auch dazu führt, dass eine LLM basierte "KI" Mrd. Datensätze brauch um irgendwie auch nur einen Hauch von Kohärenz zu präsentieren, während ein Geschöpf mit "World Model" aus nur eine Hand voll Versuche bereits selbiges erreichen könnte. Plus, die Verbesserung über mehr Daten wird ohne "World Models" natürlich auch sehr schnell sehr ausgeschöpft.
Natürlich muss sich bei den "World Models" noch zeigen, ob sie wirklich effektiver sind als LLMs oder ob es intern auch nur ein spezialisiertes LLM werden. Letzteres wäre nicht hilfreich, weil man dann wieder in die gleiche technische Sackgasse läuft wie ohnehin schon. Wenn diese aber sinnvoll werden... Und wir oben drauf noch rausfinden, wie man mehrere neuronale Netze unterschiedlicher Art effektiv miteinander vernetzen kann (was wir bisher leider noch nicht haben)... Dann könnte KI Wirklichkeit werden, die dann auch sinnvoller ist als die unendlich Ressourcen hungrigen Chinese Room Maschinen des 2020er.
Falls wer mehr wissen möchte, wieso World Models unabdingbar sind für die weiteren Fortschritte, Stanislas Dehaenes "How we learn" ist ein sehr guter Einstieg um zu verstehen wieso ein rein LLM basierter Ansatz von heute ausgeschöpft ist.
Wir haben hier also ähnlich wie bei MS & Co. die Differenz zwischen Manager, der "AI" UNBEDINGT verkaufen muss weil es das Überleben seiner Firma sichert und Realität wo das Ergebnis nicht so gut ist, wie es das Manager wahrhaben möchte in Kombination mit Kunden die kein "AI Slop" möchten.
Sollte der Backlash groß genug werden und es in der Praxis häufig genug nicht genutzt werden, dann könnte das Ding hier eventuell wieder verschwinden. Wenn es aber wie in der Letzten News hierzu von mir spekuliert dazu führt, dass wie bei der Spiele-Optimierung die Publisher deutlich weniger Arbeit bei Gesichtern haben... Dann wird es kommen, egal was die Spieler nun wollen oder nicht, einfach weil EA, Acti, Ubi & Co. hier immer den Weg der geringsten Ausgaben gehen werden. Gerade wie letztes mal geschrieben, wenn man den KERN ASPEKT Performance dank Upscaling und Framegen komplett mit Füßen tritt, darf man sich gerne vorstellen, wie Gesichter aussehen werden, wenn es nach Publishern geht.
Du meinst die "blinde Abnegung", dass das Beste was man mit der Technik zeigen konnte 1 zu 1 wie "AI Slop"/ Instagram Filter Wahnsinn aussieht? Yo, da liegt die gesamte Welt natürlich falsch und es sieht so gut aus, dass es keinen wirklich Massen-Backlash gab der groß genug war, dass selbst in Geld schwimmender CEO sich genötigt sah was zu sagen...LikeHike schrieb:sachlichen Kritik zu tun sondern ist einfach eine blinde Abneigung gegen NVidia oder KI oder beidem zusammen.
[...] irrationale Ablehnung jeglichen technischen Fortschritts
Fast so, als ob der "Fortschritt" den du meinst in vielen Bereichen keiner ist, sondern ein von einer Blase getriebener Wahnsinn, der mit der Realität, sei es finanziell, technisch oder logisch nichts zu tun hat. Und um dass hier noch mit nem Fakt zu unterlegen, letzter wissenschaftlicher Kenntnis-Stand z.B. was das Produktivitäts Plus durch "KI" angeht ist immer noch Null. "Fortschritt" kann man sowas also nicht wirklich bezeichnen.
Gerade der Punkt irrationale Ablehnung ist bei der aktuellen Daten-Lage nicht mal immer "irrational" sondern häufig konsequent: wie hat sich die Performance von Spielen noch entwickelt seit dem man das Trost-Pflaster Upscaling und Framegen drauf packen kann? Und wofür wird "KI" heute hauptsächlich verwendet? Gerade bei letzterem solltest du dringend mal googlen wie viel Slop aktuell generiert wird und das Internet wirklich stichwörtlich geflutet wird... Noch bevor wir bei den "KI" Produkten wie KI" Toaster, "KI" Bett, "KI" Reiskocher, "KI" Monitor, "KI" Waffeleisen etc. sind.
Mit solchen stark generalisierenden Aussagen wie du sie hier treibst sollte man sehr vorsichtig sein, da gerade die Technik Affinen Menschen sinnvollen Einsatz-Szenarien von "KI" definitiv nicht abgeneigt sein werden... Nur musst du diese halt auch mal präsentieren.
Leider ist vieles was "KI" wirklich sinnvoll und finanziell tragbar nutzt auch nicht Endkunden relevant.
Hautkrebs Erkennung z.B. sieht tatsächlich danach aus, dass es in Kombination mit einem Hautarzt sehr sinnvoll sein kann (sofern man nicht dunkle haut hat, dann geht die Fehler-Rate leider deutlich nach oben). Oder die Vorhersage von Molekülen für Medikamente. Oder das durchsuchen von den Peta-Bytes an astronomischen Daten oder oder oder
"KI" ist gekommen um zu bleiben. Aber dass heißt nicht, dass LLMs die finanziell nicht tragbar sind und technisch eine Sackgasse sind oder "KI" Slop ein sinnvoller Teil der technischen Entwicklung sind und genau da machen hier viele den Unterscheid, was man dem Lesen der Kommentare nach auch oft genau so entnehmen kann.
Statt hier aber immer negativ zu sein, könnte man auch mal positiv schreiben, dass erste Firmen die defacto Sackgasse LLMs verstanden haben und am nächsten großen Schritt von sinnvoller "KI" arbeiten: "World Models". Ohne die ist es quasi unmöglich aus den Daten der Eingaben effektiv Informationen zu ziehen, was dann auch dazu führt, dass eine LLM basierte "KI" Mrd. Datensätze brauch um irgendwie auch nur einen Hauch von Kohärenz zu präsentieren, während ein Geschöpf mit "World Model" aus nur eine Hand voll Versuche bereits selbiges erreichen könnte. Plus, die Verbesserung über mehr Daten wird ohne "World Models" natürlich auch sehr schnell sehr ausgeschöpft.
Natürlich muss sich bei den "World Models" noch zeigen, ob sie wirklich effektiver sind als LLMs oder ob es intern auch nur ein spezialisiertes LLM werden. Letzteres wäre nicht hilfreich, weil man dann wieder in die gleiche technische Sackgasse läuft wie ohnehin schon. Wenn diese aber sinnvoll werden... Und wir oben drauf noch rausfinden, wie man mehrere neuronale Netze unterschiedlicher Art effektiv miteinander vernetzen kann (was wir bisher leider noch nicht haben)... Dann könnte KI Wirklichkeit werden, die dann auch sinnvoller ist als die unendlich Ressourcen hungrigen Chinese Room Maschinen des 2020er.
Falls wer mehr wissen möchte, wieso World Models unabdingbar sind für die weiteren Fortschritte, Stanislas Dehaenes "How we learn" ist ein sehr guter Einstieg um zu verstehen wieso ein rein LLM basierter Ansatz von heute ausgeschöpft ist.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 8.361
und das macht ja nix und ist gut so..Halema schrieb:Du lebst mal in einer Bubble. Nur 5,5% aller Steam-Nutzer im Februar nutzen eine 3080, 4080, 5080, 4090, 5090.
weil - und darauf bezog ich mich ja - nur alte Spiele Gute spiele sind.. (oder sein sollen) ;-)
neue Spiele bieten wenig Spielspaß und schlechtes Spieldesign...
somit ist das ganze gejammere hier im Thread unwichtig, weil das gute ist ja schon längst vorhanden.. es ist da draussen, im STeamstore/GOG verborgen..
bei vielen in ihrem Pale-of-shame bereits gekauft und abgelegt ;-)
Azeron
Commodore
- Registriert
- Juli 2015
- Beiträge
- 5.118
Dann sollten sich die Entwickler vielleicht mehr Mühe geben anstatt dann alles auf AI auszulagern? Hier wird doch das Pferd von hinten aufgezäumt.Matziking schrieb:und zweitens sehen die Figuren z.T. deutlich besser aus, besonders bei Starfield
Im Fall von Starfield reden wir immerhin von einem AAA Spiel. Da zahlt man ja nicht wenig dafür und höhere Preise sowie Ingameshops in Vollpreistitel werden ja von Publishern immer damit argumentiert dass die Videospielentwicklung immer teurer wird aber wenn man durch solche Technologien noch weniger Aufwand betreiben und Geld reinstecken muss um ein Spiel zu entwickeln, ja dann frage ich mich, warum werden die Spiele dann nicht günstiger angeboten? Ohne Ingame-Shop und dafür dann mehr Wert auf andere Dinge gelegt wenn man schon Ressourcen bei der Darstellung spart?
Wird nicht passieren. Das einzige was sich der Publisher spart ist noch mehr Geld und Aufwand bei der Entwicklung was dann in die eigene Tasche wandert anstatt die Einsparungen an die Spieler weiterzugeben oder in andere Aspekte des Spiel zu stecken (Story, Gameplay, usw).
TheSomeone
Banned
- Registriert
- Jan. 2022
- Beiträge
- 2.392
Wow ein CEO der alles für sein Unternehmen gibt lolBloodReaver87 schrieb:Eher alles für sein Unternehmen.
Aaaah.. mal wieder der typische "Trust me, Bro"-slop der Tech-Milliardäre.
99% der Aussagen dieser Leute dient vorrangig dazu, die Finanzmärkte zu beeinflussen.
Ob er dann "besser" ist? Who knows. Die Kunden werdens grössenteils hinnehmen, so wie jedes Jahr weltweit ne halbe Millionen Tote im Strassenverkehr völlig ignoriert werden oder Milliarden an Verluste durch eine E-Mail-Architektur, die einfach nur katastrophal schlecht ist, sodass sich Schadsoftware ganz easy verbreiten kann.
Die kritische Diskussion ist hier und anderswo sowieso Selbstbeschäftigung. Was auch OK ist. Daher schade, dass wir uns gegenseitig so angreifen (und ich bin ja Teil davon).
99% der Aussagen dieser Leute dient vorrangig dazu, die Finanzmärkte zu beeinflussen.
Ich kann mir vorstellen, dass in 10 Jahren der Gaming-Markt (und diverse andere Märkte) wie wir sie kennen, nicht mehr existiert.piccolo85 schrieb:Ich bin davon überzeugt, dass Neural Rendering in 10 Jahren nicht mehr wegzudenken ist.
Ob er dann "besser" ist? Who knows. Die Kunden werdens grössenteils hinnehmen, so wie jedes Jahr weltweit ne halbe Millionen Tote im Strassenverkehr völlig ignoriert werden oder Milliarden an Verluste durch eine E-Mail-Architektur, die einfach nur katastrophal schlecht ist, sodass sich Schadsoftware ganz easy verbreiten kann.
Die kritische Diskussion ist hier und anderswo sowieso Selbstbeschäftigung. Was auch OK ist. Daher schade, dass wir uns gegenseitig so angreifen (und ich bin ja Teil davon).
nipponpasi
Lieutenant Pro
- Registriert
- Aug. 2025
- Beiträge
- 973
Das ist so überhaupt nicht meine Philosophie.Merit schrieb:Edit bzw auch hier passend:
"Never play fair in a game where others cheat"
Wenn die Entwickler meinen sich verkaufen zu müssen brauchen sie mein Geld ja nicht mehr.simosh schrieb:Nvidia verkauft da ihre Produkte und Anwendungsmöglichkeiten halt auch gut rein.
Ich hoffe das mit der Steam Machine in Zukunft mehr Entwicklunger bewusst auf AMD setzen.
Die Hoffnung stirbt zuletzt.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 8.361
da hält sich der NVIDIA CEO dann wohl an die Empfehlung die hier im Thread gepostet wurde:imperialvicar schrieb:Wollen wir doch erst die älteren Versprechen des NVIDIA CEO beleuchten !
Wo ist zb die Umsetzung von :
Simultaneous Multi Projection und beschreibt das Rendering einer Szene aus unterschiedlichen Blickrichtungen, um den Anforderungen eines Multi-Monitor-Systems gerecht zu werden.
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
nix für die Nische.. Multimonitor interessiert die Masse nicht
hier wird im vorgeworfen, dass was für die nische nicht umgesetzt wurde...
an anderer Stelle wird vorgeworfen, dass nur für die Nische entwickelt werden würde ;-)
shortround
Lieutenant
- Registriert
- Okt. 2006
- Beiträge
- 742
Ich brauch nicht abzuwarten. AI slop nimmt jetzt schon viel zu viel Raum in unserem Leben ein und es wird buchstäblich jeden Tag schlimmer.McKofFly schrieb:Wartet doch einfach erstmal ab. Was hier schon wieder getrieben wird an bashing - völlig unnötig sich da jetzt schon heiß zu machenund wie immer, wer es nicht nutzen will, nutzt es halt nicht?!
Diese "Abwarten" Mentalität hat schon mehr als einmal in der Geschichte dazu geführt dass Dinge passiert sind, die man hinterher nicht mehr ändern konnte.
Wenn wir jetzt nicht laut sind und uns ganz klar gegen diesen Müll aussprechen, dann werden wir in 5 Jahren nur noch KI generierten Müll vorgesetzt bekommen.
Und in der Welt will ich nicht leben.
Also sag ich jetzt, "verpiss dich NVIDIA mit diesem drecks KI Schrott, ich will es jetzt nicht und ich will es in zwei Jahren nicht. Ich will Videospiele von Menschen für Menschen gemacht. Nicht von KI für Shareholder"
Azeron
Commodore
- Registriert
- Juli 2015
- Beiträge
- 5.118
Aber das werden sie eben nicht machen. Wer das glaubt ist halt schon sehr naiv. Das gesparte Geld bleibt beim Publisher. Warum sollte man es auch in irgendwas anderes stecken? Die Gewinne sollen ja steigen.Kraeuterbutter schrieb:die Firmen sollen Geld und Zeit nicht in Grafikfeatures stecken sondern in den Spielspaß...
- Registriert
- Juli 2021
- Beiträge
- 1.623
Darüber habe ich sehr häufig gedacht! Zumal ich meine Tekken Sucht behandeln will.Kraeuterbutter schrieb:hmm.. jetzt wäre wohl der Zeitpunkt deine 4090 zu verkaufen.. kriegst gut Geld dafür..
Sie war die beste Wahl und und ist es leider bisher auch.Kraeuterbutter schrieb:ah.. moment.. die 4090 ist die beste Wahl derzeit für dich? weil die anderen Hersteller für dich derzeit nix brauchbares haben.. ?
Es ist nicht Mal so als hätte ich es nicht gewagt mich von einer 4090 loszulösen! Ich hatte mir Ende 2022 eine zugelehgt und diese letztes Jahr März für gutes Geld verkauft, da ich geplant hatte die Leistung einer 4080 anzuschauen und habe mir auch eine RX 9070 XT zu Release geholt, um von Nvidia wegzukommen.
Leider hat die AMD Karte in Tekken 8 absolut nicht zufriedenstellend performt, wegen DLSS! Die Grafik war fehlerhaft und FSR 4 funktioniert in dem Game einfach nicht, zumindest nicht zu dem Zeitpunkt, keine Ahnung wie es jetzt ist aber so lange wollte ich auch nicht warten! Also blieb ich erst Mal auf einer 4080, doch das hat sich auch nicht so richtig angefühlt und hier und da hat die Leistung einfach gefehlt (trotz DLSS Qualität in 4k@120Hz) also hatte ich mir die 4090 (es musste einfach die wunderschöne KFA2 Version sein) hier auf CB jemandem abgekauft.
Es ist und bleibt eine geniale GPU bis auf den Stecker der Schande und wenn die GPU stirbt oder nicht mehr reicht, dann war es das wohl mit Nvidia für mich.
Ich denke, wenn ich dann noch Gamer bleibe, dann wirds eine Playstation neben einem office PC und gut ist.
Und niemand wird mir glauben, was der schwierigste Part an dem Verkauf dieser 4090 ist: es ist der Look! Ich liebe dieses Design über alles und es passt einfach am besten zu meinem Setup (schau selbst im Profil).
Wenn es nach mir ginge, würde ich am liebsten dieses Design bei einer RDNA 5 GPU haben wollen! Aber wie soll man das bitte anstellen, ohne dass der Preis utopisch wird zB bei einem 3D-Druck Unternehmen🫡
Der Look des Systems ist für mich mittlerweile mindestens genau so wichtig wie eine sehr gute Leistung!
Zuletzt bearbeitet: