• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield: Bethesda will DLSS, FOV-Regler und Essen-Taste nachreichen

NOTaNerd schrieb:
Weil sich die Systemanforderungen mit Update 2.0 und dem Patch laut derzeitigen Informationen steigert und du eine schlechtere Performance haben wirst als jetzt.
Mag ja sein, aber das ändert genau 0 an meinem statement dass stand jetzt das spiel so lief auf meinem rechner, mit der grafik die es eben hat. Wenn mein post jemand in 3 jahren liest und dann nicht genug hirn hat den Timestamp zu checken und sich wundert warum es dann schlechter läuft - kann ich ihm auch nicht helfen :D
Ich bewerte was JETZT ist nicht was vielleicht morgen sien KÖNNTE. Stand jetzt: Cyberpunk läuft in krankhaft übertriebenen settings besser als SF reduziert. Was das zeigt? Das entweder die CDPR leute coding Götter sind (kaum, auch wenn ich keine gravierenden bugs in meinem 1.4 PT gefunden hab) oder Bethesta bei SF noch einiges nachoptimieren muss. Ich habe irgendwie das Gefühl dass letzteres der Fall ist.
Ergänzung ()

.Snoopy. schrieb:
Ich bin dann wieder im Spiel und genieße es, und schaue, ob ich vielleicht doch einen Bug finde, der das Spiel unspielbar macht.
Ich denke viele salzen primär wegen der mieserablen Performance, was durchaus berechtigt ist. DLSS ist halt mittlerweile der Standart vor allem weil es für Entwickler eine "Ausrede" ist um die Engine nicht perfekt durchzuoptimieren, da damit massive Leistungsgewinne möglich sind. Ohne Upscaling Technologie wäre so viel mehr nicht so schnell möglich. Natürlich freut das auch die Grafikkartenindustrie ;) aber zu den Bugs:

Bei Cyberpunk wurde und wird immer noch fleissig rumgemosert wie bugverseucht und alles das ist. Ich habe es mit 1.4 durchgespielt und genau 2 bugs und 1 crash gezählt. 1x ist ein Auto nach dem kauf aus dem Boden gesprungen, 1x musste ich in einen NPC rennen damit er sich bewegt und 1x ist mir das Spiel abgestürtzt, leider direkt im Endkampf wo es keinen Speicherpunkt gab.
Witzigerweise habe ich danach das erste mal Witcher 3 gespielt komplett durch. Wenn ich die da gezählten Bugs und Abstürze halbiere, da ich ungefähr doppelt so lange für meinen Playtrough von W3 hatte wie bei CP - habe ich 12 äquivalente bugs gefunden sowie 5 abstürze gehabt. Jedoch wird kaum einer W3 eine schlechte bewertung geben heute weil es bugverseucht ist...

Zeigt halt perfekt wie viel man auf laute Minderheiten geben kann, am besten immer für einen selber entscheiden. Zudem, wer das spiel vor dem offiziellen Release und Day 1 Patch spielt und dafür noch geld zahlt, und sich über bugs wundert..... ich hoffe dann nur es ist sein erstes PC spiel und er lernt was draus.
Selbst habe ich in SF bisher nur die typischen "ich sprech den NPC in der bewegung an und er hängt dann an der wand fest wärend er mit mir redet" - Bugs gehabt. Typisch für die Engine.

Aber halt auch typisch: Ich muss etwas klauen, weis aber nicht wie ich das bewerkstelligen soll bis ich merke... moment... physikalisches heben und halten geht ja hier auch, und ich trag das teil vor seiner nase aus dem gebäude und hebe es dann in einer gasse auf :D - (hab früher in Skyrim viel zu wenig um die ecke gedacht.... sprichwörtlich ;) )

Was mir bisher den grössten Spass bereitet, abgesehen von ein paar Technik-Tuningtips habe ich seit monaten einen kompletten Media-Blackout, und kann jetzt das spiel geniessen ohne bereits die hälfte indirekt gespoilert zu bekommen. Da fühlen sich solche kleinigkeiten dann auch wieder an als wäre ich der entdecker. Weist, wie wenn du in skyrim selber rausfindest dass die fahrenden Kajit-Händler ihr Inventar in einem Stein bei einer Stadt haben weil das Enginetechnisch wohl nicht anders ging... die freude welche leute hatten die das ohne hilfe entdeckten, das ist dann für mich spielspass.
In Cyberpunk wurde mir da leider im "ersten Akt" ein wichtiger grosser Storymoment in einem TECHNIKVIDEO (bin heute noch salzig) gespoilert... und auch darum bin ich so froh, ist mir sowas bei SF nicht passiert, da ich weis wie einen das dann angurkt.

Darum, viel spass in den weiten, hoffentlich bald mit mehr fps :)
Ergänzung ()

Taxxor schrieb:
ne 3080 reicht gerade so für knappe 60FPS in 1080p

Genau das ist auch mein Punkt. Wir sind heute schon verwöhnt dass wir ü 60 fps als "Norm" ansehen, aber nur weil heute ungehinderter Informationszugang auch die "Norm" ist und ich früher als kind kein Internet hatte, will ich doch nicht da hin zurück ^^ .
Habe anderswo auch gelesen "aber Skyrim / Fallout 4 hatte auch kein Upsampling" - Stimmt, nur liefen die auch massiv besser da man grafikmässig nicht ans äusserste Limit ging, und ich habe die Spiele nie mit aktuellster Hardware gespielt.

Ich habe es mittlerweile geschafft, mit optimieren 65-70fps in New Atlantis herauszuholen, auf High (danke PCGH für den tip mit den versteckten Einstellungen), und das trotzdem dass ich den FOV auf 100° gestellt habe, weil mir bei den Standarteinstellung nach einer Stunde schlecht wurde. (Generell scheint der FOV kaum Einfluss zu haben?) Aber es ist halt trotzdem schade dass bei einem immersiven Spiel dann bei der Grafik gepfuscht wird. Für die Immersion ist ein flüssiges sauberes Bild halt auch wichtig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Snoopy. und Vigilant
Mcr-King schrieb:
halten wir fest SF ist genauso so Müll wie CB2077 am Anfang nur wahr es auf Konsolen auch unspielbar,
CP2077 war definitiv schrottiger am Anfang. Da lief ja gar nix rund. Und wo ich es vor 8 Monaten gespielt habe war es auch nur so lalaa.
Aber ja...man fährt mit jedem Spiel besser wenn man wartet bis die ersten Updates durch sind.
Bei Starfield fällt es mir aber echt schwer...
 
  • Gefällt mir
Reaktionen: Mcr-King
BetaHydri schrieb:
Todd's Kunde nach Wunsch :). Du könntest das noch mit ein paar superlativen Adjektiven aufschmücken, wie Todd es auch macht.
Viel Spaß im Game!
Da kommt jemand daher und spricht über Spaß am Spiel. Und was kommt ist das ......

Ich glaube du kannst dir deinen Zynismus einfach sparen und ehrlich sagen, dass du ein persönliches Problem mit Menschen hast, die eine Sache mögen die du nicht magst.
Das wäre zwar assi, aber nicht so unangenehm polemisch ;)
 
  • Gefällt mir
Reaktionen: Mcr-King, Vigilant, The_Void und 4 andere
Das Gute an Bethesda Spielen sind eh die Mods.
Die Hauptstory hab ich bei TES 3+4 durchgespielt und blieb mir nach Beendigung nicht mal in Erinnerung.
Wenn man dann die Spiele etwas aufhübscht und gute Mods mit Handlung findet, kann man sich noch lange an den Spielen erfreuen.
Ausserdem kaufe ich Spiele sowieso erst nach Monaten oder Jahren wenn sie ausgereift und billig sind.

Wenn es um Story geht ist man mMn bei BioWare besser aufgehoben.
Ansonsten halt noch Gothic bis zum Umfallen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Axonteer schrieb:
Ich denke viele salzen primär wegen der mieserablen Performance, was durchaus berechtigt ist. DLSS ist halt mittlerweile der Standart vor allem weil es für Entwickler eine "Ausrede" ist um die Engine nicht perfekt durchzuoptimieren, da damit massive Leistungsgewinne möglich sind. Ohne Upscaling Technologie wäre so viel mehr nicht so schnell möglich. Natürlich freut das auch die Grafikkartenindustrie ;) aber zu den Bugs:

Bei Cyberpunk wurde und wird immer noch fleissig rumgemosert wie bugverseucht und alles das ist. Ich habe es mit 1.4 durchgespielt und genau 2 bugs und 1 crash gezählt. 1x ist ein Auto nach dem kauf aus dem Boden gesprungen, 1x musste ich in einen NPC rennen damit er sich bewegt und 1x ist mir das Spiel abgestürtzt, leider direkt im Endkampf wo es keinen Speicherpunkt gab.
Witzigerweise habe ich danach das erste mal Witcher 3 gespielt komplett durch. Wenn ich die da gezählten Bugs und Abstürze halbiere, da ich ungefähr doppelt so lange für meinen Playtrough von W3 hatte wie bei CP - habe ich 12 äquivalente bugs gefunden sowie 5 abstürze gehabt. Jedoch wird kaum einer W3 eine schlechte bewertung geben heute weil es bugverseucht ist...

das ist halt das problem: entwickler optimieren nicht mehr, wie früher für 1080p 60fps, sondern 1080p 30fps MIT UPSCALING. was ein enormer unterschied ist.

im internet habe ich auch die hater compilations auf YT gesehen, die sowohl cyberpunk, als auch starfield so hinstellen, als wäre es das reinste bugfest. ich möchte gestehen, ich habe beide titel gespielt und bugs hatte ich wenige, dafür probleme mit der performance, wie wohl jeder andere hier auch. muß aber sagen, cyberpunk 2077 war bugverseuchter, als starfield, auch wenn man ersteres heute gut spielen kann. das tröstet aber nicht über unglückliche designentscheidungen hinweg, wie zb. die story, wie ich finde.
 
  • Gefällt mir
Reaktionen: Axonteer
@The_Void, neben dem sei allerdings auch der geringe Verbrauch der GPU bei Starfield zu erwähnen.

Je nach dem pendelt meine 4070 bei 1080/60 mit 80-100Watt sehr genügsam bei dem Spiel. Ohne DLSS

Bei CP2077 brauche ich min. 200Watt inkl. DLSS/RT
 
Grundgütiger schrieb:
Bei CP2077 brauche ich min. 200Watt inkl. DLSS/RT
Das zeigt ja auch dass die GPU ausgelastet wird. Ein Sportwagen im Leerlauf schluckt auch nicht gleich viel wie auf der Piste :D Natürlich ist nicht jede GPU-Generation gleich effizient und nicht jeder Renderbefehl gleich effizient programmiert - ABER:
Um reine Wattzahlen als Argument heranzuziehen und zu vergleichen braucht man mehr als nur eben jene Wattangaben, Grafik, Frametimes, current peaks, Engine, frequenzgänge, spannungsverläufe, und und und... dieser Kaninchenbau ist so tief da könnte CB gleich einen mehrseitigen Artikel darüber schreiben nur damit man da überhaupt belastbahre Zahlen herausbekommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
NOTaNerd schrieb:
Habe nur geschrieben das es eine solche Option gibt. Ohne Wertung.
Alles cool, du bist ja nicht die Ursache für Bethesdas Faulheit.

Gamer müssten aber viel mehr auf die Barrikaden gehen und solche Dinge bemängeln.
 
  • Gefällt mir
Reaktionen: Axonteer
Wer das "Moores Law is dead" Video gesehn hat, wonach Starfield bis kurz vor Schluß praktisch nicht funktionierte, kann sich denken warum einige Sachen nicht drinnen sind.

Und bitte: Es ist NICHT die Aufgabe von AMD die Exklusivsoftware von Fremdherstellern zu implementieren - auch nicht durch dem Dev-Studio assistierende AMD Mitarbeiter!

Das muß das Dev-Studio schon selber tun und zwar mit und aus eigenen Kräften!

Fragt doch Nvidia, warum DLSS nicht Open Source war - dann gäbe es FSR garnicht...
 
  • Gefällt mir
Reaktionen: Mcr-King
Norebo schrieb:
Fragt doch Nvidia, warum DLSS nicht Open Source war - dann gäbe es FSR garnicht...
Ich gebe dir 100% Brief und siegel darauf das wenn amd die Idee zuerst gehabt hätte fsr auch kein offener Standard wäre.
Du gibt's der Konkurrenz nicht einfach umsonst einen Leistungsboost.

Jeder Entwickler kann frei auf das dlss sdk zugreifen.
Nvidia hat sogar eine open source Lösung entwickelt mit streamline die es Entwicklern ermöglicht relativ einfach andere upscaler zu integrieren wenn bereits die Arbeit für einen der 3 gemacht wurde. Eben jene open source Technik von nvidia wird von moddern genutzt um fsr in dlss spiele oder dlss in fsr spiele zu bringen.
AMD möchte anscheinend aber mit streamline nichts zu tun haben da sie im Gegensatz zu Intel nicht namentlich genannt werden.
 
Wie dumm muss ein spiele Publisher sein, um auf DLSS zu verzichten, um im Nachhinein dann es nachzureichen wir reden hier von Bethesda. MS müsste doch einfach mal in die Statistiken schauen, wie weit Geforce Karten verbreitet sind verstehe einfach, die Logik nicht.
Ok, sagen wir mal, es war einfach abgemacht, das AMD-Karten besser performen, aber die Geforce so hart einschränken, ist schon ein Eigentor.
Und dass mein x3D Prozessor langsamer als ein i5 13600K ist, verstehe ich auch nicht, was da wohl. Schiefgelaufen ist.
Starfield wurde doch mit einem 7800X3D beworben war der Druck von Intel wohl zu hoch.?
 
Zuletzt bearbeitet:
HaRdWar§FreSseR schrieb:
Wie dumm muss ein spiele Publisher sein, um auf DLSS zu verzichten, um im Nachhinein dann es nachzureichen wir reden hier von Bethesda. MS müsste doch einfach mal in die Statistiken schauen, wie weit Geforce Karten verbreitet sind verstehe einfach, die Logik nicht.
Wie blöd muss man sein, sich von nVidia vor den Karren spannen zu lassen? Ein Konzern der viel zu hohe Preise für viel zu wenig Performance bietet?

FSR ist das Einzige was sich hier durchsetzen muss! Im PC Bereich können wir uns kein Monopol leisten.
Den Unterschied in Performance und Qualität ist so marginal, dass das niemals für den Otto Normal Gamer ins Gewicht fällt.

Ich hoffe, dass es genau wie mit G-Sync und FreeSync läuft, das bessere System für den Kunden wird/hat sich durchsetzen/durchgesetzt. Die meisten nVidia Kunden hätten sich niemals G-Sync leisten können, wenn AMD den Markt nicht aufgemischt hätte.

Es bleibt dabei ... nVidia ist das Imperium und AMD bleibt die Rebellion.

Möge die Macht mit Euch sein ^^
 
  • Gefällt mir
Reaktionen: Mcr-King und HaRdWar§FreSseR
Atnam schrieb:
Ich gebe dir 100% Brief und siegel darauf das wenn amd die Idee zuerst gehabt hätte fsr auch kein offener Standard wäre.
Du gibt's der Konkurrenz nicht einfach umsonst einen Leistungsboost.
Da halte ich dagegen. ATi/AMD hatte noch NIE eine vendor-locked / herstellerabhängige Technik, ob sie "erster" waren oder nicht. Als Beispiel von nicht zu langer Zeit wäre hier rBar zu nennen - Leistungsboost, als Erster auf dem Markt, trotzdem offen für alle.

nVidia hingegen zog das schon mehrmals ab. Und nie war es gut für die Kunden.
 
  • Gefällt mir
Reaktionen: AYAlf und Mcr-King
CadillacFan77 schrieb:
Da halte ich dagegen. ATi/AMD hatte noch NIE eine vendor-locked / herstellerabhängige Technik, ob sie "erster" waren oder nicht.
Wann war AMD das letzte mal Marktführer im GPU Sektor und hat ein Feature auf den Markt gebracht das Ihnen einen signifikanten Wettbewerbsvorteil gebracht hat? Ich kann mich an keinen Zeitpunkt erinnern.
Nvidia hat AMD mit DLSS 2019 kalt erwischt. Da gibts auch nichts drumherum zu argumentieren.
Wäre es anders rum gewesen dann hätten sie niemals diese Technik an die Konkurrenz einfach so verschenkt. So blöd ist wirklich keine Börsen notiertes Unternehmen.

CadillacFan77 schrieb:
Als Beispiel von nicht zu langer Zeit wäre hier rBar zu nennen - Leistungsboost, als Erster auf dem Markt, trotzdem offen für alle.
Du solltest dir wirklich mal durchlesen wann resizable bar "erfunden" wurde, welche Firmen dahinter stehen und Teil welchen Standards es ist.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Atnam schrieb:
Wann war AMD das letzte mal Marktführer im GPU Sektor und hat ein Feature auf den Markt gebracht das Ihnen einen signifikanten Wettbewerbsvorteil gebracht hat? Ich kann mich an keinen Zeitpunkt erinnern.
Naja dass waren sie niemals aber trotzdem sie hatten als erstes TL und HDR was beides am PC zwar tot ist aber richtig gut war wie CF von verschiedenen GPUs und noch 32Bit.
 
Atnam schrieb:
Wann war AMD das letzte mal Marktführer im GPU Sektor und hat ein Feature auf den Markt gebracht das Ihnen einen signifikanten Wettbewerbsvorteil gebracht hat? Ich kann mich an keinen Zeitpunkt erinnern.
Das war nicht Deine Aussage. Deine Aussage war, dass AMD FSR nur OpenSource gemacht hat, weil sie Nachzügler waren. Hätten sie FSR vor DLSS gebracht, hätten sie wie nVidia reagiert.
Von Marktführer war nie die Rede, und btw, spielt das auch keine Rolle. Im Gegenteil. Als Marktführer sowas abzuziehen ist noch schlimmer/verwerflicher, weil man so sowohl die eigenen Kunden, Kunden der Konkurrenz und auch die Entwickler von Spiele "nötigt".

Atnam schrieb:
Nvidia hat AMD mit DLSS 2019 kalt erwischt. Da gibts auch nichts drumherum zu argumentieren.
Wäre es anders rum gewesen dann hätten sie niemals diese Technik an die Konkurrenz einfach so verschenkt. So blöd ist wirklich keine Börsen notiertes Unternehmen.
Wer redet denn von verschenken?

Atnam schrieb:
Du solltest dir wirklich mal durchlesen wann resizable bar "erfunden" wurde, welche Firmen dahinter stehen und Teil welchen Standards es ist.
Granted, nicht ganz richtig meine Aussage. rBar gibts technisch gesehen schon lange. Trotzdem war es AMD, die es erst mit Ryzen 5000 breit genutzt hat und auf seinen Platformen als Option implementiert hat - für AMD, nVidia und Intel GPUs.

Sie hätten auch nur AMD GPUs freischalten können. Haben sie aber nicht.

nVidia hätte nicht mal was dagegen tun können, ausser ev. eine Allianz mit Intel eingehen um auf Intel Boards zumindest rBar nutzen zu können.
 
CadillacFan77 schrieb:
Im Gegenteil. Als Marktführer sowas abzuziehen ist noch schlimmer/verwerflicher, weil man so sowohl die eigenen Kunden, Kunden der Konkurrenz und auch die Entwickler von Spiele "nötigt".
Das interessiert aber kein Unternehmen im Kapitalismus.
Da geht es nur darum sich einen Vorteil der Konkurrenz gegenüber zu verschaffen und wenn ich den nicht habe kann ich nur noch versuchen meine Alternative für alle anzubieten und damit an die Wechselwilligen Käufer appellieren.

Ich bin auch der festen Überzeugung das sich AMD keinen Gefallen damit tut das sie es überall supporten weil es dadurch weitaus schwieriger wird Fortschritte zu erzielen im Vergleich dazu wenn man nur für die eigene Hardware entwickelt und optimiert.

Ein Marktführer will immer seine Position sichern und verschenkt nichts an die Konkurrenz.

Lisa Su und den Verwaltungsrat von AMD interessieren deine oder meine Gefühle genau so wenig wie sie Jensen Huang und Nvidia Verwaltungsrat interessiert.

CadillacFan77 schrieb:
Wer redet denn von verschenken?
Wie stellst du es dir sonst vor?
Lizenzgebühr an AMD und Intel damit es auf ihren Karten läuft? Hätte auch keiner mitgemacht.
Ergänzung ()

CadillacFan77 schrieb:
Sie hätten auch nur AMD GPUs freischalten können. Haben sie aber nicht.
Ich muss zugeben das ich mich hier nicht auskenne aber ich glaube nicht das sowas beim PCI-SIG gut ankommt wenn man Features eines offenen Industrie Standards dann auf bestimmte Hardware locked.
 
CadillacFan77 schrieb:
Granted, nicht ganz richtig meine Aussage. rBar gibts technisch gesehen schon lange. Trotzdem war es AMD, die es erst mit Ryzen 5000 breit genutzt hat und auf seinen Platformen als Option implementiert hat - für AMD, nVidia und Intel GPUs.

Sie hätten auch nur AMD GPUs freischalten können. Haben sie aber nicht.
Diese Behauptung ist inkorrekt! Es war AMD das "Resizable BAR" zunächst nur für aktuelle AMD CPUs und GPUs geplant hat und mit "SAM" beworben hat. Die schnelle Reaktion seitens Nvidia und Intel, die es für alle CPUs nutzbar machten, zwang AMD erst dazu es später ebenfalls für alle frei zu geben. Wenn wir schon über "Geschäftspraktiken" sinnieren wollen, dann bitte nicht die Fakten verdrehen.
AMD hatte Smart Access Memory (SAM) als neues Feature für die Radeon-RX-6000-Grafikkarten präsentiert, das in Verbindung mit den Ryzen-5000-CPUs für Mehrleistung in Spielen sorgen soll. AMD warb mit zwei bis 13 Prozent mehr Frames Per Second (FPS) in ausgewählten Spielen. Im eigenen Versuch erreichte ComputerBase zumindest Zugewinne im niedrigen einstelligen Prozentbereich.
https://www.computerbase.de/2020-12/smart-access-memory-asus-intel-mainboards-beta-bios/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mae1cum77 und Atnam
Atnam schrieb:
Das interessiert aber kein Unternehmen im Kapitalismus.
Da geht es nur darum sich einen Vorteil der Konkurrenz gegenüber zu verschaffen und wenn ich den nicht habe kann ich nur noch versuchen meine Alternative für alle anzubieten und damit an die Wechselwilligen Käufer appellieren.
Wie gesagt, es gibt auch Gegenbeispiele. Auch als kaptialistisches Unternehmen muss man nicht immer sein eigenes Süppchen kochen wie nVidia das tut. AMD64 ist auch so ein Beispiel.

Atnam schrieb:
Ich bin auch der festen Überzeugung das sich AMD keinen Gefallen damit tut das sie es überall supporten weil es dadurch weitaus schwieriger wird Fortschritte zu erzielen im Vergleich dazu wenn man nur für die eigene Hardware entwickelt und optimiert.
Das mag ja sein. Du bist also dafür, dass wir jeweils zwei GPUs kaufen, eine von AMD und eine von nVidia? Weil sollte diese Ansicht, die Du vertritts weitergeführt werden, dann sind wir wieder, wo wir Anfangs den 90ern waren, wo Spiele nur mal auf dem einen und mal auf dem anderen Hersteller (da gab es immerhin noch paar mehr) lief.

Atnam schrieb:
Lisa Su und den Verwaltungsrat von AMD interessieren deine oder meine Gefühle genau so wenig wie sie Jensen Huang und Nvidia Verwaltungsrat interessiert.
Stimmt. Zumindest so lange ich deren Produkte kaufe. Tue ich (und ein paar Tausend andere) das aber nicht mehr, weil genannte Firmen mit ihren Geschäftspraktiken eine Abneigung dafür konstruieren, dann vielleicht irgendwann schon.
Aber wenn man natürlich die Marktherrschaft und die daraus resultierenden Exklusivtechnologien noch feiert, dann ja, interessiert es die Firmen nicht.

Eigentlich sollte den Zockern eine Konkurrenzsituation lieber sein, denn nur damit gibts Fortschritt. Aber irgendwie haben das etwa 80% noch nicht kapiert und kaufen weiter fleissig nVidia und feiern sie noch, wenn sie Exklusivtechnologie auf Hardware binden. Das ist unverständlich für mich, aber hey, dafür kannst Du jetzt für 500 Öcken eine 4060 (die eigenltich ne 4050 ist) kaufen. Ist ja so gewollt ;)

Atnam schrieb:
Wie stellst du es dir sonst vor?
Lizenzgebühr an AMD und Intel damit es auf ihren Karten läuft? Hätte auch keiner mitgemacht.
Wieso sollte das nicht funktionieren? Tut es bei diversen anderen Technologien ja auch.

Atnam schrieb:
Ich muss zugeben das ich mich hier nicht auskenne aber ich glaube nicht das sowas beim PCI-SIG gut ankommt wenn man Features eines offenen Industrie Standards dann auf bestimmte Hardware locked.
rBar wurde AMD und HP in der PCI-SIG vorgestellt. Den Weg über PCI-SIG hätte AMD nicht machen müssen. Dann wärs kein offner Standard geworden.
Ergänzung ()

xexex schrieb:
Diese Behauptung ist inkorrekt! Es war AMD das "Resizable BAR" zunächst nur für aktuelle AMD CPUs und GPUs geplant hat und mit "SAM" beworben hat. Die schnelle Reaktion seitens Nvidia und Intel, die es für alle CPUs nutzbar machten, zwang AMD erst dazu es später ebenfalls für alle frei zu geben. Wenn wir schon über "Geschäftspraktiken" sinnieren wollen, dann bitte nicht die Fakten verdrehen.
Das ist mir neu, dass AMD nVidia GPUs erst ausgesperrt hat. Hast Du da eine Quelle?

Das sowohl Board als auch GPU die Funktion unterstützen müssen ist klar. Ergo mussten auch nVidia und Intel Anpassungen vornehmen. AMD war da nur "schneller".

Mir ist aber nicht bekannt, dass es bei rBar fähigen nVidia GPUs in Kombination mit Ryzen 5000 jemals ein Problem gab / nicht funktioniert hat.
 
Zurück
Oben