News AMD FSR 2.0: Der Source Code ist jetzt auf GitHub verfügbar

chb@ schrieb:
Kann nur gutes für die Adoption heißen :daumen:

EDIT: Adoption scheint bereits sehr gut zu sein und...
Adaption heißt das, was Du (vermutlich) meinst - "Anpassung"... Adoption ist was anderes... auf Englisch heißt es dennoch adoption...
 
iNFECTED_pHILZ schrieb:
Das muss man sich mal auf der Zunge zergehen lassen.
So ein komplett konträrer Ansatz ggü Team grün ist in meinen Augen sehr lobenswert.
Weiter so
Letztlich hat AMD mit unter 20% Marktanteil auch keine andere Wahl. Da wären proprietäre Techniken eh todgeweiht.
Das ist eine einfache betriebswirtschaftliche Entscheidung.
 
noxon schrieb:
Immer dieselbe Leier. Zum Einen hat Nvidia DLSS auch auf GitHub https://github.com/NVIDIA/DLSS zur Verfügung gestellt und zum Anderen ist es viel wichtiger offene Forschung zu betreiben, als irgendwelche Bibliotheken offen zur Verfügung zu stellen und Research Papers stellt Nvidia wirklich in sehr großen Maße zur Verfügung. Daran sollte sich AMD mal ein Beispiel nehmen, denn das ist es was die Industrie wirklich voran bringt.

https://www.amd.com/en/corporate/research-publications
https://research.nvidia.com/publications

Die meisten Entwickler brauchen keine fertigen Bibliotheken sondern solche Papers die die Verfahren beschreiben, sodass Entwickler diese selbst auf eigene Art und Weise in ihre Engines implementieren können.
nVidia hat ein SDK veröffentlich mit binary blobs. Das ist ein gewaltiger Unterschied zu AMD, die den SOURCECODE veröffentlich haben. Ergo keine alte Leier, sondern etwas grundsätzlch anderes.
Natürlich brauchen Entwickler Bibliotheken, denn ohne läuft keine Engine, kein DLSS und nichts anderes stellt nVidia bereit. Research Papers sind zwar interessant, bringen dem Gameentwickler nicht wirklich etwas. Der muß nicht wissen wie es funktioniert, der muß nur wissen, daß es funktioniert. Der braucht die Dokumentation, wie er das verwenden kann. Propritär ist immer schlecht, wie man am Beispiel Windows sieht, wo nicht mal die Patches getestet werden... Ein freier Ansatz ist gut für die User, gut für die Entwickler.
Ergänzung ()

W0dan schrieb:
Meine Befürchtung ist, dass FSR 2.0 auf den Konsolen nochmal für so einen Sprung sorgen wird. Die zusätzliche performance wird einfach als gegeben hingenommen und schon steigen durch die Bank die Anforderungen an. Der ein oder andere Entwickler wird die Leistung sicher sinnvoll nutzen für bessere Grafik oder FPS. Die Erfahrung lehrt aber, dass viele Entwickler kein Interesse daran haben, gut zu optimieren oder zu hinterfragen, welche Hardware für die gebotene Optik notwendig sein soll bzw. ob die Anforderungen gerechtfertigt sind. Nein, alles was die Entwickler interessiert ist, ob sie auf aktueller Hardware ihr Performanceziel von 30 oder 60 FPS erreichen. Wenn das mit FSR dank 4x Upscaling einfacher geht, dann werden die Entwickler es auch nutzen. Und zwar, um Entwicklungskosten zu sparen.
Nein, Entwickler optimieren für die Konsole sehr bewußt.
Siehe Gods of War z.B. Was da eine poppelige Polaris GPU aus einer PS4 Pro rausgeholt hat, war ein Meilenstein. Was haben die dummen Entwickler des PC-Ports gemacht? Die haben die Polaris Optimierungen rausgeschmissen, deswegen läuft es auch so mies auf dem PC auf AMD-Karten - wäre auch mehr Aufwand gewesen zwei Renderpath zu implementieren - das sind die einzigen Entwickler, die Du gemeint haben könntest :)

Für eine Konsole sind framepacing das A und O. Wäre schön, wenn Nintendo FSR 2.0 verwenden würde, vielleicht würden dann manche Spiele auf der Switch nicht ruckeln :D

Die wenigsten Games entstehen überhaupt mit eigenen Engines, ein Großteil der Spiele läuft mit Unreal oder Unity und vielleicht demnächst auch mit der Lumberyard. Dann gibts noch so Baukastensysteme ala Adventure Maker (2) und andere.
Nur große Publisher leisten sich ihre eigenen Engines, wie idtech, Creator, Decima, Frostbyte, God of War "engine" und andere. Ich erwarte mir demnächst plugins für Unreal und Unity, ergo der Entwickler muß (fast) gar nichts mehr tun und Sony und Microsoft werden ihre eigenen Plugins bauen.

Da Unity und Unreal bis zu einem gewissen Punkt kostenlos sind, habe ich nicht die Befürchtung, daß Entwickler irgendetwas "sparen" nur weil es FSR 2.0 gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Termy
Eli0t schrieb:
Propritär ist immer schlecht, wie man am Beispiel Windows sieht, wo nicht mal die Patches getestet werden... Ein freier Ansatz ist gut für die User, gut für die Entwickler.
Weiß nicht, ich muss auch ein paar Rechnungen bezahlen jeden Monat. Wäre schon nicht schlecht, wenn der eine oder andere was für Software bezahlen würde.
 
  • Gefällt mir
Reaktionen: .Sentinel.
ilovebytes schrieb:
Bitte um Aufklärung, was funktioniert bei G-Sync besser als bei der offenen Variante von Amd ? und was funktioniert bei DLSS besser ? denn von der Qualität her hat Amd laut letzten Tests ja doch ordentlich aufgeholt ?
Nichts mehr, nicht umsonst gibt es ja "G-Sync comaptible" was nichts anderes ist als Adaptive Sync was nichts anderes als FreeSync mit LFR ist.
DLSS sieht bei einigen Sachen ne Spur besser aus und bei einigen ne Spur schlechter.
Was AMD da in windeseile entwickelt hat, ist schon nice.
 
Eli0t schrieb:
Nichts mehr, nicht umsonst gibt es ja "G-Sync comaptible" was nichts anderes ist als Adaptive Sync was nichts anderes als FreeSync mit LFR ist.
G-Sync comaptible reicht nicht an G-Sync ran, erst recht vom Range her. Mein FreeSync Monitor, der nicht ganz billig war, scheitert teilweise schon daran 52-53Hz zu syncen.
Eli0t schrieb:
DLSS sieht bei einigen Sachen ne Spur besser aus und bei einigen ne Spur schlechter.
Was AMD da in windeseile entwickelt hat, ist schon nice.
Windeseile? Not sure about that... ^^
 
  • Gefällt mir
Reaktionen: .Sentinel.
Maggolos schrieb:
Ja, ihr beide habt natürlich gute Argumente, die Stimmen. Man müsste es natürlich in Relation zur AMD/Nvidia stellen.
Nvidia ist natürlich die treibende Kraft. Liegt aber am Vorsprung, wodurch Sie das Kapital und die Manpower haben.
Man kann natürlich Differenzieren, wer nur sein eigenes Produkt verbessern möchte und wer die allgemeine Grundlagenforschung betreibt.

Grundsätzlich gilt natürlich, dass jedes Unternehmen seinen Gewinn optimieren möchte. Völlig wertfrei sollte man dies bedenken.
Einspruch!
nVvidia ist keine treibende Kraft für Gamer, die gehen denen am Arsch vorbei.

AMD FreeSync gab es vor G-Sync.
AMD Mantle gab es vor DX12 und Vulkan, beides ohne Mantle undenkbar.

Also was hat dem Gamer mehr gebracht? AMD oder nVidia und da ist für mich ganz klar AMD die erste Adresse, die mit wenig Mitteln viel bewegt haben. nVidia hat die Idee von FreeSync geklaut, etwas eigenes daraus gemacht und den Leuten das Geld aus der Tasche gezogen.
Auch FSR 2.0 ist beeindruckend, eben weil man keine Tensor-Cores benutzen muß, Und kommt mir bitte nicht mit CUDA, das ist für Gamer auch total Banane, da gehts um die Cashcow professionelle Anwender. nVidia hat noch nie etwas für Gamer gemacht, was mir auf die schnelle einfallen würde, außer sie gemolken bis zum Erbrechen. Man kann sagen, sie haben etwas für Streamer gemacht mit ihrer Software soferne man Windoof benutzt. Für Linux gibts ähnliche Tools bereits seit längerer Zeit und vor nVidia.
Ergänzung ()

Mr.Smith84 schrieb:
Klar mag Nvidia auf seine eigene Technik setzen aber dafür Funktioniert die aber nun mal besser als das von AMD (G-Sync Modul, DLSS zum beispiel), was jetzt die Technik von AMD aber nicht schlechter macht. Vielleicht wird die auch irgendwann oder bald gleichwertig. Mal gucken was Intel da anbieten wird und wie das sich so schlagen wird.
G-Sync war keine eigene Technik. Die wurde von AMD FreeSync geklaut und in HW gegossen, die anfangs tatsächlich Vorteile hatte. Dafür hat der Monitor dann auch 200-300$ mehr gekostet als das Freesync Pendant.
DLSS war Anfangs der ärgste Scheissdreck, den der Planet je gesehen hat. Die haben diesen Mist tatsächlich veröffentlicht! So mies ist FSR 1.0 nie gewesen! Bis DLSS soweit war wie es heute ist, sind über 3 Jahre vergangen. Ein Jahr nach FSR 1.0 hat AMD FSR 2.0 veröffentlicht und das ist mit DLSS gleichauf ohne Deep Learning.
Von wegen "funktioniert besser"... Es wäre hilfreich, wenn Du dich erst mal informierst, bevor Du derartige Tatsachenbehauptungen machst, die absolut unwahr sind.
Ergänzung ()

Tzk schrieb:
Linux Treiber glaube ich auch?
Der AMD Linux Treiber ist mittlerweile der größte Treiber im Kernel und die Entwicklung ist rasant. Mittlerweile sind selbst Spiele die in einer WINE/Proton Umgebung laufen schneller als Windows nativ.
Niemand mit halbwegs Verstand will eine nVidia Karte in der Linux Kiste, außer da läuft eine VM mit HW passthrough, damit Linux die Karte gar nicht erst sieht :D
Ergänzung ()

wtfNow schrieb:
Weil die Konkurrenz es dann besser macht und mehr Cash einnimmt.
Der Markt regelt sich da schon selbst bzw. pusht sich gegenseitig voran.

Könnte aber ggf. auf kleine Indie-Entwickler zutreffen...
Gerade Indie Entwickler betrifft es gar nicht. Für die sind Unreal und Unity und Lumberjack gratis zu haben. Die müssen keine Engine entwickeln, nur benutzen.
Ergänzung ()

Rubyurek schrieb:
Liegt einzig und allein daran, dass viele Spiele auf Nvidia optimiert werden weswegen AMD in die Röhre guckt. Würde das andersrum aussehen dann hätte AMD die Nase deutlich vorn.
Nein, es liegt daran, daß nVidia die Kohle hat, die Entwickler bezahlt, damit das auf Ihren Engines läuft.
So mächtig wie mittlerweile Unity und Unreal sind, wird auch das bald der Vergangenheit angehören. Dann optimieren alle Hersteller direkt mit den Engine Entwicklern und dann erledigt sich dieses Problem auch.
Ergänzung ()

Xes schrieb:
Zumal man nicht vergessen darf, dass Nvidia bei vielen (/den meisten?) Features auch noch Vorreiter war.
nein.
Abstrakte Forschungen zu TAA gabs schon vor DLSS. nvidia hat nur ihre HW dazu benutzt.
Xes schrieb:
AMD wird diese Technologien vermutlich nicht aus Großherzigkeit frei veröffentlichen, sie wissen genau, dass Freesync oder FSR nur über den Gratis-Weg Verbreitung finden dürfte, da Nvidias Lösungen einerseits in vielen Bereichen schlicht noch eine kleine Ecke besser sind und andererseits Nvidia nach wie vor die größere Verbreitung hat und sich die Spiele-Entwickler eher an der verbreitetsten Hardware orientieren.
Die wissen seit dem ihr Linux Treiber OpenSource ist, wie toll das ist, wie schnell die Entwicklung geht, wenn nicht nur AMD daran arbeitet. DLSS ist bestimmt auch gratis für die Entwickler, ist doch Werbung für nVidia.
nVidia hat nur die größere Verbreitung weil der Konsument nicht mündig ist, nicht nachdenkt und nicht das kauft was er braucht, sondern daß was mehr "Status" bedeutet, auch wenn er sichs eigentlich nicht leisten kann. Aber das ist ein ganz anderes Problem.
Ergänzung ()

UNDERESTIMATED schrieb:
Wieso konträr? Der Nvidia DLSS Quellcode ist mittlerweile auch frei einsehbar, halt nicht auf github und nicht ganz freiwillig, aber am Ende nunmal doch. ;-)
Nein, der ist NICHT einsehbar, außer du hast die gestohlenen Daten von nVidia auf deiner Platte.
Ergänzung ()

Iconoclast schrieb:
Löblich von AMD. Was das angeht waren sie schon immer kundenfreundlicher als Nvidia. Leider funktioniert die Technik bei Nvidia aber erfahrungsgemäß dann doch immer besser. Sitze im Moment das erste Mal seit vielen Jahren auf einem komplett AMD System, aber beim nächsten Kauf werde ich wohl wieder wechseln zu Intel und Nvidia.
Wenn Du den rotzigen nvidia Treiber meinst... das GUI aus den 70igern des vorigen Jahrhunderts :)
Da gabs genausviele Probleme wie bei AMD, mußt Dich nur umschauen und umhören oder die Suchmaschine deiner Wahl benutzen. Treiber sind immer eine Lotterie.
Meine Bekannten haben alle ein AMD System, mal mit AMD GPU, mal mit nVidia GPU und die sind alle happy.
Vielleicht heißt dein Problem auch "Windows" und nicht AMD oder Intel :D
Ergänzung ()

ComputerJunge schrieb:
Meinen ersten Rechner hatte ich 1992 - ich habe bis heute noch nie ein Produkt von NVidia gekauft oder "freiwillig" verwendet.
Sollte ich allerdings jemals wieder Lust auf "Blendern" verspüren, würde ich es machen. Der nachhaltig - weil jahrelang anhaltende - lächerliche openCL-Support ist für mich die bisher größte Enttäuschung bei AMD.
Blendern kannst auf Linux auch und da sind die Treiber sowieso besser :)
Ergänzung ()

Zer0Strat schrieb:
G-Sync comaptible reicht nicht an G-Sync ran, erst recht vom Range her. Mein FreeSync Monitor, der nicht ganz billig war, scheitert teilweise schon daran 52-53Hz zu syncen.

Windeseile? Not sure about that... ^^
das liegt aber an der Firmware des Monitors, nicht an der Technik ansich.
Ergänzung ()

Zer0Strat schrieb:
Weiß nicht, ich muss auch ein paar Rechnungen bezahlen jeden Monat. Wäre schon nicht schlecht, wenn der eine oder andere was für Software bezahlen würde.
Was hat das eine mit dem anderen zu tun? Verstehe ich nicht.
Denkst Du nicht, daß die Softwareentwicklung im Preis der Hardware kalkuliert wird?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dragnod0 und Termy
@Eli0t Und was du sagst/Schreibst, entspricht 100% die Wahrheit und alle anderen liegen Falsch oder was? xDD
 
Mr.Smith84 schrieb:
@Eli0t Und was du sagst/Schreibst, entspricht 100% die Wahrheit und alle anderen liegen Falsch oder was? xDD
Da fließt mit Sicherheit seine Persönliche Meinung mit ein. Im großen und ganzen hat er aber recht.
Bei dem was hier bis jetzt teilweise geschrieben wurde von Leuten die vermutlich eher pro NVIDIA sind (muss ja nicht jeder Fanboy sein) lässt mich schon teilweise mit dem Kopf schütteln.

Einzig AMDs GPU Treiber waren eine Zeit lang wirklich grottig. Das ist aber schon länger nicht mehr so.
Wobei selbst das eher Subjectiv ist.
In Linux sind die offenen Treiber jedenfalls besser als alles was NVIDIA je geliefert hat.
Ergänzung ()

Eli0t schrieb:
AMD FreeSync gab es vor G-Sync.
Da liegst du leider falsch.
G-Sync gibt es seit 2014, FreeSync seit 2015.
Beides basiert auf dem Adaptive-Sync Standard den es natürlich schon vorher gab.
Erfunden hat es also keiner von beiden. Von klauen kann man hier auch nicht reden.

DX12 und Vulkan würde es ohne AMD Mentle allerdings wirklich nicht geben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mr.Smith84
@dragnod0 Ja genau G-Sync kam eher auf dem Markt und soviel ich weiss 2013/2014 schon und basiert auf Adaptiv-Sync so wie du schon sagtest. Und es hat von Anfang gut gelaufen und das gleich von 40hz bis 144Hz oder mehr. Aber davon mal abgesehen, ich würde wohl kein reinen G-Sync Only Monitor mehr kaufen. Will einfach später frei entscheiden können, welche Grafikkarte als nächstes wird.

Hatte früher auch ein paar AMD/ATI Karten gehabt und teilweise echt ärger mit den Treiber gehabt. Aber die neuen sind echt um einiges besser geworden. Geht auf jeden fall in die richtige Richtung :)

Und zum Thema FSR: Dann kann ich ja gucken, wie gut das auf meiner alten 1080 noch laufen wird :)
 
Ich bin von FSR 2.0 positiv überrascht gewesen. Hätte nicht gedacht, dass die so nahe an DLSS ran kommen, ohne das man auf spezielle Hardware angewiesen ist und es damit auch mit Nvidia läuft, sogar die, die DLSS2 nicht mal beherrschen (und auch auf kommenden Intel-Karten laufen sollte). Für Nvidia spricht fast nur noch Raytracing, AMD hat einen sehr guten Job mit RDNA gemacht, sind sogar effizienter als Nvidia. (und das nach Vega, die gefühlt gestern noch AMDs abgebrochene Speerspitze war)
 
dragnod0 schrieb:
Da liegst du leider falsch.
G-Sync gibt es seit 2014, FreeSync seit 2015.
Beides basiert auf dem Adaptive-Sync Standard den es natürlich schon vorher gab.
Erfunden hat es also keiner von beiden. Von klauen kann man hier auch nicht reden.

DX12 und Vulkan würde es ohne AMD Mentle allerdings wirklich nicht geben.
https://wccftech.com/amd-freesync-adpoted-vesa-standard-display-port-12a/

Du solltest wissen, daß AMD sowohl Displayport als auch Adaptive Sync entwickelt hat.
Ergo AMD hatte Adaptive Sync vor nVidia. Wann das dann wirklich in den Treibern umgesetzt wurde, ist eine andere Geschichte. Beide Firmen sind seit Anfang an bei der VESA dabei, also ist es klar, daß beide über Entwicklungen, die in der VESA besprochen werden, Bescheid wissen. Aber nVidia hätte einfach Adaptive Sync adaptieren können ohne irgendetwas eigenes "basteln" zu müssen. nVidia will immer eine proprietäre Lösung, damit sie ordentlich abcashen können. Displayport ist übrigens royality free (im Gegensatz zu HDMI, Intel verdiente schon immer an jeder Grafikkarten mit). Das heißt nicht, daß nVidia und andere Firmen keinen Beitrag geleistet haben, es heißt nur, daß AMD die treibende Kraft war.

Du mußt etwas genauer recherchieren ;)
Ergänzung ()

Mr.Smith84 schrieb:
Ja G-Sync war früher am Markt, Adaptive Sync und Displayport sind trotzdem AMD Entwicklungen, so wie Mantle. Man sieht also, daß AMD schon seit geraumer Zeit auf offene Standards setzt.

1080 Ti funzt problemlos. Allerdings je langsamer die Karte ist, desto höher ist (logischerweise) der FSR overhead.
 
Zuletzt bearbeitet von einem Moderator:
ComputerJunge schrieb:
Meinen ersten Rechner hatte ich 1992 - ich habe bis heute noch nie ein Produkt von NVidia gekauft oder "freiwillig" verwendet.
Sollte ich allerdings jemals wieder Lust auf "Blendern" verspüren, würde ich es machen. Der nachhaltig - weil jahrelang anhaltende - lächerliche openCL-Support ist für mich die bisher größte Enttäuschung bei AMD.
Das du über die Blender Situation frustriert bist kann ich verstehen, und ob mein Ton zu hart war kann man drüber streiten, aber selbst wenn der Nutzen von Nvidias proprietärer Technologie AMD mehr genutzt haben sollte als ich es sage, finde ich das Argument trotzdem naja sagen wir sachlich schlecht aus vielen Gründen.

1. Nvidia macht das ja nur aus Eigennutz.
2. Dadurch das es proprietär ist ist es so released das AMD möglichst wenig hat, sie müssen die Software an Entwickler irgendwie bringen den SDK Part zumindest damit es irgendwo benutzt wird, sie tun also alles in ihrer Macht das AMD so wenig wie möglich profitiert. Was das selbe ist mit GSync und 20 anderen Dingen.
3. hat AMD zusammen mit irgend ner Spielefirma "Mantle" produziert, Vulkan ist davon laut Wikipedia direkt "abgeleitet" bin nicht so 100% sicher was das heißt wurde es reverse Engineered in teilen oder wurden teile des Sources sogar direkt übernommen, ich weiß es nicht, aber so oder so hat sich die gesamte Industrie verändert, das noch direkter und mehr der Fall hätte MS nicht auch noch ihren proprietären Mantle Clone DX12 released aber auch das wurde davon inspiriert bzw MS war in Druck wenn nicht DX bedeutungslos werden sollte da nach zu ziehen.
4. würde ich nach deiner Logik deine Tolle Grafik nun mit 32bit x86 cpus gekoppelt, denn hier wurde Intel nicht nur leicht inspiriert sondern benutzt direkt AMD64.

Den im Vergleich minimalen mit allen Mitteln versucht so wenig wie möglich den Konkurrenten zu helfenden "Beitrag" von Nvidia so über zu betonen, kommt mir halt nicht sehr legitim vor und eher aus irgendwelchen emotionalen Gründen.

Selbst bei GSync setzte doch lange und wahrscheinlich noch immer in Notebooks Nvidia amds freesync (oder der neutralere nicht-amd-name) ein und vermarktete es unter dem Namen Gsync. Also auch hier ist Freesync die weit groessere Inovantion weil man nicht nen 800 Euro Monitor braucht um es nutzten zu können, etwas das sich nie durch gesetzt hätte / hat.

Deine Aussage kommt mir ungefaehr so vor wie wenn ein Einbrecher kommt und auf den Hausbesitzer stoesst dem nen Messer wo rein rammt und dann aber nen Krankenwagen ruft und er dank dessen ueberlebt, ** und dann soll der Hausbesitzer noch dankbar sein das der Einbrecher den Krankenwagen gerufen hat.


** Wobei selbst der vergleich hinkt denn waere es legal oder wuerde Nvidia glauben das sie damit weg kommen und irgend solch eine Attacke waere toedlich, wuerde Nvidia uebertragen natuerlich keinen Krankenwagen rufen.
 
Zuletzt bearbeitet:
blackiwid schrieb:
wie möglich den Konkurrenten zu helfenden "Beitrag" von Nvidia so über zu betonen
Vielleicht ist Deine Interpretation meines Textes als Überbetonung das Problem? Ich hatte "nur" versucht dazulegen, dass ich die ziemlich binäre Aufteilung in Engel vs. Teufel und die damit einhergehenden moralischen Einordnung in einer (so) ausgeprägten Weise für nicht angemessen halte.

Zudem bin ich ganz dezidiert der Meinung, dass AMD ebenso nur aus ökonomischen Eigennutz handelt, wie es handelt. Ich finde daran per se auch nichts verwerflich, das ist der Daseinszweck eines nicht-gemeinnützigen Unternehmens. Und auch hier hat AMD mittlerweile zur Konkurrenz wieder aufgeschlossen, wie die Preispolitik der jüngeren Vergangenheit zeigt (Stichwort 5600x).
Sie müssen nämlich nicht mehr (in der gesamten Breite) günstiger sein, also sind sie es auch nicht mehr. Das ist übrigens aus meiner Sicht neben Ryzen/RDNA die zweite Meisterleistung von AMD: Sie haben es tatsächlich in einem vergleichsweise kurzen Zeitraum geschafft, vom "Billigheimer"-Image wegzukommen. Der Markt hat die höheren Preispunkte akzeptiert. Auch dafür gibt es objektiv ein Chapeau von mir, auch wenn es mich subjektiv als Käufer natürlich nicht mehr so begeistert.
Dennoch ist das ist grundsätzlich gut so, anders lassen sich die in Zukunft erforderlichen Investitionen nachhaltig nicht stemmen. Vielleicht wird es ja dann mit openCL auch nochmal etwas.

Irgendwie denke ich, dass wir beide damit so langsam aber zu OT sind.
 
ComputerJunge schrieb:
Zudem bin ich ganz dezidiert der Meinung, dass AMD ebenso nur aus ökonomischen Eigennutz handelt, wie es handelt. Ich finde daran per se auch nichts verwerflich, das ist der Daseinszweck eines nicht-gemeinnützigen Unternehmens. Und auch hier hat AMD mittlerweile zur Konkurrenz wieder aufgeschlossen, wie die Preispolitik der jüngeren Vergangenheit zeigt
Du scheinst ne Ausnahmesituation der Bulldozer Jahre mit normalen AMD Preisen zu vergleichen.

Wenn ich das hier richtig sehe hat ein Athlon 64 x2 beim Release auch 540-1000 Dollar gekostet:
https://www.hardware-mag.de/news/2005/april/amd_kuendigt_athlon_64_x2_an_modelle_und_preise/

Und inflationsbereinigt kannst da locker nochmal 30-50% oben drauf rechnen. 2 * 17 Jahre selbst ohne zinseszins wären das schon 34%.

Was sind dagegen 200 Euro für nen 5600x? Klar das kein Release Preis aber die CPU kostete nie mehr als 300 Euro.

Ja versteh mich nicht falsch persönlich hab ich mir auch ne 100 Euro cpu gewünscht die mindestens 6 bzw besser sogar 8 Cores hat, meine CPus auch in der Vergangenheit nie mehr als 150 Euro gekostet haben, aber ja als primär gamer war die CPU immer unwichtiger (bis zu nem bestimmten Punkt wie die Grafikkarte, daher hab ich da halt eher immer schon gespart und am unteren Ende und nicht beim Release gekauft und hab dann auch vor nem Jahr oder so für ca. 100 Euro nen Ryzen 2700 glaub xt auf Ebay ersteigert). Seh da jetzt nicht den Wucher im Vergleich dazu was Intel die Jahre vor Ryzen für 6 oder 8 Kerner verlangt hat, sind das alles spotbillige Preise.

Aber ja mehr zurück zum Thema, ja AMD will Geld verdienen, aber wenn ich z.B. ne Firma hab die Cafe verkauft, dort Wucherpreise verlangt mit aggressiver Werbung und eben alle guten Spots aufkauft, vielleicht auch mit Preisdumping am Anfang ein paar Konkurrenten Ruiniert in dem sie auf Verlust fahren um sie zu unterbieten, und dann ein Monopol fährt und eine Andere Firma eben die Stadtbekannt besten Produkte bietet, nen Geheimtipp ist und guten Service, gute Preise und alles bietet, und auch das Ziel hat Geld zu verdienen, sag ich doch auch nicht, ohh die wollen doch auch nur Geld verdienen die sind auch nicht besser als der große Monopolist der versucht irgendwelche Behälter zu verkaufen die nur die Trinköffnung öffnen wenn Cafe von der Firma drin ist.

Selbst wenn beide Geld verdienen wollen ist das eine einfach auf Kundenzufriedenheit aus gelegt, zumindest weitgehend, und die andere geht zur Not über Leichen um noch mehr Geld zu verdienen, in dem sie versuchen ein besseres Beispiel wäre Drogen oder Substanzen in den Cafe tun die süchtig machen, so das die Leute bereit sind minderwertigen Cafe oder Cafe der ihnen schaden für Wucherpreise zu kaufen. Tabak Industrie wäre sicher so ein Beispiel, da war ja auch nicht der Tabak selbst zwingend das schlimmste oder ist noch, sondern die chemischen Nebenstoffe darin. Oder eben bei Cannabis das selbe Streckmittel. Ja ein Dealer der sauberes Zeug verkauft will auch vielleicht primär Geld verdienen, aber das macht es nicht schlechter das er kein Streckmittel rein tut. Hoffe du suchst jetzt nicht nach kleinen Unterschieden meiner Beispiele ein Vergleich hinkt immer aber ich denke die Vergleiche sind niemals Perfekt das liegt in der Natur der Sache, sie sind keine Gleichsetzung.

Wenn dir solche Dinge egal sind und du lieber 2 Minuten weniger Fahrzeit hast zu der Cafekette und dafür die ganzen Nachteile in Kauf nimmst ist das dein Recht, aber man darf sie doch noch kritisieren, wie irgendwelche Tierwohl-kritiker vor nem Lidl Laden eventuell in gewissem Rahmen Demonstrieren darf und du kannst dann trotzdem dort einkaufen (oder ich), beides schließt sich nicht gegenseitig aus, für Manche sind eben Computerfreiheit wichtiger für andere Tierwohl und wieder andere irgendwas anderes.

Ich mein was ist die Logik wenn ne Firma was gutes tut zu sagen, och das doch egal, ich sage euch zynisch das die das nur tun um Geld zu verdienen. Wenn die Firmen damit nicht Leute ein besseres Image von Ihnen hätten und manche deshalb bei Ihnen kaufen, wäre doch der nächste Schritt (ok wir profitieren überhaupt nicht in keinster Weise davon nicht maximal böse Dinge zu tun, also dann tun wir wieder das maximale wie Nvidia um die Welt schlechter zu machen und Kunden in Gefängnisse zu sperren und zu nötigen unsere Produkte zu benutzen). Ich mein man kann auch so klug freien Wille in Frage stellen und vieles andere der praktische Nutzen von solchem Nihilismus erschließt sich mir nicht. Da es keinen freien willen gibt und jegliches Gut tun auch nur als Egoistisch aufgedroessert werden kann, können wir auch jegliche Moral und Werte über Bord werfen und alles wird irrelevant.
 
Zuletzt bearbeitet:
Zer0Strat schrieb:
G-Sync comaptible reicht nicht an G-Sync ran, erst recht vom Range her. Mein FreeSync Monitor, der nicht ganz billig war, scheitert teilweise schon daran 52-53Hz zu syncen.
Mit Nvidia-GPU? Kann am Treiber liegen.
Mein Gsync-Compatible-Gerät läuft 100% problemlos mit VRR bei 0-144fps...
 
Eli0t schrieb:
Du solltest wissen, daß AMD sowohl Displayport als auch Adaptive Sync entwickelt hat.
Ergo AMD hatte Adaptive Sync vor nVidia.
Hast Du eine Referenz dazu? Meines Wissens kommt beides von der VESA, also einem Firmen- Konglomerat in dem nicht nur AMD sitzt.
Und Dein Link induziert, dass AMDs Freesync eine Gegenreaktion zu GSync war.
 
  • Gefällt mir
Reaktionen: foo_1337
Zurück
Oben