Test RX 9000 vs. RTX 5000: Radeon ist mit neuen Treibern schneller, GeForce langsamer

@ElliotAlderson Sind alles Firmen, die ihr Geld machen wollen.
AMD ist auch kein Unschuldslamm, sie sind trotzdem laaange nicht so schlimm wie Nvidia.
Und AMD ist halt auch viel sympathischer, was ihnen auch zugute kommt.
 
  • Gefällt mir
Reaktionen: Lonex88
jo0 schrieb:
AMD ist auch kein Unschuldslamm, sie sind trotzdem laaange nicht so schlimm wie Nvidia.
Und AMD ist halt auch viel sympathischer, was ihnen auch zugute kommt.
Warum? Weil sie bisher immer nur abgeschlagen zweiter waren und sich deshalb solch ein Verhalten nicht erlauben konnten? Das heißt nicht, dass sie es nicht tun, sobald sie erster sind. Mir ist es egal, von welchem Unternehmen meine HW kommt. Die haben alle ihre Probleme und Macken. Ich kaufe die HW nicht aus Sympathie, sondern weils mein Hobby ist. Wenn ich nach Sympathie gehen würde, müsste ich wie in der Steinzeit leben.
 
  • Gefällt mir
Reaktionen: shaboo
jo0 schrieb:
AMD ist auch kein Unschuldslamm, sie sind trotzdem laaange nicht so schlimm wie Nvidia.
Und AMD ist halt auch viel sympathischer, was ihnen auch zugute kommt.
Auch wenn du hier sehr schön und knapp in zwei Sätzen die Funktionsweise von Markentendenz- und identifikation beschreibst, sind das genau die Dinge, vor denen man sich ganz allgemein hüten sollte.

Insbesondere, wenn man feststellt, dadurch ein "überlegendes" Gefühl zu haben oder eine Art positiver Gruppenzugehörigkeit damit assoziiert. So funktioniert das zwar mit unserer Psyche, heißt aber nicht, dass es im Kontext von Konsum und Marken gut ist, weil es die Objektivität und damit freie Entscheidungsmacht deutlich limitieren kann (Selbstbestimmt vs. Fremdbestimmt).
 
  • Gefällt mir
Reaktionen: ElliotAlderson, Stan Marsh, Quidproquo77 und eine weitere Person
@ElliotAlderson wie warum? AMD leistet sich solche Dinger halt nicht wie Nvidia.

Bei AMD hat man auch das Gefühl, dass sie für ihre Kunden was machen und versuchen das Beste rauszuholen während sie Gewinne machen. Nvidia ist da irgendwie das komplette Gegenteil.

AMD ist bei den CPU's vorne. Das einzige, was passiert ist, dass die CPU's immer leicht teurer wurden. Aber auch nicht so, dass vollkommen ihre Macht ausnutzen. Was ich auch scheiße finde, aber auch nachvollziehen kann.
Sie bieten auch immer noch CPU's für AM4 an. Die Kunden müssen sich nicht unbedingt neue Mainboards usw. kaufen, um noch an eine angemessene Leistung zu kommen. Das spielt da alles mit rein. Sie könnten auch sagen frisst AM5 oder stirbt.
Man kann damit Argumentieren, dass sie damit auch Geld machen, aber das große Geld gibt es bei der aktuellen Generation und könnten sicher auch auf AM4 verzichten.
Oder auch, dass ein Sockel über viele CPU-Generationen lebt und nicht spätestens nach 2 Jahren ein neuer kommt.
Das ist alles Verbraucherfreundlicher

Dafür, dass gerade du dich so oft voller Elan argumentativ für Nvidia einsetzt, finde ich das suspekt, dass du davon sprichst, dass dir nur im die Hardware geht.

@Vigilant Da kann ich dir nur zustimmen
 
  • Gefällt mir
Reaktionen: Lonex88
Richtig toxic hier. So, ich setze mal einen drauf: AMD ist für Geringverdiener, Nvidia für das bessere wohlhabende Volk :) [Ironie]
 
  • Gefällt mir
Reaktionen: jo0
jo0 schrieb:
Ja, AMD unterstütz kein GPU-Physx, da proprietär.
jo0 schrieb:
Das war damals DAS Argument sich eine Nvidia Karte zu holen, wenn man die geilen Physx Effekte wollte.
64bit Physx kann man weiterhin nutzen und die 32bit Titel sind schon 15 Jahre alt.
Das ist für aktuelle GPUs und Käufer nun kaum relevant, das läuft auch auf einer 2010er GPU mit altem Treiber, wer das noch mit dem Feature zocken möchte. Eine Änderung die kaum jemanden noch betrifft also extrem hochgekocht wird, wie alles bei Nvidia.
jo0 schrieb:
Ja und woher kommt das? Ist es wohl möglich, dass es an Nvidia liegt?
Ja, am Marktanteil, aber nicht an dem Unternehmen und dem was sie tun.
jo0 schrieb:
Liegt bestimmt nur an den ganzen bösen Youtubern & Co, die auf Nvidias Nacken Clicks machen wollen, wa?
Ja, damit macht man einfach am meisten Klicks. Auf den Underdog verbal einzuschlagen bringt kaum Sympathien, das ist so. Sieht man ja an dem angeblichen Steckerskandal. Im OEM Bereich hört man seit Blackwell gar nichts mehr davon, aber auf Youtube ist die Hölle los, obwohl die Fälle massiv zurückgingen.
Dasselbe bei Treiber, ROPS usw. und nun sucht man das Heil in 1% weniger Performance und pusht das.
jo0 schrieb:
Die Sache ist ganz einfach erklärt. Es liegt daran, dass Nvidia so viel Mist macht, dass man sie so sehr kritisieren kann und auch sollte!
Sehe ich nicht, finde das Handeln als AG vergleichbar mit AMD oder Intel.
jo0 schrieb:
Ich verstehe nicht, wie man sich so sehr für das schlimmste Hardware Unternehmen für Privatpersonen im Computerbereich einsetzen kann.
Wo setze ich mich denn ein? Du setzt dich doch für etwas ein. Mir ist es egal, ich bin für eine Sachebene ohne ständig alles so hochzukochen.

Hat man von den unterschiedlichen VRAM Timings auf Radeon Karten groß berichtet und einen Skandal heraufbeschworen? Nein.
Hat man über die viel höheren VRAM Temperaturen auf Radeon GPUs mit 90 bis 95 Grad den großen Skandal heraufbeschworen? Nein. Stattdessen laß man ständig darüber, dass Nvidia GPUs zu heiß werden, da ein einziges Modell einen Hotspot von 85 Grad aufwies.
Hat man die FSR3 vs. FSR4 Geschichte so gepusht wie Blackwells Physx? Auch eher nicht.
 
Zuletzt bearbeitet:
jo0 schrieb:
@ElliotAlderson wie warum? AMD leistet sich solche Dinger halt nicht wie Nvidia.
Nicht? https://www.hardwareluxx.de/index.p...hin-amd-blockiert-die-umsetzung-von-dlss.html

jo0 schrieb:
Bei AMD hat man auch das Gefühl, dass sie für ihre Kunden was machen und versuchen das Beste rauszuholen während sie Gewinne machen. Nvidia ist da irgendwie das komplette Gegenteil.
Das machen sie nicht, weil sie für dich das beste rausholen wollen, sondern weil sie an der Konkurrenz anknüpfen/vorbeiziehen wollen. Du bist nur Mittel zum Zweck :D
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Zuchtmaista
Quidproquo77 schrieb:
Ja, AMD unterstütz kein GPU-Physx, da proprietär.
Ja was sollte dann diese Aussage bezwecken?
Quidproquo77 schrieb:
64bit Physx kann man weiterhin nutzen und die 32bit Titel sind schon 15 Jahre alt.
Das ist für aktuelle GPUs und Käufer nun kaum relevant, das läuft auch auf einer 2010er GPU mit altem Treiber, wer das noch mit dem Feature zocken möchte. Eine Änderung die kaum jemanden noch betrifft also extrem hochgekocht wird, wie alles bei Nvidia.
Was soll ich jetzt damit anfangen? Du sagst mir Sachen, die ich weiß. Physx ist irrelevant
Quidproquo77 schrieb:
Ja, am Marktanteil, aber nicht an dem Unternehmen und dem was sie tun.
Sicher, der Marktanteil ist es. Selten so ein Quatsch gelesen. Warum hackt dann kaum einer auf AMD im CPU Desktop Bereich? Da sollten sie Marktführer sein, abgesehen evtl. von OEMs. Stattdessen wird auf den Underdog, Intel rumgeritten
Quidproquo77 schrieb:
Ja, damit macht man einfach am meisten Klicks. Auf den Underdog verbal einzuschlagen bringt kaum Sympathien, das ist so. Sieht man ja an dem angeblichen Steckerskandal. Im OEM Bereich hört man seit Blackwell gar nichts mehr davon, aber auf Youtube ist die Hölle los, obwohl die Fälle massiv zurückgingen.
Dasselbe bei Treiber, ROPS usw. und nun sucht man das Heil in 1% weniger Performance und pusht das.
"die Hölle los" Du übertreibst mit deinen Schlagwörtern. Reihst dich damit ja gut ein.
Natürlich nutzen sie das auch aus. Aber vieles leider meiner Meinung nach berechtigt.
Quidproquo77 schrieb:
Sehe ich nicht, finde das Handeln als AG vergleichbar mit AMD oder Intel.
Nimm die grüne Brille ab, vielleicht hast du dann mehr durchblick.
Quidproquo77 schrieb:
Wo setze ich mich denn ein? Du setzt dich doch für etwas ein. Mir ist es egal, ich bin für eine Sachebene ohne ständig alles so hochzukochen.
Musst doch nur deinen Verlauf an Posts durchgehen: https://www.computerbase.de/forum/search/3478539/?c[users]=Quidproquo77&o=date
Quidproquo77 schrieb:
Hat man von den unterschiedlichen VRAM Timings auf Radeon Karten groß berichtet und einen Skandal heraufbeschworen? Nein.
Hat man über die viel höheren VRAM Temperaturen auf Radeon GPUs mit 90 bis 95 Grad den großen Skandal heraufbeschworen? Nein. Stattdessen laß man ständig darüber, dass Nvidia GPUs zu heiß werden, da ein einziges Modell einen Hotspot von 85 Grad aufwies.
Hat man die FSR3 vs. FSR4 Geschichte so gepusht wie Blackwells Physx? Auch eher nicht.
  • Zu den VRAM Timings weiß ich garnichts, kA. Aber wahrscheinlich wayne, wenn ich deine anderen Stichpunkte sehe
  • Über die VRAM Temps haben sich nur einzelne User gewundert, die laufen aber alle innerhalb ihrer Spezifikationen
  • Das Nvidia GPU's zu heiß werden hab ich nur am Rande mitbekommen, kann mich da nicht an eine große Sache erinnern. Das man aufmal die Hotspot Temps nicht mehr auslesen kann, ist schon merkwürdig
  • Die FSR3 & FSR4 Thematik kannst du NICHT mit der DLSS Geschichte vergleichen.
    Man hat mit FSR3 zumindest eine alternative, die auf allen GPU's läuft. Das FSR4 nicht überall läuft ist verständlich. Genau so wie das mit DLSS verständlich ist, ABER Nvidia hätte einen DLSS Modus ohne Ki Berechnungen als Backup rausbringen können, dann wäre das Thema auch kein Problem gewesen.


ElliotAlderson schrieb:
Ui, da hast du aber viel rausgekramt. Kannst ja mal gefühlt 50 andere Beispiele von Nvidia daneben packen.
Im Endeffekt kam ja DLSS (verspätet) für den Titel raus, haben ja noch die Kurve gekriegt. (Oh merkwürdig, da gab es ein Aufschrei, obwohl es der Underdog ist @Quidproquo77)
ElliotAlderson schrieb:
Das machen sie nicht, weil sie für dich das beste rausholen wollen, sondern weil sie an der Konkurrenz anknüpfen/vorbeiziehen wollen. Du bist nur Mittel zum Zweck :D
Gehst halt auf nichts ein. Immerhin hast du geschafft irgendwas zu schreiben. :daumen:
 
Zuletzt bearbeitet:
jo0 schrieb:
Ui, da hast du aber viel rausgekramt. Kannst ja mal gefühlt 50 andere Beispiele von Nvidia daneben packen.
Es geht mir nicht darum, wer mehr Dreck am stecken hat, sondern, dass AMD sich genau so verhält bzw. verhalten würde, wenn sie in der Position von Nvidia/Intel wären.

jo0 schrieb:
Im Endeffekt kam ja DLSS (verspätet) für den Titel raus, haben ja noch die Kurve gekriegt.
Und damit disqualifizierst du dich als AMD Fanboy. AMDs Mist relativeren und schönreden, aber sicher doch :D
Dass DLSS aus einem Spiel entfernt wurde, nachdem AMD als Sponsor auftrat, ignorieren wir mal ;)

Ich kann dir noch was liefern:
Gab ne Zeit lang ganz viele Defekte 5700 XT. Bis heute wurde nicht aufgeklärt, was da los war. Von AMD hat man zu dem Thema auch nichts gehört und die AMD Community wollte es mal wieder unter den Tisch kehren: https://extreme.pcgameshardware.de/...-gddr6-ab-q4-2020.573584/page-2#post-10395490

Also nein, weder AMD, noch Nvidia wollen dir etwas gutes. Die wollen nur dein Geld und wie sie sich verhalten ist abhängig von ihrer Position am Markt.

jo0 schrieb:
(Oh merkwürdig, da gab es ein Aufschrei, obwohl es der Underdog ist @Quidproquo77)
Ja, ein paar haben das kritisiert und nicht wenige wollten das mal wieder unter den Tisch kehren, so wie du es auch tust: "Im Endeffekt kam ja DLSS (verspätet) für den Titel raus, haben ja noch die Kurve gekriegt.".

jo0 schrieb:
Gehst halt auf nichts ein. Immerhin hast du geschafft irgendwas zu schreiben. :daumen:
Ich bin auf alles eingegangen, aber in deiner Welt denkst du, dass AMD sich Gedanken um dich macht, was aber nicht der Realität entspricht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zuchtmaista
ElliotAlderson schrieb:
Es geht mir nicht darum, wer mehr Dreck am stecken hat, sondern, dass AMD sich genau so verhält bzw. verhalten würde, wenn sie in der Position von Nvidia wären.
Nein, kein Unternehmen handelt so wie Nvidia und solche Sachen haben die auch schon von 15 Jahren oder so gebracht, als sie noch ziemlich gleichauf mit ATI waren
ElliotAlderson schrieb:
Und damit disqualifizierst du dich als AMD Fanboy. AMDs Mist relativeren und schönreden, aber sicher doch :D
Dass DLSS aus einem Spiel entfernt wurde, nachdem AMD als Sponsor auftrat, ignorieren wir mal ;)

Ich kann dir noch was liefern:
Gab ne Zeit lang ganz viele Defekte 5700 XT. Bis heute wurde nicht aufgeklärt, was da los war. Von AMD hat man zu dem Thema auch nichts gehört ;)

Also nein, weder AMD, noch Nvidia wollen dir etwas gutes. Die wollen nur dein Geld und wie sie sich verhalten ist abhängig von ihrer Position am Markt.
Wo rede ich das schön? Kannst du Aussagen auch richtig deuten? Ich war und bin von keiner Firma irgend ein Fanboy, ich habe auch genau so Nvidia Karten bessesen wie welche von AMD. Das habe ich auch schon mehrmals geschrieben, wenn dann bin ich ein Nvidia Hater. Außerdem ist die DLSS Thematik bei EINEM Spiel lange nicht so relevant, wie du es darstellst.
Ja wahrscheinlich gab es da wohl Probleme, kann jeden Hersteller mal passieren, bin da aber überhaupt nicht drin. Waren wohl GPU's kaputt, die hoffentlich über den Garantieanspruch wieder repariert/ausgetauscht wurden

Selbst als Nvidia Fanboy muss man doch mal sehen, dass die so viel scheiße bauen. Ich weiß auch noch damals, als Nvidia RTX Voice (mit den RTX2000er) rauskam, als Nvidia behauptete, es funktioniert nicht mit der GTX 1000er Reihe, weil es ja Ki Features nutzen würde. Komisch, dass es damals auf meiner 1080ti mit einen angepassten Treiber lief. Als die Lücke bekannt wurde, hatten sie die ganz schnell komplett geschlossen.

ElliotAlderson schrieb:
Ich bin auf alles eingegangen, aber in deiner Welt denkst du, dass AMD sich Gedanken um dich macht, was aber nicht der Realität entspricht.
Was willst du mir überhaupt erzählen, ob mir Nvidia oder AMD was gutes will. Das habe ich dir schon vor 2 Jahren oder so deinen Heisenberg Acc erzählt, bevor du gebannt wurdest, weil du so Emotional bei deiner Lieblingsfirma dabei warst. Belüg dich doch nicht selber. Das du das so niederschreibst ist schon ne Frechheit
 
jo0 schrieb:
Ja was sollte dann diese Aussage bezwecken?
Es ist nicht besonders logisch ein Ende der 32bit Physx Unterstützung Nvidia als Nachteil auszulegen, wenn AMD das nie unterstützte. Und der ursprüngliche Post den du geliked hast, verglich eine 9070XT mit einer 5070Ti, während alle Vorteile von Nvidia (die man zahlreich nennen könnte) entweder nicht erwähnt werden oder MFG als negativ ausgelegt wird.
Hier könnte man also sagen, AMD kann kein 64bit GPU Physx und die 5070Ti schon.
Also das typische Herstellercoping. Mit negativen Dingen um sich werfen und einen Hersteller anders darstellen, als es in der Realität der Fall ist. Mithilfe von Inhousevergleichen, nach dem Motto, wer sich am größten verbessert hat, bekommt die Credits, egal wie der Stand zuvor gewesen ist und wie die Rahmenbedingungen sind.
jo0 schrieb:
Physx ist irrelevant
GPU Physx ist sogut wie irrelevant, da es in aktuellen Titeln gar nicht mehr zum Einsatz kommt und die 32bit Umsetzungen völlig veraltet sind. Also ja, das ist irrelevant, man benutzt es lediglich deshalb um einen Aufschrei zu inszenieren, tatsächlich kräht kein Hahn danach, für die 15 Jahre alten Titel müsste man auch niemals eine GPU aufrüsten und bei Defekt reicht ein Gebrauchtmodell für 20 Euro.
jo0 schrieb:
Sicher, der Marktanteil ist es. Selten so ein Quatsch gelesen.
Natürlich ist es das. Es ist das "Monopol", es ist die Angst, dass Nvidia bestimmt wie Reviewer testen sollen.
Es ist der böse Jensen der angeblich extremen Einfluss auf die Tester nimmt, weil er sich geweigert hat eine 5060 bzw. 5050 zu sampeln und stattdessen vorab kuratierte Reviews wollte (bis zum NDA Ende) oder in irgendeinem NDA "solely for the benefit of nVidia" stand, natürlich nur bis zum NDA Ende. Warum sollte eine Firma überhaupt Einsteigerprodukte in Testparcours mit Ultra Settings schicken, in denen einfach der Speicher ausgeht? Das ergibt wenig Sinn.
jo0 schrieb:
Da sollten sie Marktführer sein, abgesehen evtl. von OEMs. Stattdessen wird auf den Underdog, Intel rumgeritten
Intel hat noch rund 70% Marktanteil. Dass AMD im DIY Markt allerdings so extrem viel empfohlen und gekauft wird, liegt auch wiederum daran, dass Intel der Unsympath ist. Rein das Produkt und P/L wie bei Radeons zählt in den Augen der meisten nicht, ansonsten würde nämlich weitgehend Arrow Lake empfohlen und gekauft.
jo0 schrieb:
"die Hölle los" Du übertreibst mit deinen Schlagwörtern.
Keineswegs. Bei der 4090 kamen nach einem halben Jahr wöchentlich bei uns RMAs rein und bei der 5090 regt sich gar nichts, obwohl im gleichen Maße verkauft wurde. Im Netz findest du 5-10 Fälle auf Reddit.
jo0 schrieb:
Zu den VRAM Timings weiß ich garnichts, kA. Aber wahrscheinlich wayne, wenn ich deine anderen Stichpunkte sehe
3%, habe schon Unterschiede von 5% auf Testständen bemerkt, obwohl die Taktraten gleich hoch waren.
Klar das ist nicht viel, aber in einem ähnlichen Bereich was die fehlenden ROPs verursacht haben.
Bei Nvidia war das mit dem HotSpot den man nicht mehr auslesen kann schon relativ weit verbreitet. Spielt natürlich auch kaum eine Rolle. Du kannst mir gerne zeigen wo ich bei AMD irgendetwas als Skandal hochkoche, die haben eine gute Generation vorgestellt und sind wieder näher dran, aber haben es versäumt eine Performance bzw. High End Karte aufzulegen, was ihnen womöglich noch mehr Marktanteile kosten wird.
jo0 schrieb:
Musst doch nur deinen Verlauf an Posts durchgehen
Beispiel?
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Es ist der böse Jensen der angeblich extremen Einfluss auf die Tester nimmt, weil er sich geweigert hat eine 5060 bzw. 5050 zu sampeln und stattdessen vorab kuratierte Reviews wollte (bis zum NDA Ende) oder in irgendeinem NDA "solely for the benefit of nVidia" stand, natürlich nur bis zum NDA Ende.
angeblich?
Folgende Vorgaben hat Nvidia uns gemacht:
  • Grafikkarten: Es sind nur Messungen der RTX 5060, RTX 3060 und der RTX 2060 Super gestattet. Hintergrund ist, dass Nvidia diese Upgrade-Pfade als besonders relevant ansieht (was wir grundsätzlich nachvollziehen können) und sie deshalb betonen will.
  • Spiele: Wir dürfen nur in den fünf Spielen Avowed, Doom: The Dark Ages, Marvel Rivals, Cyberpunk 2077 und Hogwarts Legacy Benchmarks durchführen.
  • Einstellungen: Sowohl die Auflösung (1080p) als auch die Grafikeinstellungen sind jeweils fest vorgegeben. Entscheidender Faktor dabei: Während die RTX 5060 vierfache Multiframegeneration nutzen kann, ist es bei den älteren GPUs nicht möglich, zusätzliche Bilder per KI generieren zu lassen.
https://www.gamestar.de/artikel/geforce-rtx-5060-preview-benchmarks,3433080.html
 
  • Gefällt mir
Reaktionen: PS828
Quidproquo77 schrieb:
Es ist nicht besonders logisch ein Ende der 32bit Physx Unterstützung Nvidia als Nachteil auszulegen, wenn AMD das nie unterstützte.
Es ist nicht logisch überhaupt irgendeinen Zusammenhang zu AMD zu knüpfen, wenn ihnen der Zugang dazu verwehrt wurde
Quidproquo77 schrieb:
Und der ursprüngliche Post den du geliked hast, verglich eine 9070XT mit einer 5070Ti, während alle Vorteile von Nvidia (die man zahlreich nennen könnte) entweder nicht erwähnt werden oder MFG als negativ ausgelegt wird.
Hier könnte man also sagen, AMD kann kein 64bit GPU Physx und die 5070Ti schon.
Also das typische Herstellercoping. Mit negativen Dingen um sich werfen und einen Hersteller anders darstellen, als es in der Realität der Fall ist. Mithilfe von Inhousevergleichen, nach dem Motto, wer sich am größten verbessert hat, bekommt die Credits, egal wie der Stand zuvor gewesen ist und wie die Rahmenbedingungen sind.
Ich habe drüber gelesen und das hat für mich gepasst und hab ihn geliked. Es ging allgemein um die ganzen Probleme, die halt da waren und das beim Marktführer der sich sonst als unfehlbar darstellt. Und da hat man auch vieles in den Foren von den Usern gelesen, die betroffen waren. Das kann man nicht kleinreden.

Quidproquo77 schrieb:
GPU Physx ist sogut wie irrelevant, da es in aktuellen Titeln gar nicht mehr zum Einsatz kommt und die 32bit Umsetzungen völlig veraltet sind. Also ja, das ist irrelevant, man benutzt es lediglich deshalb um einen Aufschrei zu inszenieren, tatsächlich kräht kein Hahn danach, für die 15 Jahre alten Titel müsste man auch niemals eine GPU aufrüsten und bei Defekt reicht ein Gebrauchtmodell für 20 Euro.
Die Aufregung über 32bit sehe ich auch als überzogen an, irgendwann juckt es ehe keinen mehr. Nvidia hätte aber zumindest die vollwertige CPU Unterstützung in Physx einbauen können.
Aber es reiht sich halt zu den Zahlreichen anderen Sachen ein

Quidproquo77 schrieb:
Natürlich ist es das. Es ist das "Monopol", es ist die Angst, dass Nvidia bestimmt wie Reviewer testen sollen.
Es ist der böse Jensen der angeblich extremen Einfluss auf die Tester nimmt, weil er sich geweigert hat eine 5060 bzw. 5050 zu sampeln und stattdessen vorab kuratierte Reviews wollte (bis zum NDA Ende) oder in irgendeinem NDA "solely for the benefit of nVidia" stand, natürlich nur bis zum NDA Ende. Warum sollte eine Firma überhaupt Einsteigerprodukte in Testparcours mit Ultra Settings schicken, in denen einfach der Speicher ausgeht? Das ergibt wenig Sinn.
Ach, das hatte ich schon wieder verdrängt. Es ist egal, ob es Sinn macht oder nicht, aber Vorgaben zu machen ist ganz klar der falsche Weg. Das hätten sie auch anders umsetzten können. Zum Beispiel indem sie die Reviewer darüber aufklären, warum es Sinn machen würde auch Tests mit bestimmten Settings zu machen, weil die Karte dafür gebaut wurde usw. Stattdessen wurden z.B. auf Gamestar die längsten Balken ever gezeigt.

Quidproquo77 schrieb:
Intel hat noch rund 70% Marktanteil. Dass AMD im DIY Markt allerdings so extrem viel empfohlen und gekauft wird, liegt auch wiederum daran, dass Intel der Unsympath ist. Rein das Produkt und P/L wie bei Radeons zählt in den Augen der meisten nicht, ansonsten würde nämlich weitgehend Arrow Lake empfohlen und gekauft.
Ne, gehe ich nicht mit. Einer der Hauptgründe, warum es sich mehr lohnt (auch im Preis/Leistungsbereich) AMD zu empfehlen, ist, dass sie ihren Sockel, viele Jahre unterstützen. So kann man in der Zukunft einfach noch mal eine neue CPU kaufen, ein Bios Update machen und man ist wieder auf den aktuellen Stand. Das du das nicht siehst? Es gibt in meinen Augen nur wenige Bereiche, wo man AMD nicht bevorzugt empfiehlt und das sind eher Office- und Arbeits-Rechner, Leute, die einen geringen Idle Verbrauch wollen, welche die sowieso nicht in den nächsten Jahren aufrüsten würden und denen der Verbrauch bei Last egal ist. Wenn du nur die Preis/Leistung siehst, ist Intel meist vorne, wenn du aber ein bisschen Zukunftsorientierter kaufst, macht es viel mehr Sinn auf AMD zu gehen.

Quidproquo77 schrieb:
Keineswegs. Bei der 4090 kamen nach einem halben Jahr wöchentlich bei uns RMAs rein und bei der 5090 regt sich gar nichts, obwohl im gleichen Maße verkauft wurde. Im Netz findest du 5-10 Fälle auf Reddit.
Ja, es ist nicht mehr so schlimm, trotzdem ist es eine Schande, dass die nicht einfach eine Überwachungselektronik eingebaut haben. Dann würde keiner was sagen und man würde Nvidia dafür auch loben.

Quidproquo77 schrieb:
3%, habe schon Unterschiede von 5% auf Testständen bemerkt, obwohl die Taktraten gleich hoch waren.
Klar das ist nicht viel, aber in einem ähnlichen Bereich was die fehlenden ROPs verursacht haben.
Bei Nvidia war das mit dem HotSpot den man nicht mehr auslesen kann schon relativ weit verbreitet. Spielt natürlich auch kaum eine Rolle. Du kannst mir gerne zeigen wo ich bei AMD irgendetwas als Skandal hochkoche, die haben eine gute Generation vorgestellt und sind wieder näher dran, aber haben es versäumt eine Performance bzw. High End Karte aufzulegen, was ihnen womöglich noch mehr Marktanteile kosten wird.
Wie gesagt, ich habe keine Ahnung, wenn dem so ist, ist das auch zu kritisieren.

Das mit den ROPs war auch eine dreiste Sache von Nvidia, kann mir keiner erzählen, dass die nicht wussten, was die machen. Wurde auch zu Recht kritisiert und thematisiert.

Ich habe mich auch selbst gewundert, dass du neutraler warst als sonst. Aber es wirkt so, als ob du Nvidia immer ein bisschen beschützen musst und bei Kleinigkeiten seitens AMD voll reingehst
Quidproquo77 schrieb:
Sorry, aber kein Bock. Das getippe hat mir heute auch gereicht. Zudem muss ich auch noch was tun, bevor ich Feierabend mache
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Dass AMD im DIY Markt allerdings so extrem viel empfohlen und gekauft wird, liegt auch wiederum daran, dass Intel der Unsympath ist.
Nein, das liegt eher am viel zu hohem Verbrauch in Relation zur Leistung und natürlich das Desaster mit der möglichen Degeneration durch zu hohe Spannung bei der 13. und 14. Generation.

Wobei letztgenanntes bei einem bestimmten Streamer zu großartiger Unterhaltung geführt hat in dem er immer wieder versucht hat das Pre-Rendering durchlaufen zu lassen. :D
 
alyk.brevin schrieb:
Inwiefern beeinflusst denn eine Werbung, bzw. kuratiertes Review die Sicht auf die Produkte?
Die richtigen Tests kommen doch sowieso nach Fall des NDA.
Gravlens schrieb:
Nein, das liegt eher am viel zu hohem Verbrauch in Relation zur Leistung
Den es seit Arrow Lake nicht mehr gibt. In Teilen hat Arrow Lake sogar die höhere Effizienz.
Gravlens schrieb:
und natürlich das Desaster mit der möglichen Degeneration durch zu hohe Spannung bei der 13. und 14. Generation.
Das wurde doch gelöst und betraf außerdem nur die beiden Topmodelle der jeweiligen Serie und dort nur die K Varianten.
jo0 schrieb:
Ne, gehe ich nicht mit. Einer der Hauptgründe, warum es sich mehr lohnt (auch im Preis/Leistungsbereich) AMD zu empfehlen, ist, dass sie ihren Sockel, viele Jahre unterstützen.
Der aktuelle Sockel ist fast am Ende seines Zyklus angelangt. Spielt kaum eine Rolle.
jo0 schrieb:
Das mit den ROPs war auch eine dreiste Sache von Nvidia, kann mir keiner erzählen, dass die nicht wussten, was die machen.
Vielleicht. Es waren am Ende so wenige Karten der ersten paar Chargen, dass das gar nicht ins Gewicht fiel.
Da gabs einen riesen Aufstand und monatelange Häme wegen 0,1% oder 0,2% der Karten.

jo0 schrieb:
Sorry, aber kein Bock. Das getippe hat mir heute auch gereicht.
Gut, du sitzt auch nicht wie ich mit gebrochenem Sprungelenk im Home Office. 😂
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Den es seit Arrow Lake nicht mehr gibt. In Teilen hat Arrow Lake sogar die höhere Effizienz.
Nur in Anwendungen und auch nur nach Anpassungen ist der Gesamtverbrauch bei Vollast niedrig, die meisten die sich einen PC selbst bauen gehen zudem oft auch nach Leistung u. Effizienz in Spielen, deshalb dominiert AMD dort auch.
Quidproquo77 schrieb:
Das wurde doch gelöst und betraf außerdem nur die beiden Topmodelle der jeweiligen Serie und dort nur die K Varianten.
Nur ist gut, wenn sowas bei einer CPU Auftritt reicht dies schon aus um das Vertrauen für zukünftige CPUs zu zerstören, also für mich jedenfalls würde dies bereits vollkommen ausreichen.
 
Quidproquo77 schrieb:
Ich habe doch gerade von AVG und Percentile gesprochen, du hast es sogar selbst zitiert, aber überlesen.
Na herzlichen Glückwunsch.
Du hast erst ausschließlich die Perzentile betrachtet und als auf deine Ignoranz hingewiesen, machst du einen Durchschnitt aus den Avg und Penzentilen :lol: Noch nie habe ich in diesem Forum jemanden so copen gesehen.
Quidproquo77 schrieb:
Nein, da 1% im Mittel Messungenauigkeit ist. Langsamer bzw. schneller davon abzuleiten ist einfach Clickbait, aber das ist heutzutage ja vor allem in AMD Kontexten gewünscht.

Du machst dir die Zahlen wie sie dir gefallen 😂 Cope endlich mit den Fakten Junge. Das ist sehr wohl eine Systematik und da gibt es nichts schön zu reden. 2% weniger fps ist 2% langsamer und somit ein Fakt und kein Clickbait. Wo sind eigentlich deine 30 Zitate zum Beitrag #64?

Und warum hast du denn jetzt angeblich eine 9060XT, mit der du deinen extremen Nvidia Bias zu relativieren glaubst? 😂
 
  • Gefällt mir
Reaktionen: LamaMitHut
also hier geht es ganz schön ab.. wollt ihr nichtmal das thema beenden ?
 
Zuletzt bearbeitet von einem Moderator:
OiOlli schrieb:
ichtig, PT ist eine Technikdemo für die 90er Reihe. Mit den 80ern, oder 70ern bekommst das in den meisten Spielen nicht flüssig zum laufen. Von den Butter und Brotkarten wie die 60 und 60 Ti rede ich gar nicht erst.
Das stimmt halt ganz einfach nicht. Natürlich bringt man PT wunderbar auf einer 5070 zum laufen.
 
  • Gefällt mir
Reaktionen: Quidproquo77, DaHell63 und Zuchtmaista
Ach ja? Also Cyberpunk und Indy laufen schon mit meiner 5070 Ti grenzwertig. in WQHD inkl. DLSS.
 
Zurück
Oben