News Gerücht zur RTX-5000-Allokation: Nvidia legt den Fokus auf die teuerste GPU je VRAM-Klasse

@eLw00d Keine Ahnung warum du mich zitiert hast, ich habe in keiner Zeile auch nur irgendwo überhaupt AMD erwähnt oder Nvidia-Karten mit Karten von AMD verglichen, bis auf deine erste zeile geht dein Beitrag komplett am Inhalt meines Beitrages vorbei und ergibt als Antwort darauf keinerlei Sinn. Mir ging es um die RTX 5080 im Portfolio von Nvidia, was hat das mit AMD zu tun?

Die RTX 5080 ist auch mit zwei Hardware-Decodern im Vergleich zu RTX 5070 Ti extrem uninteressant vom Preis und der Anteil der 5080-Käufer die diese nur wegen des Hardware-Decoders kaufen und die 5070 Ti dafür liegen lassen wird nicht besonders hoch sein. Für die 10 von 100 Leuten die die Karte für die zwei Hardware-Decoder kaufen mag sie einen USP haben, für den Rest hat sie keinen und trotzdem wird sie verkauft, es braucht halt nicht immer einen USP wenn Marketing und andere Dinge stimmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MCCornholio und JarlBallin
bogge101 schrieb:
meine hat stock 7.173
Wen willst du denn mit dieser Grafik verarschen? Nur deswegen hab ich "Steel Nomad" direkt mal "heiß gestartet" -> heißt Cyberpunk gerade zugemacht beim Mod´s testen nur um zu gucken was an deiner Grafik nicht stimmt. 34 Tabs, einige mit Videos offen, einige Instanzen 7zip offen (ohne Arbeit), also genug was so im Hintergrund schwirrt um negativ zu beeinflussen..

5070ti Phantom Gaming OC: 6991 Punkte, leichtes undervolting ohne Übertaktung mit nen 4 Jahre alten 5800x3D UV und 32gb 3200er JDEC OC Ram. Also auch schon jetzigen High End mit der Basis hinterher wenn auch noch gut dabei.

Keine Ahnung wo die Werte herkommen aber diese Werte der 5070ti können so nicht stimmen. Zumal ja nun auch unzählige Tests unabhängiger Medien einhellig einig sind das die 5070ti mit der 9070XT gleichauf sind beim rastern mit Vorteilen für NVidia beim RT/PT und beim Featureset der Software.

Ich weiß nicht ob die 3DMarks unter Linux laufen aber das wäre vielleicht eine Erklärung für diesen Unsinn.

Womit du und Andere durchaus Recht haben mögen das es den Aufpreis nicht wert ist, aber wieder anderen (wie mir) den Aufpreis von beim Kauf 50€ durchaus, Stand jetzt wohl eher 150€ aber auch das wäre es mir wert gewesen da ich künftig auch mit VR herumprobieren will und da NVidia mit den Treibern und Unterstützung eindeutig die Nase vorn hat unter Windows.
 
MaverickM schrieb:
Schönreden ist eher die Stärke der nVidia Käufer
Wer die Speerspitze baut, der kann auch dazwischen ALLES tun, was er will - aber er muss es eben nicht.

Der einzige Grund dafür, warum AMD im Mittelfeld überhaupt eine Rolle spielt:
NVIDIA interessiert sich mangels Marge offensichtlich nicht dafür.

Wenn NVIDIA den Preislimbo gewinnen wollte, würden sie das einfach tun - ich sehe hier keine Stärke/Vorteil von AMD - die haben NUR den Preis. Features werden nur imitiert/nachgebaut, Innovationen gibt es keine und die Software .. wieso gibt es bis heute keine Broadcast-Alternative von AMD?

"Fast genauso gut und günstiger" ist für mich kein Qualitätsmerkmal.

MaverickM schrieb:
Kann ich persönlich überhaupt nicht nachvollziehen
Ich auch nicht aber irgendwer muss die AMD GPUs ja kaufen - während man bei den CPUs (vor allem, wenn man spielen möchte) kaum an AMD vorbei kommt, kann man die GPUs getrost ignorieren und verpasst dabei gar nichts.

eLw00d schrieb:
Die 5080 bietet zwei Hardware Decoder (NVDEC),
Sowas gibt's in der Welt der AMD-Fans nicht, da zählen nur FPS und alles andere "braucht man nicht".
 
bogge101 schrieb:
[meine hat stock 7.173
Steel Nomad ist ein reiner Rasterisierungsbenchmark und nutzt weder RT Cores, noch OMM, SER, LSS, MME oder FP4.

bogge101 schrieb:
4.5 bringt bessere Qualität, kostet aber FPS
Oder bringt FPS, je nach Perspektive. Performance mit Model M sieht mMn besser aus als FSR 4 Quality und bringt 25% mehr FPS.

mscn schrieb:
Wenn NVIDIA den Preislimbo gewinnen wollte, würden sie das einfach tun - ich sehe hier keine Stärke/Vorteil von AMD - die haben NUR den Preis.
Sehe das mit dem Preis nur bedingt.
Die 5070 war immer etwas günstiger und insgesamt mit dem geringeren Speicher rund 5% langsamer als die 9070.

Hatte aber Spielebundes und die bessere Software/Featuresupport.
Die meistverkaufte Karte auf Amazon US.
Gerade für QHD wo der VRAM nicht limitiert eine gleichwertige Alternative zur Radeon. Mit dem besseren DLSS kann man optisch problemlos selbst in FHD und QHD Performance nutzen - geht mit FSR 4 optisch schlecht, das war schon gegen DLSS 4.0 im Performancemodus in QHD deutlich hinten.

kellyfornia schrieb:
Die 5080 ist am Markt völlig Sinn befreit, kein Mehrwert zur eigenen 5070 Ti aber 200-300€ Aufpreis...
15% mehr Leistung stellen einen Mehrwert dar. Das P/L ist in dem Segment allerdings immer schlechter.
Die 6900XT war mit +8% zur viel günstigeren 6800XT auch beliebt, die 7900XTX zur 7900XT ebenso. 4080S zur 4070 Ti S auch.
kellyfornia schrieb:
...und kann mir auf die Schulter klopfen und das in meine Signatur schreiben, mehr nicht.
Du hast statt 40 46 FPS, oder statt 50 knappe 58. Das ist imho schon spürbar.
Diese extreme Fixierung auf das Preisleistungsverhältnis hier im Forum gibt es nur bei Grafikkarten. Bei CPUs nicht. Da ist allerdings auch AMD vorne und nicht Nvidia bzw. Intel die inoffiziellen Träger der roten Laterne.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin
Quidproquo77 schrieb:
Steel Nomad ist ein reiner Rasterisierungsbenchmark
Macht den dargestellten Wert noch viel sinnloser. Und auch ein Vorschreiber brachte seine zwei 5070ti Werte auf den Markt wo ich dann sage das ist realistisch aber sone Tabelle macht natürlich mehr her als "Trust me bro". Aber nen screenshot ist mir son Blödsinn nicht wert.
Vielleicht mal eine andere Tabelle zum vergleich heranziehen? Fehler passieren immer mal.

@bogge101
Das Alles bringt aber nichts wenn man sich hier mal die Kommentare aus dem realen Leben durchliest was andere so für Werte ausspucken.

Da fällt mir noch was auf: Die 7900XTX gehört beim Rastern deutlich vor die 9070XT. Ist jedenfalls auch die verbreitete Real Life-Version von solchen Benchmarks.
 
Zuletzt bearbeitet:
ElliotAlderson schrieb:
Wurde der BS nicht einige Seiten zuvor schon falsifiziert?

Du kannst ja gerne versuchen, es zu widerlegen. Ich bitte um seriöse Quellen-Verweise. Ich lasse mich gerne korrigieren, falls ich tatsächlich falsch liegen sollte.

eLw00d schrieb:
ermöglichen sehr schnelles Arbeiten zum Beispiel in Adobe Premiere Pro.

Adobe setzt vorwiegend auf CUDA. Und ja, wer Cuda unbedingt für seinen Workflow benötigt, kommt um nVidia nicht herum.

Genügend Alternativen (Bspw. das IMHIO bessere DaVinci Resolve) setzen auf OpenCL/OpenML.

eLw00d schrieb:
AMD hat nichts dergleichen zu bieten.

Das ist schlichtweg falsch. Natürlich hat AMD ebenfalls Video De- und Encoder. AMD hat VCN. Das nVidias Encoder zudem QuickSync überflüssig macht, stimmt nicht, denn auch nVidia unterstützt nicht alle Funktionen, die QuickSync beherrscht, bspw. Chroma Subsampling mit 4:4:4.

mscn schrieb:
wieso gibt es bis heute keine Broadcast-Alternative von AMD?

Wieso wird das immer behauptet, wenn AMD schon seit ewigen* Zeiten Noise Suppression hat!?


*Seit RDNA 2, wenn ich mich recht erinnere.
 
  • Gefällt mir
Reaktionen: JarlBallin und Andre83hro
kellyfornia schrieb:
wird nicht besonders hoch sein
Das wissen die Spezialisten hier im Forum am Besten und bei den Herstellern im Produkt-/Marketing sitzen nur Clowns.

MaverickM schrieb:
Wieso wird das immer behauptet
Weil es richtig bleibt:
AMD Noise Suppression is an AI-powered feature in AMD Software: Adrenalin Edition that uses your Radeon GPU or Ryzen CPU to reduce background audio noise for clearer communication, working across input/output devices in any app
Das macht jeder 0815 Laptop mit iGPU - z.B. mein Surface Pro 12 mit Snapdragon (Windows on ARM), oder mein MSI Claw 8. Dir scheint der Funktionsumfang von Broadcast nicht bekannt zu sein?

NVIDIA ist nicht ohne Grund (vor allem technologischer!) Marktführer - die können machen, was sie wollen.
AMD ist aktuell keine Bedrohung. Es soll ein bisschen nach Wettbewerb aussehen, mehr nicht - nur eine Vermutung.
 
MaverickM schrieb:
Schönreden ist eher die Stärke der nVidia Käufer.
Im Grunde genommen hört man häufig nur Preis, Preis, Preis, Preis-Leistung und den Griff zu FPS/Euro mit TAA.

Nüchtern betrachtet erhält man für den höheren Preis auch einen klaren Gegenwert, der mit DLSS 4.5 nochmal erhöht wurde, nachdem AMD mit FSR4 was die Qualität betrifft - nicht die Verbreitung - nah rangekommen war.

Das war so bei RDNA3 und das ist auch sehr wahrscheinlich bei RDNA4 so, ansonsten würde der Marktpreis der 5070 Ti schlicht niedriger liegen. Nvidia verkauft sich über die bessere Software und nicht über Raster-Rohperformance.
MaverickM schrieb:
Performance ist messbar und kann überall nachgelesen werden...
Und selbst bei einem Performance-Rückstand einer 5070 auf eine 9070 kann ich diesen mit dem besseren Upscaling in WQHD ausgleichen oder umkehren und erhalte die Bildqualität, oder habe gar eine bessere...
MaverickM schrieb:
Da spricht, vor allem im Zusammenhang mit dem Preis eben nichts für nVidia.
Weil du die besseren Features z.Bsp. (Upscaling) oder RT und PT Leistung nicht einpreist.
MaverickM schrieb:
Und Software? Du meinst, die tollen nVidia Treiber der 50er Serie? ;)
Er meint wahrscheinlich, DLSS 4.5, MFG(x6), RR, Remix, Reflex, Smooth Motion, Broadcast, KI und Spielesupport für Pathtracing, wovon wir bei AMD bis heute keine wirklichen Initiativen sehen.
MaverickM schrieb:
FSR steht DLSS nicht viel nach, die Unterschiede sind marginal und in meinen Augen kein Grund so viel mehr Geld zu verprassen.
Das hast du auch über FSR3 vs FSR4 gesagt. Es wird immer so gedreht, damit AMD gut wegkommt. DLSS 4.5 Performance sieht meines Erachtens gleichwertig oder besser zu FSR 4 Quality aus.
MaverickM schrieb:
Das die Path-Tracing Leistung bei AMD noch immer nicht gleichauf ist, ist durchaus ein valides Argument.
Die wird nie "gleichauf" sein, da AMD einfach die nötige Hardwareunterstützung dazu fehlt.
MaverickM schrieb:
Das ist aber auch auf nVidia Karten in den unteren Preisklassen trotz allem oft nicht ausreichend von der Leistung her
1000001409.jpg

Hier hattest du noch anders argumentiert, da war selbst eine 7900XTX ohne RR und schwachem FSR 3 genug für Indiana Jones.
MaverickM schrieb:
Wieso wird das immer behauptet, wenn AMD schon seit ewigen* Zeiten Noise Suppression hat!?
Wahrscheinlich da es weder Autoframe, Blickkontaktkorrektur, KI-Hintergrundentfernung gibt und lange Zeit gar keine Alternative zur Noise Supression. Nun soll AMD aber nachlegen.
bogge101 schrieb:
niemanden, nur nicht so stehen lassen, dass die immer unterlegen ist
Das habe ich auch gar nicht gesagt. Gemeint war unter Berücksichtigung aller Leistungswerte, also auch PT und RT und die HW Unterstützung für die Zukunft.
 
  • Gefällt mir
Reaktionen: anexX
Interessant, ist berichtenswert @Jan.
 
mscn schrieb:
Das wissen die Spezialisten hier im Forum am Besten und bei den Herstellern im Produkt-/Marketing sitzen nur Clowns.
Dazu gibt es Statistiken, den meisten Käufern im Privatbereich ist es völlig egal ob die Karte zwei Decoder hat, die nutzen sie um den Desktop zu sehen und Mal ein Spiel zu starten, ich gehe sogar noch weiter und behaupte die meisten Besitzer einer RTX 5080 hat von Decodern und das die eigene Karte zwei davon besitzt noch nie gehört.

Dafür musst du nicht einmal weit gucken sogar hier bei Computerbase gibt es jährlich Umfragen zur Nutzung.
 
Zuletzt bearbeitet:
mscn schrieb:
Dir scheint der Funktionsumfang von Broadcast nicht bekannt zu sein?

Dir auch nicht, oder wie ist das bescheidene Ergebnis zu Broadcast 2.0 zu erklären?

Aus meiner Sicht sind beide Techniken nicht zu gebrauchen. Und sie können auch nichts, was man nicht mit einem ordentlichen Noise-Gate und herkömmlichem EQ und FIltern selber hinbekommt. Das spielt aber keine Rolle, denn AMD hat ein Äquivalent, anders als von dir konstantiert.
 
  • Gefällt mir
Reaktionen: JarlBallin
TheInvisible schrieb:
Neue MoE Modelle kannst du sogar sehr gut auf mehrere Grafikkarten aufteilen, auch über pcie, reicht für privat locker.
Danke dass du mir sagst was mir reicht oder zu reichen hat. :daumen:

TheInvisible schrieb:
Und wenn du mehr brauchst musst eben in den sauren Apfel beißen
Ja das ist mir auch klar, danke für den wertvollen Input ! Dennoch kritikwürdig oder darf Kritik an eurem Großheiligen St. Jensen nicht geübt werden ? Ist das zu blasphemisch ? Produkte von nVidia sind perfekt auch wenn das Featureset reduziert wird ? :freak:

TheInvisible schrieb:
Das ist noch immer ein gerücht.
Hab ich grad selbst nachgeschlagen und am plausibelsten aus der Quellenlage ist: Nicht "NVIDIA macht gar keine Bundles mehr", sondern NVIDIA kämpft mit Memory-Supply und priorisiert/allociert aggressiver - was regional/partnerabhängig wie ein "Stop" wirken kann, ohne dass es eine globale Regel "nur noch GPU-Dies" gibt.

Ändert meine Aussage auf: jo. Ist jeder der eine bestimmte GPU will halt angeschissen. Geil.

TheInvisible schrieb:
Und selbst wenn, warum sollen sie keine Chips liefern, die haben noch nie limitiert.
Hab ich auch nirgends behauptet. Ihr seid echt alles dieselben Fantasten. Da wird sich das wildeste Zeug zusammengedichtet. 😂
Ergänzung ()

Quidproquo77 schrieb:
Nvidia würde sich vor ihren Partnern lächerlich machen, wenn sie eine Pressemitteilung herausgeben und nebenbei gar nichts liefern.
Das kann man eigentlich zu 100% ausschließen. Ob die Partner dann genügend RAM bekommen, ist wieder was anderes.
Als ob das wen juckt ? Tesla macht sich seit nem Jahrzehnt lächerlich und die Aktie steigt und die Gläubigen des heiligen Mammon sind nach wie vor voll dabei.

Jede Bude sagt doch das was ihr beliebt und nicht zwingend immer das was wahr ist. Es gibt kein Wahrheits-Incentive. Die Wahrheit würdest du hören wenn eine Falschaussage 50 Jahre Knast bedeutet, da hätte jeder schnell Muffe.🤣

Quidproquo77 schrieb:
Verstehe ich nicht.
Meine Aussage war: würde nVidia die Partner ihren Speicher selber sourcen lassen und diese sich beschweren dass sie keine Chips kriegen, wäre die Schuld für mich bei nVidia zu suchen, da diese ja keine Bundles mehr liefern (Gerüchten nach - nicht verifizierbar mittlerweile).

Es ist eine reine Hypothese zu der Gerüchtelage, nirgends hab ich behauptet dass nVidia dies tut noch sonst irgendwas das mir hier angedichtet wird. Jetzt klar ?

Quidproquo77 schrieb:
Nö, das ist eine klare Aussage auf die man sie festnageln kann. Wenn sie nicht liefern würden, sähe das Marketing anders aus.
Das Marketing hat auch auf ihrer Website schon "jetzt kaufen für nur 2099€ - 5090 FE" geballert und wenn dann draufklickst wurdest weitergeleitet zu ner 3000€ MSI Trio. Auf Marketing geb ich ehrlich gesagt nen kompletten Fick. Deren Aufgabe ist es dir alles zu erzählen was dich geil macht und nicht ehrlich zu sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andre83hro
ThirdLife schrieb:
Ja das ist mir auch klar, danke für den wertvollen Input ! Dennoch kritikwürdig oder darf Kritik an eurem Großheiligen St. Jensen nicht geübt werden ? Ist das zu blasphemisch ? Produkte von nVidia sind perfekt auch wenn das Featureset reduziert wird ? :freak:
Nö du regst dich aber auf weil du Pro Features zum Consumer Preis haben willst, hast aber selbst nicht mal eine HEDT Plattform wo die 2x 16PCIE5 voll ausfahren kannst. NVLink war damals schon beschnitten gegenüber den Pro GPUs und PCIe ist heute gleich schnell.
ThirdLife schrieb:
Hab ich grad selbst nachgeschlagen und am plausibelsten aus der Quellenlage ist: Nicht "NVIDIA macht gar keine Bundles mehr", sondern NVIDIA kämpft mit Memory-Supply und priorisiert/allociert aggressiver - was regional/partnerabhängig wie ein "Stop" wirken kann, ohne dass es eine globale Regel "nur noch GPU-Dies" gibt.
Und weiter, wird AMD genauso machen, die Aussage das gar nicht mehr gebundelt wird ist aber falsch. Und das wurde hier im Forum immer als Argument gebracht als wäre es gesetzt. das "pöse" Nvidia schluckt sogar einen Teil der Preiserhöhungen... ist natürlich viel zu positiv und will auch keiner wissen
ThirdLife schrieb:
Hab ich auch nirgends behauptet. Ihr seid echt alles dieselben Fantasten. Da wird sich das wildeste Zeug zusammengedichtet. 😂
Doch du hast Gerüchte als FAkten dargestellt was einfach falsch ist. Du hast dir also was zusammengedichtet.
Ergänzung ()

ThirdLife schrieb:
Tesla macht sich seit nem Jahrzehnt lächerlich und die Aktie steigt und die Gläubigen des heiligen Mammon sind nach wie vor voll dabei.
Musk hat damals durch einen Spaß-Tweet massive Probleme mit der Börse bekommen, wenns um GEld geht kennt die Börse keinen Spaß und die Aktionäre auch nicht.
ThirdLife schrieb:
Meine Aussage war: würde nVidia die Partner ihren Speicher selber sourcen lassen und diese sich beschweren dass sie keine Chips kriegen, wäre die Schuld für mich bei nVidia zu suchen, da diese ja keine Bundles mehr liefern (Gerüchten nach - nicht verifizierbar mittlerweile).
Einfach nicht jeden Schund/Gerücht glauben dann bräuchtest über sowas gar nicht diskutieren oder dir den Kopf zerbrechen...
ThirdLife schrieb:
Das Marketing hat auch auf ihrer Website schon "jetzt kaufen für nur 2099€ - 5090 FE" geballert und wenn dann draufklickst wurdest weitergeleitet zu ner 3000€ MSI Trio.
5090FE ist nicht gleich irgendeine MSI. Lesen und Kontext verstehen ist überall von Vorteil
 
Zuletzt bearbeitet:
MaverickM schrieb:
Ich nutze das seit Jahren - mit anständiger Hardware. Schlechte Quellen aufzuhübschen macht niemand besonders gut und da ich im HO arbeite, habe ich natürlich ein anständiges Setup (Mic in dem Fall).

AMDs-Lösung ist also "schlechter", sodass sie gar nicht erst getestet wurde (sonst hättest du das sicher verlinkt)?

Von Broadcast nutze ich nur die Cam-Funktion (virtueller Hintergrund, Auto-Bildausschnitt, Augenkontakt und ggf. virtuelles Führungslicht). Das scheint mir bei AMD zu fehlen oder du hast vergessen zu erwähnen?

TheInvisible schrieb:
Vielleicht zu gute News, vor allem wenn es um Nvidia geht
Wie kannst du es wagen! 😂

kellyfornia schrieb:
Dazu gibt es Statistiken
Ja klar, so wie ein 9800X3D ingesamt (über alle Spiele im Schnitt) schneller ist, als mein 285K aber nicht in den drei Spielen, die ich spiele.

Was sagt uns das?

kellyfornia schrieb:
den meisten Käufern im Privatbereich ist es völlig egal ob die Karte zwei Decoder hat
Genau, deswegen platziert NVIDIA auf der 5080 einen Zweiten weil .. sie keine Ahnung haben?
Oder weil es etwas über die Positionierung der Karte im Markt verraten könnte? Über AMDs Portfolio denken die bei ihrem "Produktdesign" sicher nicht nach ..

kellyfornia schrieb:
ich gehe sogar noch weiter und behaupte die meisten Besitzer einer RTX 5080 hat von Decodern und das die eigene Karte zwei davon besitzt noch nie gehört
Dennoch sind sie ein Mehrwert für Leute, die das brauchen. Es gibt für alle Karten auch (zertifizierte) Studiotreiber, die wird vermutlich auch keiner verwenden.

ThirdLife schrieb:
Das Marketing hat auch auf ihrer Website schon "jetzt kaufen für nur 2099€ - 5090 FE" geballert
Ich habe eine 5090FE über die NVIDIA Seite kaufen können - ohne Bots/Scripte etc. Für den Mangel an Komponenten kann NVIDIA nichts. Dass sie Datacenter ggü. Konsumenten bevorzugen steht außer Frage, sie haben Verträge zu erfüllen und uns gegenüber keine Not, denn AMD liefert ja nichts oder nur halbgar. Würde jeder genauso machen, der sich hier als weißer Ritter gibt.

Und, am Rande:
ThirdLife schrieb:
Kritik an eurem Großheiligen St. Jensen
ThirdLife schrieb:
die Gläubigen des heiligen Mammon
Du hast die Fakten klar auf deiner Seite, nicht wahr?
 
  • Gefällt mir
Reaktionen: Schattenspender, Quidproquo77, ElliotAlderson und eine weitere Person
@MaverickM - wo ist denn besagtes "AMD Equivalent" zu Nvidia Broadcast ? Und jetzt komm mir hier nicht mit dem Noise Supression Regler im AMD Control Panel *lol.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
MaverickM schrieb:
Du kannst ja gerne versuchen, es zu widerlegen. Ich bitte um seriöse Quellen-Verweise. Ich lasse mich gerne korrigieren, falls ich tatsächlich falsch liegen sollte.
Das wird zu nichts führen, weil es kein Zufall ist, dass du dir den jetzigen Zeitpunkt ausgesucht hast und alles, außer natives Rastern, ausklammern wirst. Wo wir wieder bei dem subjektiven Befinden wären und dem Unverständnis, warum das außerhalb deiner kleinen roten Bubble niemand so sieht.

Ich hatte dir schon ein paar Beispiele genannt, die für die Nv-Karte sprechen und darauf konterst du mit "Treiberproblemen?". Weil Nvidia einmal Probleme mit dem Treiber hatte, wird die Sa* jetzt ewig durchs Dorf getrieben. Dass du vor kurzem noch AMD-Treiberprobleme in einem anderen Thread mit "Habe ich nicht muss an dir liegen" nichtig geredet hast, ignorieren wir gekonnt, gell? ;)
 
Zuletzt bearbeitet:
anexX schrieb:
@MaverickM - wo ist denn besagtes "AMD Equivalent" zu Nvidia Broadcast ? Und jetzt komm mir hier nicht mit dem Noise Supression Regler im AMD Control Panel *lol.
Kenne generell keinen Streamer mit AMD GPU. Der Encoder bei NV war vor der 9070 massiv besser und jetzt hat man sogar dual und triple encoder.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und anexX
@TheInvisible Richtig, das macht keiner weil der Encoder von AMD für Low Bitrate H264 Streaming Müll ist - und das ist jetzt kein "AMD Bashing" sondern einfach Fakt.
 
Zurück
Oben