News Nvidia RTX Voice: Sehr gute Ergebnisse, aber es reicht auch GeForce GTX

K3ks schrieb:
@captain kirk: Er Chillaholic hat recht. make_dealing'ses.meme.gif
Auch ging es hier nicht um "rot".
Nein hat er nicht denn das:

Aber sobald man auch auf dieser Karten spielen will bricht jedes mal die Leistung zusammen wenn man spricht.
Um so länger man spricht desto weniger FPS hat man und das auch von karte zu karte unterschiedlich

passiert bei RTX Karten nicht in dem Umfang,also kann er sich die Aluhut Theorie ,von "täuschen" sparen!

Denn hätte Nvidia das so freigegeben ,für nicht RTX Karten, wäre er der erste aus der roten Liga, der das sofort wieder anders herum zum Haten benutzt hätte

macht wohl augenscheinlich wenig Sinn ,wenn man neben der Geräuschunterdrückung dann nicht vernünftig Gamen kann, auch wenn alleine dafür die normalen Cuda Cores noch reichen :stacheln:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tobi86 und borizb
Vitche schrieb:
Ich hab hier "leider" nur eine 2080
Zu den RTX Karten habe ich bereits gelesen, dass es wohl um die 5% Leistung kosten soll, wenn man nur das eigene Mikro filtert. Und doppelt so viel, wenn man zusätzlich noch den Sound von seinen Discord Gesprächspartnern bereinigt.
 
  • Gefällt mir
Reaktionen: K3ks
Herrlich wie die Heulboje wiederkommt wenn die Frequenz passt. Ich hätte gerne mal einen Vergleich zwischen den verschiedenen Softwarevarianten auf dem Markt.
 
@benneq

Geil, dann kann man sich endlich wieder 4 Nvidia Karten in den Rechner packen.

1 x Gaming
1 x eigene Voice
1 x Teamspieler Voice
1 x PhysX
 
  • Gefällt mir
Reaktionen: Plage, lokked, onkel_axel und 7 andere
Im Artikel schreibt ihr...

Derzeit befindet sich RTX Voice noch in der Beta und unterstützt lediglich zehn Programme.

RTX Voice nistet sich schlicht als Device in die Audiokette bei Windows ein, sodass es in jedem Programm funktioniert, welches erlaubt ein Input Device zu wählen. Das sind weit mehr als zehn.

Übrigens funktioniert 3D auch ohne GPU, warum sollte also RTX Voice nicht auch in einem Fallbackmodus laufen können. Das überrascht mich jetzt nicht. Hat ja auch @dampflokfreund schon dargelegt.
Es wäre schön, wenn ihr da weiter dran bleiben würdet und schaut welche Bereiche der GPU im Falle der RTX und GTX genau genutzt werden und wie hoch die Leistungseinbrüche auch unter paralleler Nutzung der GPU für 3D Beschleunigung sind.

@SpamBot Name ist Programm oder?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SpamBot und K3ks
dampflokfreund schrieb:
Natürlich kann RTX Voice auch auf GTX Karten genutzt werden, durch den Hack nutzt man den CUDA Fallback, der automatisch passiert, wenn bei Tensor Operationen keine Tensor-Cores gefunden werden.

Wenn man sonst nichts auf der GPU macht, reicht die Rohpower einer 1060 aus, um Inferenzing des DLL Models zu betreiben. Jetzt kommt aber der Haken: sollte man noch was anderes auf der GPU machen, wie Gaming oder Streaming wird die Leistung nicht mehr ausreichen und die FPS werden komplett in den Keller fallen, wenn die GPU in besagtem Game voll genutzt wird, während bei RTX Karten die Tensor Cores die FP16 Operationen des NN durchpowern und zwar unabängig der Shader ALUs. Deswegen hat sich Nvidia wohl, abseits von Marketing-Gründen, dazu entschlossen, die Software nur auf RTX-Karten zur Verfügung zu stellen.
Das mag schon sein, aber ursprünglich gedacht und von nVidia beworben ist es für Homeoffice und nicht zum Spielen. Und DAFÜR reicht eben eine 1060 dann auch. Da gibts keine FPS die einbrechen... und somit Tensor überflüssig (für das angedachte Szenario) - somit ganz klar: Kundentäuschung
 
  • Gefällt mir
Reaktionen: mm19 und Casillas
benneq schrieb:
Zu den RTX Karten habe ich bereits gelesen, dass es wohl um die 5% Leistung kosten soll, wenn man nur das eigene Mikro filtert. Und doppelt so viel, wenn man zusätzlich noch den Sound von seinen Discord Gesprächspartnern bereinigt.
Das ist korrekt. Nun sollte man meinen RTX Voice würde keine Leistung kosten, da dafür ja die besagtem Tensor Cores zuständig sind, aber falsch gedacht! Die Tensor Cores sind immer noch auf dem selben Chip und teilen sich Power-Budget, Speicherbandbreite und anderen Kram mit den normalen Shader ALUs. Deswegen kostet das Nutzen von Tensor Cores etwas Leistung, aber dafür können DL Aufgaben um viele Faktoren beschleunigt werden , die auf den normalen Shader ALUs wesentlich mehr Zeit zum Berechnen in Anspruch nehmen würden.
 
  • Gefällt mir
Reaktionen: 8087
captain kirk schrieb:
und damit wäre das schon herzlich widerlegt , was aus der roten Ecke da wiedermal für conspiracy kommt...
Die Leute sitzen in Massen im Home Office und arbeiten Remote, man bringt ein Feature das wunderbar auf CUDA-Karten funktioniert und - oh schreck - es läuft nur auf RTX Karten? Und warum, weil "DiE GaMIng PeRforMaNce" nicht gut genug ist? Wers glaubt.

Ich würde sogar soweit gehen zu behaupten, dass es zurzeit mehr Leute gibt die beruflich mit einander remote sprechen als Gamer. (Zumindest hierzulande)

Und Nvidia noch irgendwas zu glauben, naja.
 
  • Gefällt mir
Reaktionen: mm19
@dampflokfreund Soweit ich weiß, war das ein Test auf einer 2080 oder 2080 Ti. Kann natürlich sein, dass es auf einer 2060 noch etwas mehr die FPS drückt. Und noch schlimmer wird's dann sicherlich, wenn man zusätzlich noch DLSS nutzt.
 
Mit meiner GTX 980 Ti auch ohne Probleme funktionsfähig :daumen:
 
  • Gefällt mir
Reaktionen: mm19, UNDERESTIMATED und Mcr-King
@Riddick-GER Kannst du dann mal in den Task Manager schauen, wie stark die GPU dadurch ausgelastet wird?
Oder mal irgendeinen Benchmark mit und ohne RTX Voice ausführen und schauen wie stark die FPS leiden?
 
captain kirk schrieb:
passiert bei RTX Karten nicht in dem Umfang,also kann er sich die Aluhut Theorie ,von "täuschen" sparen!
Das war aus dem Artikel zu dem Zeitpunkt so gar nicht ersichtlich und ein Benchmark steht noch aus.
Warten wir mal auf die Fakten, denn aktuell ist deine "Aluhut-Theorie" auch noch nicht stichhaltig.
Wäre nicht as erste Mal, dass Nvidia getäuscht hat ... The Boy Who Cried Wolf sag ich nur.
 
  • Gefällt mir
Reaktionen: wolve666 und K3ks
Sowas ist super, wenn das dann auf Office-Karten in 2 Generationen lüppt - bueno.


Naja, wenn das die Karten aus ner älteren Gen/Arch komplett auslastet und Nvidia daher entscheiden hat: Net für Pascal dann halte ich das für legit, also die Entscheidung von Nvidia, ist ja deren Krempel und die können machen was sie wollen, unabhängig davon halte ich "grün" für einen Betrügerverein und vermeide (Neukauf) deren Produkte, sehe da in diesem Fall keinen Aluhutkram. Gelogen natürlich wenn behauptet wird: geht nur auf RTX.

Dann gibt es Apologeten die Leute mit aktuellen 800€ Nvidiakarten die sowas dann aufzeigen mit dem "aus dem roten Lager" ad hominem stempeln und übersehen dass Nvidia wirklich ein Betrügerverein ist, dafür braucht es keine Kompilation mit Jodlern im Hintergrund und den ganzen vergehen der letzten 10 Jahre.

Sehr dreist fand ich Notebooks mit "freesync" aber im Desktop nay und die 970 <- durch so ne &%/! meide ich (Neukauf) von Grün wenn es geht. Rationale Kaufkriterien und verarschen lassen muss man sich auch nich.

@Spawn182: War vlt. ein "joge" von "spammy"?

@captain kirk: @ #35 Nö. Keine Argumente außer ""Klientel"" dabei haben die ziemlich viel betrogen wo ich als Verbraucher seeeehr unglücklich bin. Ich könnte dir ne Liste machen, but I don't give a damn.
 
Bright0001 schrieb:
Und Nvidia noch irgendwas zu glauben, naja.
genau darin besteht das substanzlose Gehate genau

Nvidia oder Jensen als Erwähnung reicht schon, um nicht mehr rational zu argumentieren, bei dem immer gleichen Hater Klientel
da wird sofort ein Aluhut gebastelt, wie zum Beweiß mit dem "täuschen"
Das ist schon Automatismus ,wie beim ständigen Intel Blame

Spawn182 schrieb:
Übrigens funktioniert 3D auch ohne GPU, warum sollte also RTX Voice nicht auch in einem Fallbackmodus laufen können. Das überrascht mich jetzt nicht. Hat ja auch @dampflokfreund schon dargelegt.

eben 👍
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: borizb
Ich kann mich irren, aber ich meine Noise Reduction verschlechtert die Aufnahme Qualität merkbar, außer man hat mehr als ein Mic
 
Danke für die Hörprobe!
Ist zwar schon beeindruckend, aber man merkt halt hart, wie auch die Stimme an manchen Stellen verschluckt oder verzerrt wird, also die Sprachqualität leidet (zumindest in diesem Beispiel) schon spürbar unter der Filterung.
 
dampflokfreund schrieb:
Dann testet das doch bitte mal, würde mich brennend interessieren. Und beim Test bitte beachten, dass die GPU gut genutzt wird, also kein Vsync mit FPS lock und ein grafisch anspruchsvolles Game nutzen.
Ist gerade passiert (Ergebnis seht ihr gleich).
Und naja...Pascal und Turing schenken sich da nichts.
Das ist die Kurzfassung^^
 
  • Gefällt mir
Reaktionen: lokked, or2k, Spawn182 und 4 andere
@benneq

Im Task-Manager habe ich mit ausgeschaltetem RTX Voice 0% Auslastung, 1,4/6 GB Speicherbelegung
mit eingeschaltetem RTX Voice für mein Mikrofon 0-1% Auslastung, 1,8/6 GB Speicherbelegung
mit eingeschaltetem RTX Voice für Mikrofon und Ausgabe 3% Auslastung, 1,9/6 GB Speicherbelegung

Diese werte sind dort ziemlich konstant (auf dem Desktop).

Bei Warzone habe ich beim einschalten meines eigenen Mikrofons kein spürbaren Leistungsverlust.
Wen ich hier jedoch die Soundausgabe mit einbeziehe (was allerdings sinnlos wäre da er dann alle Geräusche im spiel rausfiltert) dann gehen meine FPS von 60-70 auf 15-20 runter und mein Ping steigt von 50ms auf 125ms
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse und benneq
Wolfgang schrieb:
Ist gerade passiert (Ergebnis seht ihr gleich).
Und naja...Pascal und Turing schenken sich da nichts.
Das ist die Kurzfassung^^
Das ist seltsam, rein von der Logik her müsste Pascal im Vergleich zu Turing deutlich in die Knie gehen. Aber ich bin mal auf die Testergebnisse gespannt!
 
Zurück
Oben