Notiz CB-Funk-Podcast #60: China-GPUs im Test, RTX-5000-Gerüchte und die Akte Noctua

Vitche

Redakteur
Teammitglied
Registriert
Aug. 2016
Beiträge
3.105
In der 60. Episode CB-Funk sprechen Jan und Fabian über Grafikkarten aus China, Grafikkarten der Zukunft und Grafikkarten-ALUs – es geht aus gegebenen Anlässen also einmal mehr um des CB-Lesers liebstes Hardware-Thema. Darüber hinaus ist diese Woche auch Noctua und damit einhergehend die letzte Sonntagsfrage ein Thema.

Zur Notiz: CB-Funk-Podcast #60: China-GPUs im Test, RTX-5000-Gerüchte und die Akte Noctua
 
  • Gefällt mir
Reaktionen: flo.murr, lubi7, Perdakles und eine weitere Person
Das Micro von Jan hat dieses mal irgendwie ein hall gehabt. Am Anfang war es richtig deutlich. Kann es sein das du anders vorm Micro gesessen bist?
Fabian klang diesesmal dafür richtig gut. Ich hab nicht mal Klopfen im Hintergrund gehört. Könnte aber auch ein Indiz dafür sein, dass die Körperfresser, die sich von der einen zur anderen Wohnung durch gehämmert haben, ihn letzt endlich erwischt haben fg

Was ich irgendwie immer noch nicht verstanden habe bei diesem 512 Bit Interface. Wieso ist es bei 5 nm und 3 nm fertigungsprozess gleich gross? Vermutlich habt ihr es schon 300 mal erklärt, aber mir erschliesst sich nicht wieso ein kleinerer Fertigungsprozess kein kleineres Ergebnis liefert. Und ich meine nicht mal 1 zu 1 kleiner, aber dich wenigstens ein bisschen. Auch wenn das nichts mit mehr Leistung zu tun haben muss.
 
@Vitche Danke für die Beantwortung meiner Frage (Latenzen für Wired vs. Wireless Eingabegeräte) :D

Die beiden genannten Modelle habe ich gleich mal auf die Wunschliste gesetzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: flo.murr und Sweepi
War wieder eine gute Folge. Die Noctua Umfrage habe ich verpasst und beantworte die daher nun nebenbei. Zu der Frage, ob ich Noctua habe, habe ich nun mit "Nein, aus anderen Gründen" gestimmt. Generell mag ich Noctua, aber ich habe nur alte Computer (geerbt vom Arbeitgeiber oder meinem Bruder) im Einsatz und da es so OEM Kisten sind, sind die halt von einem Hersteller. z.B. DELL. Da habe ich nie was nachgerüstet. Ich bevorzuge zwar schwarz als Farbe, aber habe gegen Braun nichts. Ich habe auch kein Glasfenster und sehe nichts, was im PC verbaut ist. Wegen den weißen Lüftern: Ich finde es schade, hätte aber nicht unbedingt welche gekauft, weil OEM Geräte. Ansonsten finde ich weiß aber durchaus schön, dass die mit in Erwägung gezogen worden wären.
 
@Jan ihr wolltet im Podcast ja wissen ob jemand iGPU und dGPU parallel nutzt und welche Vorteile dies bietet.
Ich fahre mit dieser Konfiguration seit ich zwei Bildschirme zu Hause nutze, also seit der Corona Home Office Offensive ;-)

Der Hauptmonitor (G-SYNC/165Hz) wird von der dGPU betrieben, der Zweite (60Hz) läuft über die iGPU.
Probleme das sich das Spiel am falschen Monitor öffnet hatte ich in WIN eigentlich nie, das kenn ich eher von meinen Linux Schnupper-Ausflügen :freak:

Vorteile die ich für mich sehe:
  • Weniger Stromverbrauch im Officebetrieb, weil die dGPU (bzw. der VRAM) nicht so hoch taktet, das war grade bei meiner vorherigen RX 6700XT ein wichtiger Punkt
  • Wenn sich der Grafiktreiber der dGPU weghängt, kann ich am zweiten Monitor noch weiter arbeiten, anders wäre Schicht im Schacht
Anders rum sehe ich absolut keinen Nachteil beide GPUs zu nutzen, daher ist mir die Entschidung leicht gefallen.

Cabranium schrieb:
Das Micro von Jan hat dieses mal irgendwie ein hall gehabt.
Das hatte ich mir auch gedacht, habs aber auf die nicht so dollen Boxen im Auto geschoben :D
 
@Jan sprach innerhalb einer Dose, über eine WebEx-Konferenz. Oder? :D
 
  • Gefällt mir
Reaktionen: interesTED und Jan
Ach, da öööben. Danke. Fast so aufregend wie diese sensationellen China-GPUs. 🥲
 
“Würde man wirklich schon 512 Bit ausgehen, hätte man ohnehin über 2 Terabyte. Und welcher Bandbreite, bei Grafikanwendungen ist es so, dass sie einem nichts mehr bringt, wenn sie reicht. Also hört sich schon kautologisch an, aber wenn die Bandbreite denn einmal ausreicht für das, was ich mache, dann habe ich keine Vorteile mehr davon im Gaming-Kontext, wenn ich sie noch höher ansetze.
Also die Grafikate wird dann nicht schneller. Entweder das reicht oder das reicht nicht. Wenn es nicht reicht, wird sie langsamer, wenn es reicht, wird sie nicht noch schneller.
Und es gibt aktuell bei der 4090 keine Anzeichen dafür, dass die Bandbreite dann nicht ausreicht. Ich meine, wir verwenden die in UHD. Das kriegen auch die AD103-Modelle hin, also auch die 4070Ti Super, die ja nur 672 GB hat.
Und bei der ist jetzt auch noch keine Limitierung über dieses Schweischer Interface zu sehen. Die 4090 wird noch weniger darüber limitiert sein mit einem Terabyte. Das wird sie gar nicht ausreizen im Gaming-Kontext.”

From CB-Funk - der ComputerBase-Podcast: #60 China-GPUs im Test, RTX-5000-Gerüchte und die Akte Noctua, 13. Mar 2024
https://podcasts.apple.com/de/podca...ase-podcast/id1665770907?l=en&i=1000649079278



Mal die Transkript Funktion von iOS zum Zitieren benutzt, funktioniert ganz gut, aber natürlich nicht perfekt. Ausgerechnet "Grafikkarte" wird falsch geschrieben :D
Bei "kautologisch" hat Jan in der erste Silbe "reingelacht", da weiss ich auch nicht, was gesprochen wurde ("komisch" würde vom Sinn her passen, aber ist zu kurz...?).

Zum Thema:

Ich kann das nicht nachvollziehen, kann aber durchaus sein, dass ihr hier mehr wisst als ich.
  • Gibt es / wollt ihr in Zukunft dazu Benchmarks machen? Eine 4090 mit -10/30/-50% Speicherbandbreite im Testfeld?
  • Spricht hier die Redakteurserfahrung oder kommt hier ein grundlegendes Konzept bei GPUs zum tragen, welches mir nicht bewusst ist?

Meine Gedanken:
1. Wenn eine GPU schneller ist (z.B. 4090 vs 4070TiS), schaffen es die Shader häufiger pro Zeiteinheit, das Bild zu berechnen (aka mehr fps) und muss daher auch häufiger pro Zeiteinheit auf den Speicher zugreifen (aka mehr Bandbreite). Wenn der "Hot Loop" samt Daten in den (L2) Cache passt, ist das natuerlich nicht der Fall.

2. Aus meiner Coding Erfahrung (Desktop/embedded CPUs, NULL Erfahrungen mit GPUs) ist meist eines der folgenden Dinge der Flaschenhals: Rechenleistung, Speicherbandbreite, Speicherlatenz, I/O. bei GPU koennte ich mir noch "Verwaltung der Shader" vorstellen, also eine Limitierung bei der Verwaltung der vielen kleinen "Threads", die parallel an einer Aufgabe arbeiten.

3. Dieser Flaschenhals ist bei jedem Programm unterschiedlich. Daher stelle ich mir vor, dass in jedem Spiel die Anforderung/Abhängigkeit an/von die/der Speicherbandbreite unterschiedlich ist. Sie koennte sogar von Szene zu Szene (Höhle, Stadt, weiter Blick über Landschaft, Multiplayer, viele NPCs im Bild, ..) stark unterschiedlich sein. Nvidia hat daher einen Anreiz, die Speicherbandbreite hoch genug ansetzten, sodass beispielsweise das 90-Percentile der übelsten "Bandbreitenvernichter" bzw. worst-case Szenarios abgedeckt sind, oder?


Fabian's Aussage hört sich fuer mich an wie '"Spiele in UHD" haben eine fixe Bandbreite, die ausreicht.':
"die 4070Ti Super, die ja nur 672 GB/s hat. Und bei der ist jetzt auch noch keine Limitierung über dieses Speicher Interface zu sehen. Die 4090 wird noch weniger darüber limitiert sein mit einem Terabyte/s. Das wird sie gar nicht ausreizen im Gaming-Kontext."
 
Die Erklärungen zu Cache und ALUs fand ich sehr aufschlussreich, auch wenn das sicher schonmal iwo als Text in nem Artikel stand wo ich es meist überspringe 😅.

Ich gehöre auch zur Fraktion - niemals kackbraun in meinem PC. Wobei es halt bei schwarzem Gehäuse wie ich finde immer Mist aussieht. Bei einem weißen Gehäuse kann ich mir das schon eher vorstellen und bei einem geschlossenen kann es auch egal sein. Ich hab auch schon den einen oder anderen Build gesehen, wo die Lüfter ganz gut zum Rest gepasst haben. Aber ob nun braun/beige, schwarz oder weiß - selbst würde ich mir Noctua wahrscheinlich nie holen, weil einfach zu teuer. Ich bin da eher der Arctic Anhänger.

Nun muss ich aber nochmal anmerken - ich weiß, das Jan diesmal fälschlicherweise das Headset Mikro verwendet hatte, dennoch finde ich immer noch und diesmal war es halt nochmal umso extremer, dass die S-Laute echt unangenehm laut sind. Ich hab für die Folge einen Equalizer draufhauen und alles ab 4 KHz plätten müssen, um die Folge hören zu können. Ging es denn da nur mir so? Bei Fabian war alles in Ordnung, der hatte nach meinem EQ halt gar keine S-Laute mehr so ungefähr 😁.

Ich hoffe das klingt jetzt nicht vermessen, aber ich könnte mir vorstellen, euch bei der Bearbeitung des Tones zu helfen. Ich mach das zwar auch nur hobbymäßig, aber wenn nichts dagegenspräche, mir wenn auch nur Ausschnitte von früheren Rohaufnahmen zukommen zu lassen, würde ich mich gern mal daran versuchen. Nutzt ihr denn bestimmte VST Plugins oder nur die Audacity eigenen oder wie macht ihr das? Wenn ihr z.b. die kostenfreien ReaPlugs nutzen solltet, könnte ich am ende vll einfach mal Profile für die Plugins zuschicken und ihr hört euch an ob es passt, wenn ja kann man sehen ob es in der nächsten Folge gut ankommt, wenn nicht bleibt eben alles wie's ist. Ist nur n Angebot.
 
Cabranium schrieb:
Das Micro von Jan hat dieses mal irgendwie ein hall gehabt. Am Anfang war es richtig deutlich. Kann es sein das du anders vorm Micro gesessen bist?
Wie schon erwähnt, Jan hat aus Versehen über sein Headset und nicht das dedizierte Mikrofon aufgenommen.

Cabranium schrieb:
Fabian klang diesesmal dafür richtig gut. Ich hab nicht mal Klopfen im Hintergrund gehört. Könnte aber auch ein Indiz dafür sein, dass die Körperfresser, die sich von der einen zur anderen Wohnung durch gehämmert haben, ihn letzt endlich erwischt haben
Ich wills nicht jinxen, aber die haben ihre Arbeiten letzte Woche eingestellt. 🙃

Cabranium schrieb:
Was ich irgendwie immer noch nicht verstanden habe bei diesem 512 Bit Interface. Wieso ist es bei 5 nm und 3 nm fertigungsprozess gleich gross?
"Gleich groß" ist es vielleicht nicht, aber eben nicht viel kleiner. Verschiedene Arten von Strukturen skalieren unterschiedlich gut. Bei der Logik, also den ALUs bspw. ist eine Skalierung noch gegeben, beim SRAM aber von TSMC N5 zu TSMC N3 bspw. quasi gar nicht mehr. Und bei analogen Strukturen wie Spannungsregelung oder Speicherinterface sieht es auch nicht so gut aus. Das liegt einfach daran, dass diese Bestandteile nicht mehr konsequent korrekt funktionieren würden, wenn man sie noch kleiner fertigt, weil es dann zu Problemen mit konstanten Spannungen kommt (bspw.). Inwiefern sich das Problem noch lösen lässt mit besserer Technik, bleibt abzuwarten, aber im untersten nm-Bereich rücken einige physikalische Grenzen eben immer näher.

Perdakles schrieb:
Die beiden genannten Modelle habe ich gleich mal auf die Wunschliste gesetzt.
Das sind halt die beiden "Shooter"-Topmodelle, dementsprechend teuer. Es müssen nicht ausgerechnet die beiden sein, günstigere Modelle oder eben andere Formgegebungen gehen auch.

Sweepi schrieb:
Bei "kautologisch" hat Jan in der erste Silbe "reingelacht", da weiss ich auch nicht, was gesprochen wurde ("komisch" würde vom Sinn her passen, aber ist zu kurz...?).
Tautologisch. Also "Mehr Speicher bringt einem nichts, wenn er reicht" hört sich erst einmal nach "ja logisch, liegt auf der Hand" an.

Zum Thema: Ja, prinzipiell brauchen schnellere Grafikkarten schnelleren Speicher und eine Konstante ist das mit Sicherheit nicht, also bei jedem Spiel etc. anders. Dass Nvidias aktuelle Grafikkarten auf Basis AD102/103 nicht vom Speicher limitiert sind, hat Wolfgang im Laufe der Zeit herausgearbeitet. Siehe bspw. auch die 4080 Super, wo der schnellere Speicher exakt gar nichts bringt.
 
  • Gefällt mir
Reaktionen: Slim.Shady, Sweepi und Perdakles
@Vitche
Für die nächste Noctua-Umfrage in einem Jahr oder so könntet ihr dann auch noch folgende Themen einbauen:
  1. Meinung Grakas
  2. Meinung Herausgeben Roadmap
  3. Kühler separat

Zu 1.: Also mit so Unterpunkten auch zu den Themen Preis, ob Asus ein angemessener Partner ist und wie die User dazu stehen, dass die Asus-x-Noctua-Karten nicht das HighEnd der GPUs abdecken.
Zu 2.: Halten die User es für sinnvoll, dass Noctua überhaupt eine Roadmap veröffentlicht? Was würden sie sich anders wünschen?
Zu 3.: Noctuas Geschichte begann ja mit Kühlern ohne Lüftern, vereinzelt (NH-P1) gibt es auch manche wieder ohne Lüfter zu kaufen. Würden sich die User wünschen, dass sie generell ohne Lüfter verkauft würden?


Ansonsten im Kontext der Verspätungen des A14x25 und des darauf basierenden Kühlers auch noch eine Nachfrage an euch: Wie habt ihr euch als Redaktion während all der Wartezeit denn bereits vorbereitet? Wie stark wurden die Testsysteme erweitert, was liegt alles schon an Vergleichsmaterial bereit und so weiter? Wäre ja bitter, wenn er dann kommen würde, aber ihr wärt gar nicht bereit...
 
Thema Kabellose Mäuse. Hab eine kabelgebundene. Heißt das aus dem Podcast, das die Razer Viper 2 Pro definitiv schneller ist als eine kabelgebunden Maus?! Habe eine kabelgebundene, weil das ständige Laden mich genervt hat.
Grüße
 
Zurück
Oben