• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Steam Machine: HDMI Forum verhindert HDMI 2.1 mit mehr als 4K60 auf Linux

Wichelmanni schrieb:
Warum zur Hölle setzt man bei der Steam Machine auch noch auf die knapp 2 1/2 Jahre RDNA 3 Architektur?
weil es bezahlbar sein sollte, die aktuelle nand situation macht der geschichte leider nen strich durch die rechnung. die hardware ist auch besser als was 70% der aktiven steam user aktuell benutzen.
 
Wichelmanni schrieb:
Warum zur Hölle setzt man bei der Steam Machine auch noch auf die knapp 2 1/2 Jahre RDNA 3 Architektur?
Tja, wahrscheinlich weil es RDNA4 nicht in leistungsfähig, sparsam, klein und bezahlbar gibt?
 
  • Gefällt mir
Reaktionen: MilchKuh Trude und rollmoped
onetwoxx schrieb:
Nein, sind ihm nicht bewusst, ist ja nicht dass einzige woran es happert
Ist das so?
Muss ich mich wegen Leuten wie dir denn ständig wiederholen.

Technisch bewegen sich beide Standards auf änlichem Niveau.
Nur klebt HDMI der propritäre Nachteil eines Gremiums im Nacken dem der technologische Vorteil im Sinne des Verbrauchers völlig egal ist.

Diplomatisch ausgedrückt.

Oder was denkst du sind die Vorteile für den Verbraucher für die in dieser News beschriebene Entscheidung?

Ich bin neugierig auf deine Antwort.
Ergänzung ()

JohnVienna schrieb:
Sind dir womöglich Defizite in der Urteilsfindung oder anderweitige Problematiken bewusst, die dich zu diesem provokativen Beitrag veranlassen? 😱
Wie Inhalsfrei darf ein Text sein? Genau so!
Ergänzung ()

onetwoxx schrieb:
Toller Technischer Grund :rolleyes:
habe ich jemals etwas anderes behauptet? o_O

Wenn es da keinen nennenswerten Unterschied gibt, welche Unterschiede gibt es denn außerdem?
Ergänzung ()

mario_mendel34 schrieb:
Wenn man auch viele Filme schaut, und das in der bestmöglichen Qualität tun will, egal ob von Disc oder Streaming, kommt man um einen guten TV nicht herum
Man könnte mit Freunden in ein Kino gehen. Ist das denn so abwegig?
 
Zuletzt bearbeitet:
Tulol schrieb:
Wer heutzutage noch einen dedizierten Fernseher kauft hat IMHO andere Probleme.
Also ich habe noch einen dedizierten Fernseher. Der steht im Schlafzimmer und hängt nur am TV-Anschluss (DVB-S) und im WLAN. Der wird nur dazu genutzt, um Abends im Bett mal ne Doku zu gucken, entweder im linearen Fernsehen, wenn bei den ÖR gerade eine interessante läuft oder in der Mediathek von ARD/ZDF.

Wozu sollte ich für diesen klar festgelegten Verwendungszweck jetzt irgendein Gerät mit allem möglichen Schnickschnack hinstellen, den ich dann eh nie benutzen werde.
 
Tulol schrieb:
Man könnte mit Freunden in ein Kino gehen. Ist das denn so abwegig?
Erstens kann ich im Kino nur das schauen, was da gerade läuft. Wenn ich jetzt nochmal Lust auf die beiden Dune-Filme habe (beide im Dolby Cinema gesehen), geht das nur im Heimkino. Und dann ist die Bildqualität im Kino einfach zum Davonlaufen, dunkles Bild mit miserablem Kontrastumfang, auch das Dolby Cinema kommt an meinen LG C3 einfach nicht ran. Ich kann mich noch daran erinnern, dass ich den Film "Der Rausch" im Kino gesehen hatte, und in dunklen Szenen wirklich überhaupt nichts erkennen konnte, weil der Schwarzwert so mies war. Später im Heimkino nochmal gesehen, hier war alles top.
 
  • Gefällt mir
Reaktionen: Alphanerd und LeifErik
@Tevur: viele gamer denken bei 4K an 3D PERF, also justiere betrachtungswinkel, danke, kompliziert/ umgekehrt, denn du gehst vom falschen ausgangswert aus.


ich kaufe mir eine 3D maschine. die soll mir aus 3840x2160 3D Pixxel echte 2D frames schalten,

wenn die maschine 3D nur 1920x1080 als bild malen kann und der rest nur als 2D hochskaliert ist, dann hast du halt keine 3d machine mehr, die 4K kann, ist das nur 2D ...


das betrachte ich nicht als upscaling sondern als downscaling, das ist ein downgrade für dich als gamer, du wirst verarscht, das bild wird durch die technik schlechter, wieso akzeptiert du dann diese täuschung? up=gut, down=schlecht.


unterscheidet halt zwischen 2d und 3d. jedenfalls erwarte ich wenn ich 4K machine für "3D" Games lese auch wirklich 3d leistung in 4K erhalte und nicht ein "downgrade" auf nur 25% des echten 3D Bildes. mal sehen wie lang es dauert bist die definition besser gestellt kommuniziert werden ist ja unglaublich das sich das schon monate zieht...


hallo ich bin ein blinder gamer und betrachte das schlechtere bild als upscaling 🤣 stumpf das ist ein optisches upgrade für mich hehehe 😂 holzkopf vs aluhead 😂


stimmt das nicht? FHD25%3D+ 4K 100%2D = hässlig | FHD400%3D=4K+ FHD 100%2D = schöner und fast gleichwertig mit 4K100%3D+4K100%2D

25%3D+100%4K2D schlechter/downscaler/downgrade: niedrigere Renderauflösung wird auf höhere Ausgabe-Auflösung hochskaliert.

---

besser=upscaler/upgrade: höhere Renderauflösung wird auf niedrigere Ausgabe-Auflösung herunterskaliert.

das könnte man sich ja noch gefallen lassen...
2D upscaler: niedrigere Renderauflösung wird auf höhere Ausgabe-Auflösung hochskaliert.
3D upscaler: höhere Renderauflösung wird auf niedrigere Ausgabe-Auflösung herunterskaliert.


entlarvt die täuschungen !1! >>>>>>>:D

ich vermisse mein röhrenmonitor, der wirkte mehr nach 3D als das heutige,erbärmlich wie modern bezahlbare monitore alle nur 2D können, sieht mal gar nicht geil genug aus, wo sind die 3d monitore die begehbaren raum im monitor erschaffen?

2D/3D/4D/5D/6D/7D

schöne weihnachten allen !
 
Tulol schrieb:
Technisch bewegen sich beide Standards auf änlichem Niveau.... .... Oder was denkst du sind die Vorteile für den Verbraucher für die in dieser News beschriebene Entscheidung? .... .... Wenn es da keinen nennenswerten Unterschied gibt, welche Unterschiede gibt es denn außerdem?
Welchen Nachteil hättte es denn einfach den HDMI Forum Vorgaben so wie gefordert umzusetzen? NVidia kann es, Intel auch . Die Eigenlösung vom AMD wurde sicherlich nicht ohne Grund abgelehnt.

Wenn es um Umsetzung von sinnvollen Features geht die mit HDMI 2.1 daherkommen gibt es schon signifikante Unterschiede

DP unterstützt kein :
  • eARC/ARC
  • CEC
  • QMS
  • QFS
  • ALLM
  • SBTM
DP ist rein auf den Gaming/PC Bereich konzipiert, wenn VESA mit vergleichbaren Lösungen daherkommt, dürfen die Geräte gerne mit DP daherkommen, ohne, nein danke, ich möchte auf mir wichtige Features wie eARC oder CEC jedenfalls nicht verzichten
 
Zuletzt bearbeitet:
Syrato schrieb:
An alle, die zurecht etwas wegen der Artikel Überschrift gesagt haben, @ WOLFGANG sonst bekommt er es nicht so schnell mit 😋
@mcforest880 @tobiasge @incurable @Tuetensuppe @Crimvel

Danke @Cool Master


Was soll deine reisserischen Fragestellungen?
Komm bitte wieder runter!
Dafür müsste ich ja erstmal hochgekommen sein und wieso weshalb warum ich geschrieben habe was ich getan habe und mit so reißerischen ComputerBild Überschriften in einem so guten Mediuem wie ComputerBase nicht zufrieden bin habe ich auch schon zur Genüge erläutert.
 
onetwoxx schrieb:
Welchen Nachteil hättte es denn einfach den HDMI Forum Vorgaben so wie gefordert umzusetzen? NVida kann es, Intel auch
Die Lösung von Nvidia will wahrscheinlich niemand. Die haben ein separates Kernelmodul, was gegen jeden neuen Kernel gebaut werden muss. Das verlangsamt jedes Kernelupdate und hat auch mit jedem Kernelupdate das Potential, dass irgendetwas nicht mehr richtig harmoniert und die Kompatibilität bricht.

Für die Intel-Lösung mit interner DP-nach-HDMI-Konvertierung muss die Hardware angepasst werden, für alle aktuell am Markt befindlichen Karten ist es dafür schon zu spät.

Das beste wäre wirklich, dass AMD sämtliche HDMI-2.1-Funktionalität in den proprietären Firmware-Blob verschiebt. Das ist etwas Aufwand, da der amdgpu-Kernel-Treiber vieles wohl bisher über Software löst, da müsste also der amdgpu-Treiber größer umgebaut werden, was natürlich auch wieder durch das Kernel-Entwickler-Team abgenommen werden muss. Auf langfristige Sicht wäre das aber die eleganteste Lösung. So könnte man die Open-Source-Kernel-Treiber und Open-Source-Userspace-Treiber beibehalten, sodass alles automatisch über die Paketverwaltung aktuell gehalten wird und keine zusätzlichen Pakete oder Kernelmodule benötigt werden.
 
  • Gefällt mir
Reaktionen: maxrl und -=:Cpt.Nemo:=-
Ich schrieb ja nicht das es gute Lösungen sind, aber sie sind da und umsetzbar ohne gegen die HDMI Forum Vorgaben zu verstoßen, während AMD rumzickt, warum auch immer
 
Die Lösung über den proprietären Firmware-Blob, den AMD ja schon hat, fände ich schon gut. Für den Nutzer würde sich dadurch nichts ändern, es würde nach wie vor alles out of the box funktionieren, mit den Treibern im Kernel. Warum AMD sich so dagegen sträubt, weiß ich auch nicht.
 
onetwoxx schrieb:
Welchen Nachteil hättte es denn einfach den HDMI Forum Vorgaben so wie gefordert umzusetzen? NVidia kann es, Intel auch . Die Eigenlösung vom AMD wurde sicherlich nicht ohne Grund abgelehnt.
Das HDMI-Forum hat 2021 beschlossen, dass die Spezifikation von 2.1 nicht mehr frei zugänglich ist.
https://www.phoronix.com/news/HDMI-Closed-Spec-Hurts-Open

Ob es erlaubt, nur die Inhalte der Spezifikation in ein Firmware BLOB zu verschieben, ist sehr fraglich. Möglicherweise müsste AMD den Treiber komplett neu schreiben, damit das, was in den BLOB muss, dort auch alles reinkommt. Das könnten auch viele Teile sein, die aktuell offen sind, weil sie sonst eventuell Teile der Spezifikation verraten könnten. Und dann kommt HDMI 2.X oder 3 raus und man muss den Treiber evtl. wieder umschreiben...

Ich glaube deshalb nicht, dass AMD einfach HDMI 2.1 in einen BLOB verbannen kann, auch wenn das am schönsten wäre. Ich verstehe es auch so, dass das schon versucht wurde.

Die Lösung von Intel, auf der Hardware einen PCON-Chip zu verbauen, ist aus meiner Sicht vielversprechender und nachhaltiger. Das Problem nur: AMD hat bereits eine Lösung für Windows, da der Treiber dort nicht offen ist und der PCON-Chip würde die Grafikkarten etwas verteuern, aber nur für Linux helfen. Andererseits kann man dann im Windowstreiber den kompletten Code für HDMI sparen. Das muss man gut abwägen.

Am schönsten wäre es, wenn HDMI einfach sterben würde.
 
  • Gefällt mir
Reaktionen: maxrl, -=:Cpt.Nemo:=-, Tulol und eine weitere Person
serve1chilled schrieb:
Mit HDMI 2.0 ist am TV kein VRR möglich.
Ja_Ge schrieb:
Nicht VRR nach HDMI Standard, Aber AMD Freesync funktioniert unter 2.0.
HDMI VRR ist ab HDMI 2.1 spezifiziert, aber nichts hindert die Geräte daran es auch unter 2.0 anzubieten und auszuhandeln wenn sie wollen, genauso wie FreeSync über HDMI (was auch VRR ist, aber nicht HDMI VRR).
will-lee schrieb:
Sogar bei allen. Es gibt keinen einzigen TV mit Displayport.
onetwoxx schrieb:
Die 2025 Hisense TVs bieten DP über USB-C
Es gibt in der Tat ein paar TVs von HiSense (U8Q- und A5NQ-Serie) die DisplayPort über USB-C können. Aber leider kann der USB-C Port der Steam Machine kein DP, so dass man doch wieder einen Adapter braucht.
mario_mendel34 schrieb:
Über Adapter geht kein Freesync.
Hängt vom Adapter ab, genauer gesagt vom Chip im Adapter. Und: Viele können prinzipiell FreeSync oder VRR, aber übersetzen die EDID nicht richtig, so dass der PC das nicht erkennt. Da kann es helfen eine custom EDID unterzuschieben, was aber etwas Handarbeit erfordert.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12368804#post12368804
https://forums.blurbusters.com/viewtopic.php?p=40862#p40862
onetwoxx schrieb:
DP unterstützt kein :
  • CEC
DisplayPort kann CEC über den AUX-Kanal tunneln, und z.B. mit einem passenden DP->HDMI Adapter nutzbar machen, oder einer Gegenstelle die auch CEC über AUX unterstützt. Leider ist für CEC eine Lizenzgebühr nötig weshalb die meisten PC-HDMI-Implementierungen es nicht können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -=:Cpt.Nemo:=-
lWllMl schrieb:
das könnte man sich ja noch gefallen lassen...
2D upscaler: niedrigere Renderauflösung wird auf höhere Ausgabe-Auflösung hochskaliert.
3D upscaler: höhere Renderauflösung wird auf niedrigere Ausgabe-Auflösung herunterskaliert.
DLSS und FSR implementieren ab Version 2 z.B. echtes Supersampling, weil sie die Tiefeninformation beim Akkumulieren der Bildinformation aus vorherigen Bildern berücksichtigen. Lediglich DLSS 1.0 und FSR 1.0 sind reine 2D Upscaler. Diese einfacheren Scaler, die ein schlechteres Ergebnis erzielen, darf man nach deiner Logik also Upscaler nennen und die moderneren nicht?
Übrigens zeigt auch praktisch jeder Film im Prinzip eine dreidimensionale Szene und wenn ein Fernseher z.B. 1080p Material auf UHD skaliert, dann führt der auch ein reines 2D Upscaling ohne Berücksichtigung der Tiefeninformation jedes einzelnen Punktes in der Szene aus. Das ist dann also ok?
 
  • Gefällt mir
Reaktionen: N0Thing
chithanh schrieb:
DisplayPort kann CEC über den AUX-Kanal tunneln, und z.B. mit einem passenden DP->HDMI Adapter nutzbar machen, oder einer Gegenstelle die auch CEC über AUX unterstützt.
Ich glaube in Zeiten von Surround und 3D Sound nicht gerade eine sinnvolle, stabile und elegante Lösung
chithanh schrieb:
Leider ist für CEC eine Lizenzgebühr nötig weshalb die meisten PC-HDMI-Implementierungen es nicht können.
Gehört eigentlich ab den HDMI 2.0 Spezifikationen zu den festen Bestandteilen, ich glaube nicht dass da zusätzlich nochmal Lizengebühren fällig sind
 
mario_mendel34 schrieb:
Die Lösung von Nvidia will wahrscheinlich niemand. Die haben ein separates Kernelmodul, was gegen jeden neuen Kernel gebaut werden muss. Das verlangsamt jedes Kernelupdate und hat auch mit jedem Kernelupdate das Potential, dass irgendetwas nicht mehr richtig harmoniert und die Kompatibilität bricht.
Das Kernelmodul ist schon seit ein paar Treiberversionen Open Source und kann entsprechend von den Distributionen wie jedes andere Kernelmodul passend für die ausgelieferte Kernelversion gebaut und paketiert werden.

Der eigentliche Treiber ist aber weiterhin ein proprietärer Binärblob, der vom Open Source Kernelmodul geladen wird. Und ein Teil der Treiberfunktion ist seit den RTX 2000er auch als Firmware in den GSP (GPU System Processor) auf der Grafikkarte ausgelagert.

Also der Treiber an sich ist immer noch ein Binärblob, aber nicht mehr an eine Kernelversion gekoppelt bzw. ist man nicht mehr davon abhängig, dass Nvidia einen zum Kernel passenden Binärblob liefert.
 
ich bin da sicherlich nicht der erste, aber warum reden wir bei dieser hardware von 4k @ 120 ?
 
chithanh schrieb:
HDMI VRR ist ab HDMI 2.1 spezifiziert, aber nichts hindert die Geräte daran es auch unter 2.0 anzubieten und auszuhandeln wenn sie wollen, genauso wie FreeSync über HDMI (was auch VRR ist, aber nicht HDMI VRR).
So einfach ist es leider nicht.

Wenn der Fernseher nur HDMI VRR unterstützt (wie bspw. Sony), dann muss das VRR Feature auch zwingend per HDMI 2.1 angesprochen werden.

Wenn dafür die Lizenz fehlt, hilft es auch nicht, dass die Hardware das theoretisch könnte.

Gleiches Thema wie bei 4k120. Das könnte die Hardware ja auch.
 
Warum muss ich da direkt an meinen Blueray Laufwerk, den lizensierten Blueray Software Player und mit meinem LG Widescreen denken, wo es dank Kopierschutz und hdmi nicht möglich war die DRECKS Leterbox zu entfernen.... Sprich hatte bei Filmen Schwarze balen oben unten links und recht... bei nen 24° 1080p widescreen... das tilted mich heute noch und macht direkt wieder Puls!

Hatte auch etwas mit HDMI und Kopierschutz und Einschränkunen zu tun... Obwohl Blueray Laufwerk, lizensierterer Bluerayplayer, und LG Widescreen, alles gekauft , nicht gecracked , dennoch konnte ich weder über HDMI noch über DP die drecks Balken entfernen.

Man hat mich das geärgert. Seit dem jubel ich auch jeden Piraten zu, der mit dem Schiff an mir vorbeifährt. Kein mitleid mit diesen Kartelen. Aber vermutlich tretet mir für dne Spruch bald die Gema&co die Tür ein.

"Wir haben gehört sie mögen Piraten..." :freak:

Aber immer her mit der Steam-Maschine. Hoffentlihc wirds kein Flop. 120hz 4k , da fällt mir nur cs ein was das schaffen dürfte. Aber reicht doch. ;)
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben