News MediaTek: ARM-CPUs und Nvidia-GPUs kommen für Gaming-PCs

komischefrage schrieb:

Cloud Gaming die Lösung? Eher Nein :D


Milchmannrechnung:

Klick auf die Maus -> 10-40ms zur Cloud -> Cloud berechnet das Bild 16ms für 60 Herz
-> Cloud schickt das Bild zurück 10-40ms -> Monitor/System Inputlag 1-14ms
Macht 47-100ms Verzögerung.

Viel Spaß damit :utripper:
Ich zocke seit Anfang an auf einem Shadow PC und toppe das noch mit einer Bluetooth-Tastatur. Geht irgendwie auch wunderbar. Doom... ohne Probleme. Battlefront 2... immer ganz oben dabei. Aber diese bösen Millisekunden. Der Mensch ist eh zu träge, gleicht seine Umwelt im Gehirn aber aus.
 
chb@ schrieb:
Bin gespannt, Cloud Gaming ist die Zukunft, ganz egal was dieses Hardwareversierte Forum sagt :)

Ja, ich habe meine Stadia Vorbestellung damals auch storniert, weil es nicht gut aussah. Ja, ich kann meine meine bereits vorhandenen Spiele nicht importieren und ja die Auswahl ist noch mau.

Aber für 10 EUR im Monat kann ich 4K HDR spielen. Spiele aktuell Destiney 2 (Story Modus only ) und Cyberpunk 2077 von meinem Ultrabook. Besser geht nicht.

Klar, high FPS Shooter sind wohl nicht drin aber ich sehe keinen Unterschied im Gefecht was Latency und Bildqualität angeht.

Warte nur auf Stadia 2.0 Hardware für mehr FPS und Ray-Tracing!

Im Sommer storniere ich einfach und kommt dann im Winter wieder :)
Cloud Gaming und auch TV wird hier wohl nie funktionieren, dafür war und ist hier immer schon alles zu langsam und zu instabil gewesen.
Das hat sich in 20 Jahren nicht verbessert, und wird es auch wohl nicht so schnell.
Daher ist alles was mit Cloud und so und inkl. hohe Latenzen zu tun hat ein absolutes No-Go. Abo pi pa po so oder so.
Vielleicht mag die jüngere Smartphonegeneration das anders sehen, aber ich bin und bleibe eher klassisch eingestellt.
ARM hat mehr als genug Nachteile, dann lieber X86 und lieb knuddeln.
 
Die Hersteller der Software sind ja kaum in der Lage Linux zu unterstützen, und jetzt sollen die ihren gammligen Kram auch noch auf ARM portieren?
 
  • Gefällt mir
Reaktionen: Illithide, nyster und jonderson
matty2580 schrieb:
Apples M1 zeigt doch gut wohin die Reise geht.
Der Chip ist sehr leistungsstark, und kann locker mit klassischen x86 Lösungen
...wie dem Tastaturprozessor...

Ich hab mir mal erlaubt den Satz zu vervollständigen, nun passt er zur Realität.

Erst wenn Apple eine ARM-CPU in der Leistungsklasse einer aktuellen x86-Desktop-CPU mit 8-16 Kernen und 16-32 Threads liefert lassen sich deren Leistungsdaten vergleichen.
 
  • Gefällt mir
Reaktionen: Illithide
komischefrage schrieb:

Milchmannrechnung:


Klick auf die Maus -> 10-40ms zur Cloud -> Cloud berechnet das Bild 16ms für 60 Herz
-> Cloud schickt das Bild zurück 10-40ms -> Monitor/System Inputlag 1-14ms
Macht 47-100ms Verzögerung.

Viel Spaß damit :utripper:
Bei einer gängigen Latenz von 10-40ms in Deutschland ist der weg zum Server und zurück gemeint. Sprich du hast in deiner Rechnung 10-40ms zuviel drin, da du die Strecke 2x anrechnest
 
Matzegr schrieb:
Und was ist der Vorteil von ARM gegenüber x86?

Zum einen die größere Konkurrenz und zum anderen die Flexibilität bei der Befehlslänge.

U.a. durch letzteres lassen sich mit weniger Transistoren breitere Decoder realisieren, wodurch dann mit mehr Pipelines und größeren Out of Order Windows gearbeitet werden kann.

ARM v9 ist bei den Vektorpipelines ein riesiger Schritt nach vorne.
 
Zurück
Oben