5GHz (802.11ac = 768 MBit/Sek. pro Stream, bis zu 4 Streams pro AP möglich) bietet höhere Datentransferraten als
2,4GHz (802.11n = 150 MBit/Sek. pro Stream, normal 2 Streams, im Ausnahmefall 3 Streams möglich - k.A. ob Spezifikationsgetreu)
Weiterhin durchdringt 2,4GHz aufgrund der niedrigeren Frequenz Materie besser als 5GHz.
Je höher die Frequenz, desto höher die Dämpfung durch Materie, desto geringer die Reichweite (auch Luft ist Materie...)
Zusammenfassung:
Größere Reichweite aber weniger Datendurchsatz = 2,4GHz
Geringere Reichweite aber mehr Datendurchsatz = 5 GHz
Deine Frage bzgl. Bildschirmübertragung kann ohne weitere Infos nicht beantwortet werden.
Ich gebe mal ein Beispiel:
Ein FullHD Bild (1920x1080 Punkte in 24 Bit = 16 Mio Farben braucht unkomprimiert ca. 6 MByte.
Bei 60 Bildern pro Sekunde wären das ca. 356 MByte/Sek. = 2.85 GBit/Sek. (also mehr als Gigabit-LAN kann).
Daher gibts Komprimierung!
Aktuelle Standards sind AVC (H.264) und HEVC (H.265), AV1, WM9 etc.
Dadurch kommt man bei FullHD auf gut 4-5 MByte/Sek. verlustbehaftet (aber nicht wahrnehmbar).
Als Vergleich BluRays haben bis zu 40 MByte/Sek., UHDs kommen bis an die 100 MBit/Sek.
Die Telekom sendet ihre MagentaTV-Streams mit knapp 20 MBit/Sek. (und die sind kein FullHD)
Netflix brauch weniger Datenrate, nutzt aber den neusten Kompressions-Standard.
802.11n = 300 MBit/Sek brutto => 150 MBit/Sek. netto eher weniger.
Den FullHD-Stream kriegst Du also hin.
Wenn Du nun aber einen 4K-Stream (3820*2160 in HDR 30 Bit) übertragen willst, könnte es je nach Bildschirminhalt schon problematisch werden.
Gerade weil WLAN ein shared Medium ist und auch immer Leistungsschwankungen unterworfen ist.
Viele billige (günstige oder ältere) Kameras unterstützen aber kein H.264 aufwärts.
Da wird meist ein alter AVI-Standard, MPEG2 oder nur M-JPEG angeboten.
Das erzeugt höhere Bandbreiten die benötigt werden.