Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News6G-Entwicklung: 3 Gbit/s im 7-GHz-Band mit X-MIMO erreicht
In Zusammenarbeit mit der Korea Telecom (KT) und dem US-Messgeräte-Hersteller Keysight hat Samsung Electronics in einem Feldversuch die Funktionalität der X-MIMO-Technik im 7-GHz-Band demonstriert. Die Technik mit ihrer hohen Antennendichte gilt als Grundstein für kommende 6G-Funknetze.
Na dann bin ich ja mal gespannt, welche Verschwörungstheorien für 6G in Umlauf kommen. Man könnte jetzt schon Bingo-Karten erstellen.
Ich warte bei 5G immer noch darauf, dass mein Gehirn verstrahlt oder gebraten wird (und vieles mehr!), und das, obwohl eine 5G-Antenne nur 2 Häuser weiter von mir montiert ist.
Das 7 GHz Band plus oberes 6 GHz Band würden dann das erste Rückgrad für ultraschnelles 6G werden?
Wobei die Reichweite begrenzt, mögliche Störfaktoren Wände/Fenster hoch sind.
Real sind eher Gbps für Endkunden Normaltarife zu erwarten, denn definitiv ja nur für kleine Fläche auf Erden verfügbar.
Was macht denn Nvidia zum KI-Pionier? Eigentlich haben sie sich nur riesiges Glück gehabt, dass GPUs "zufällig" besser für das aktuelle Hypethema geeignet sind als CPUs. Echte NPUs hat Nvidia doch bis heute nicht ?!
Es kommt auf den Abstrahlwinkel der Antenne an. Der beste Platz vor Strahlung geschützt zu sein, ist direkt unter oder nah am Mast. Du hast vermutlich eine gute Lage um nichts bis wenig abzubekommen.
Instakill sobald die Antenne eingeschalten wird. Da zerplatzen dann Köpfe.
AI in Infrastruktur? Na gute Nacht. Da bleibts hoffentlich beim Marketingschmäh und es sind weiterhin nur Algorithmen zur Optimierung der Empfangs- und Sendeleistung.
Es kommt auf den Abstrahlwinkel der Antenne an. Der beste Platz vor Strahlung geschützt zu sein, ist direkt unter oder nah am Mast. Du hast vermutlich eine gute Lage um nichts bis wenig abzubekommen.
„Artificial Intelligence - Radio Access Network (kurz AI-RAN) heißt diese Technik, die KI in die Infrastruktur von Mobilfunknetzen integriert, um damit die Leistung des Netzwerks zu optimieren.“
Da wird es bestimmt um die Priorisierung und das Erstellen von Funkzonen Karten gehen, die per ML immer wieder antrainiert werden. Bei 5G mmWave hat man durchaus starke drops bis zu deadzones und da wird es entscheident sein, dass man je nach Situation gut zwischen den Kanälen rasch zu stabileren Frequenzbänder und MIMO switchen kann und mit immer mehr User im Band wird KI hier speziell eine wichtige Rolle spielen um allen User genug RB zuzuteilen. (Und user kann auch IoT sein)
Was macht denn Nvidia zum KI-Pionier? Eigentlich haben sie sich nur riesiges Glück gehabt, dass GPUs "zufällig" besser für das aktuelle Hypethema geeignet sind als CPUs. Echte NPUs hat Nvidia doch bis heute nicht ?!
Ändert trotzdem nichts an der physikalischen Tatsache. Dass ohne hohe Sendeleistung keine Gefahr von HF Wellen ausgeht, ist hinlänglich bekannt. Auch dass mit zunehmender Frequenz die Fähigkeit Materie zu durchdringen abnimmt. Oder anders, berühre doch mal einen Basisisolierten Mast einer AM-Sendeanlage. Mit 500 kHz bis 1,6 MHz sollte doch eigentlich keine Gefahr bestehen, oder doch?
Es gibt ein Paper über eine Simulation von 5G im 6/7-GHz-Band, in dem steht, dass ein 6,725 GHz-Signal nur wenig schwächer als ein 3,45 GHz-Signal ist, wenn es in ein Haus eindringt.
Ist doch für uns Deutsche eh nicht relevant, für uns ist doch alles Neuland und wenn nach zich Jahren noch nicht mal 4G richtig läuft geschweige 5G was soll bei 6,7G netz anderes werden.
Na dann bin ich ja mal gespannt, welche Verschwörungstheorien für 6G in Umlauf kommen. Man könnte jetzt schon Bingo-Karten erstellen.
Ich warte bei 5G immer noch darauf, dass mein Gehirn verstrahlt oder gebraten wird (und vieles mehr!), und das, obwohl eine 5G-Antenne nur 2 Häuser weiter von mir montiert ist.
Was macht denn Nvidia zum KI-Pionier? Eigentlich haben sie sich nur riesiges Glück gehabt, dass GPUs "zufällig" besser für das aktuelle Hypethema geeignet sind als CPUs. Echte NPUs hat Nvidia doch bis heute nicht ?!
Habe einfach mal eine News von vor zehn Jahren rausgekramt. Dort hast du schon alles bzgl. neuronale Netze und DeepLearning. Nvidia pushed das nun wirklich nicht erst seit gestern.
Und seit Volta, sprich seit Mitte 2017, sind die Tensorcores in den Datacentermodellen dabei.
Finde immer interessant, wie sich bei der "Strahlungsintensitäts-Diskussion" alles um die Antennen auf den Dächern oder sonstwo dreht. Dabei ist bei deren begrenzter Leistung (20-50W) bereits in 10 Metern Entfernung nur noch eine Leistungsdichte von 0,x - 0,0x Watt pro Quadratmeter gegeben. Dauerhaft vergessen wird irgendwie immer das Smartphone oder andere Geräte in der Tasche bzw. in nur wenigen Zentimetern Entfernung oder direkt auf der Haut/am Kopf (der Grenzwert sieht hier 2W/kg vor), welches dieses Maximum auch ausfährt wenn eben keine Antenne in der Nähe ist, weshalb paradoxerweise die Strahlenbelastung für die Leute steigt, je weniger Antennen sich in der Umgebung befinden.
Denen fällt auch nichts neues mehr ein. Immer höhere Frequenzen, was immer weniger Reichweite bzw. Objektdurchdringung bedeutet. Also immer mehr Antennen, was Stromverbrauch, aber auch Platzbedarf erhöht, mit entsprechenden Schwierigkeiten (Ortsfindung, Genehmigung etc.)
Gleiches beim W-LAN. Demnächst reicht ein Blatt Papier um den Router abzuschirmen. 😒