News 6G-Entwicklung: 3 Gbit/s im 7-GHz-Band mit X-MIMO erreicht

Und ich hab dank Vodafone selbst in Städten meist nur „E“ mit 2 Strichen und schicke sms statt messanger, wie vor 20 Jahren
 
Na dann bin ich ja mal gespannt, welche Verschwörungstheorien für 6G in Umlauf kommen. Man könnte jetzt schon Bingo-Karten erstellen.
Ich warte bei 5G immer noch darauf, dass mein Gehirn verstrahlt oder gebraten wird (und vieles mehr!), und das, obwohl eine 5G-Antenne nur 2 Häuser weiter von mir montiert ist.
 
  • Gefällt mir
Reaktionen: Madjack92, Haldi, alex_k und eine weitere Person
Das 7 GHz Band plus oberes 6 GHz Band würden dann das erste Rückgrad für ultraschnelles 6G werden?
Wobei die Reichweite begrenzt, mögliche Störfaktoren Wände/Fenster hoch sind.

Real sind eher Gbps für Endkunden Normaltarife zu erwarten, denn definitiv ja nur für kleine Fläche auf Erden verfügbar.
 
Was macht denn Nvidia zum KI-Pionier? Eigentlich haben sie sich nur riesiges Glück gehabt, dass GPUs "zufällig" besser für das aktuelle Hypethema geeignet sind als CPUs. Echte NPUs hat Nvidia doch bis heute nicht ?!
 
  • Gefällt mir
Reaktionen: Haldi und -Ps-Y-cO-
Grumpy schrieb:
und das, obwohl eine 5G-Antenne nur 2 Häuser weiter von mir montiert ist.
Es kommt auf den Abstrahlwinkel der Antenne an. Der beste Platz vor Strahlung geschützt zu sein, ist direkt unter oder nah am Mast. Du hast vermutlich eine gute Lage um nichts bis wenig abzubekommen.
 
Grumpy schrieb:
Na dann bin ich ja mal gespannt, welche Verschwörungstheorien für 6G in Umlauf kommen.
Instakill sobald die Antenne eingeschalten wird. Da zerplatzen dann Köpfe.

AI in Infrastruktur? Na gute Nacht. Da bleibts hoffentlich beim Marketingschmäh und es sind weiterhin nur Algorithmen zur Optimierung der Empfangs- und Sendeleistung.
 
Dr. MaRV schrieb:
Es kommt auf den Abstrahlwinkel der Antenne an. Der beste Platz vor Strahlung geschützt zu sein, ist direkt unter oder nah am Mast. Du hast vermutlich eine gute Lage um nichts bis wenig abzubekommen.

Ringsherum sind Häuser. Vorne, hinten, links, rechts. Wir müssten schon alle ferngesteuerte Zombies sein. :utpulsegun: Achja die Leute :lol:
 
„Artificial Intelligence - Radio Access Network (kurz AI-RAN) heißt diese Technik, die KI in die Infrastruktur von Mobilfunknetzen integriert, um damit die Leistung des Netzwerks zu optimieren.“
Da wird es bestimmt um die Priorisierung und das Erstellen von Funkzonen Karten gehen, die per ML immer wieder antrainiert werden. Bei 5G mmWave hat man durchaus starke drops bis zu deadzones und da wird es entscheident sein, dass man je nach Situation gut zwischen den Kanälen rasch zu stabileren Frequenzbänder und MIMO switchen kann und mit immer mehr User im Band wird KI hier speziell eine wichtige Rolle spielen um allen User genug RB zuzuteilen. (Und user kann auch IoT sein)
 
Zuletzt bearbeitet:
ReactivateMe347 schrieb:
Was macht denn Nvidia zum KI-Pionier? Eigentlich haben sie sich nur riesiges Glück gehabt, dass GPUs "zufällig" besser für das aktuelle Hypethema geeignet sind als CPUs. Echte NPUs hat Nvidia doch bis heute nicht ?!

Sie haben das GPU computing mit CUDA sehr früh gefördert. Dies war zuerst mit Mining und KI dann halt ein Vorteil.

Und dann haben sie rechzeitig auf KI reagiert und passende Hardware geliefert, inkl. ganzem optimiertem Rack Setup.

Also das was AMD verpasst hat und nun nachbaut.
 
  • Gefällt mir
Reaktionen: HolySkillet
@Nozuka
Autonomes Fahren war bei NV immer das Argument für KI. Davon hört man aktuell kaum etwas.
 
  • Gefällt mir
Reaktionen: Haldi
Grumpy schrieb:
Ringsherum sind Häuser. Vorne, hinten, links, rechts. Wir müssten schon alle ferngesteuerte Zombies sein. :utpulsegun: Achja die Leute :lol:
Ändert trotzdem nichts an der physikalischen Tatsache. Dass ohne hohe Sendeleistung keine Gefahr von HF Wellen ausgeht, ist hinlänglich bekannt. Auch dass mit zunehmender Frequenz die Fähigkeit Materie zu durchdringen abnimmt. Oder anders, berühre doch mal einen Basisisolierten Mast einer AM-Sendeanlage. Mit 500 kHz bis 1,6 MHz sollte doch eigentlich keine Gefahr bestehen, oder doch?
 
@Dr. MaRV Hä? Wer genau widerspricht jetzt? "Ändert trotzdem nichts an der physikalischen Tatsache." -> Sagt doch überhaupt niemand ...
 
Es gibt ein Paper über eine Simulation von 5G im 6/7-GHz-Band, in dem steht, dass ein 6,725 GHz-Signal nur wenig schwächer als ein 3,45 GHz-Signal ist, wenn es in ein Haus eindringt.

1771663040035.png

Quelle, Seite 4

Das hätte ich so nicht erwartet. Ich habe mit deutlich mehr Dämpfung gerechnet.
Aber was weiß ich schon. 3/4 des Papers habe ich nicht verstanden. 😅
 
  • Gefällt mir
Reaktionen: Haldi
Ist doch für uns Deutsche eh nicht relevant, für uns ist doch alles Neuland und wenn nach zich Jahren noch nicht mal 4G richtig läuft geschweige 5G was soll bei 6,7G netz anderes werden.
 
Grumpy schrieb:
Na dann bin ich ja mal gespannt, welche Verschwörungstheorien für 6G in Umlauf kommen. Man könnte jetzt schon Bingo-Karten erstellen.
Ich warte bei 5G immer noch darauf, dass mein Gehirn verstrahlt oder gebraten wird (und vieles mehr!), und das, obwohl eine 5G-Antenne nur 2 Häuser weiter von mir montiert ist.
Die werden doch bereits seit Jahren mit 10G beschossen durch TV Satellit xD
 
ReactivateMe347 schrieb:
Was macht denn Nvidia zum KI-Pionier? Eigentlich haben sie sich nur riesiges Glück gehabt, dass GPUs "zufällig" besser für das aktuelle Hypethema geeignet sind als CPUs. Echte NPUs hat Nvidia doch bis heute nicht ?!
https://www.computerbase.de/news/mo...ter-mit-2-pascal-gpus-und-2-tegra-socs.53011/

Habe einfach mal eine News von vor zehn Jahren rausgekramt. Dort hast du schon alles bzgl. neuronale Netze und DeepLearning. Nvidia pushed das nun wirklich nicht erst seit gestern.

Und seit Volta, sprich seit Mitte 2017, sind die Tensorcores in den Datacentermodellen dabei.
 
  • Gefällt mir
Reaktionen: HolySkillet und Yosup
Finde immer interessant, wie sich bei der "Strahlungsintensitäts-Diskussion" alles um die Antennen auf den Dächern oder sonstwo dreht. Dabei ist bei deren begrenzter Leistung (20-50W) bereits in 10 Metern Entfernung nur noch eine Leistungsdichte von 0,x - 0,0x Watt pro Quadratmeter gegeben. Dauerhaft vergessen wird irgendwie immer das Smartphone oder andere Geräte in der Tasche bzw. in nur wenigen Zentimetern Entfernung oder direkt auf der Haut/am Kopf (der Grenzwert sieht hier 2W/kg vor), welches dieses Maximum auch ausfährt wenn eben keine Antenne in der Nähe ist, weshalb paradoxerweise die Strahlenbelastung für die Leute steigt, je weniger Antennen sich in der Umgebung befinden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Haldi
Denen fällt auch nichts neues mehr ein. Immer höhere Frequenzen, was immer weniger Reichweite bzw. Objektdurchdringung bedeutet. Also immer mehr Antennen, was Stromverbrauch, aber auch Platzbedarf erhöht, mit entsprechenden Schwierigkeiten (Ortsfindung, Genehmigung etc.)

Gleiches beim W-LAN. Demnächst reicht ein Blatt Papier um den Router abzuschirmen. 😒
 
Zurück
Oben