News Finanzierung für Colossus 2: xAI sammelt 20 Milliarden, Nvidia steigt mit ein

Ich verstehe Musk nicht. Zunächst warnt er vor KI. Trotzdem fördert er sie selbst in unermesslichem Ausmaß. Außerdem frage ich mich, warum in den Medien und in der Politik nicht über KI gesprochen wird. KI wird alles verändern. Es wird eine massive Umwälzung geben. Doch die Gesellschaft hat keine Ahnung, was auf uns zukommt. Es finden keine öffentlichen Debatten statt. Es gibt keine Aufklärung. Stattdessen hört man nur, dass die Lufthansa Tausende Jobs in der Verwaltung streicht. Nur die wenigsten wissen jedoch, dass diese durch KI und Automatisierung ersetzt werden.
 
Duggan schrieb:
KI wird unterschätzt, nicht überschätzt. Das, was die Öffentlichkeit an Chat‑Bots und Schlagzeilen sieht, ist nur die Spitze des Eisbergs. Viel wichtiger ist die breite, unauffällige Integration von KI in bestehende Prozesse wie Robotersteuerung, Produktionsautomation, Predictive Maintenance, Kundenservice Routing oder Code Generierung. Dinge, die Kunden oft gar nicht als „KI“ wahrnehmen, aber die Effizienz und Kostenstrukturen fundamental verändern.

Wenn Amazon, Alphabet, Meta und Microsoft Milliarden investieren, tun sie das auf Basis konkreter, monetarisierbarer Einsatzszenarien und strategischer Wettbewerbsvorteile.
Unternehmen, die das verschlafen, verlieren langsamer Marktanteile und Margen; das passiert schleichend, aber unumkehrbar.
Absolut genau so ist es. Diese Spielereien, wie Chatbots etc., gibt es schon lange. Was es jetzt aber gibt, ist ein Durchbruch, der an eine exponentielle Entwicklung geknüpft ist. Man kann schon von einer 4 Revolution sprechen.
 
HarrisUnknow schrieb:
Ich verstehe Musk nicht. Zunächst warnt er vor KI. Trotzdem fördert er sie selbst in unermesslichem Ausmaß. Außerdem frage ich mich, warum in den Medien und in der Politik nicht über KI gesprochen wird. KI wird alles verändern. Es wird eine massive Umwälzung geben. Doch die Gesellschaft hat keine Ahnung, was auf uns zukommt. Es finden keine öffentlichen Debatten statt. Es gibt keine Aufklärung. Stattdessen hört man nur, dass die Lufthansa Tausende Jobs in der Verwaltung streicht. Nur die wenigsten wissen jedoch, dass diese durch KI und Automatisierung ersetzt werden.
Wir regulieren in der EU ja einfach erstmal. Man kann jetzt nicht erwarten, dass Politik und Medien die Inhalte verstehen. Wir haben uns ja erst während COVID darauf geeinigt, dass wir keine Faxgeräte mehr möchten.

Ich halte das Potenzial auch für riesig und weiß ja auch dadurch, was mein Arbeitgeber so macht, dass KI auch oftmals nicht offensichtlich ist. Da stimme ich zu. OpenAI will bis 2033 250 GW in Datacentern haben. 4x von Deutschland aktuell.

Ich stimme zu, dass Musk da nicht so zu verstehen ist. Aus seiner Biographie habe ich geschlossen, dass er vermeiden möchte, dass mit KI falsche Dinge angestellt werden und man da etwas vorausdenken sollte. Auch sollte KI "eigentlich" einer aus der Forschung als aus dem Business kommen, sprich ohne Gewinnabsicht. Das war das Thema mit OpenAI. Das hat er aber wohl mit Grok aufgegeben.
 
  • Gefällt mir
Reaktionen: Rockstar85
Naja aktuell ist ja die KI noch extrem weit weg von der "Singularität" - und solange ist AI eben nur ein Tool.

Da macht es schon Sinn maximal zu investieren

Nun Musk braucht KI für seine Robotaxis, für seine Roboter, für die X Plattform und auch für Neuralink - und vermutlich noch das eine oder andere Projekt das nicht in der Öffentlichkeit ist.

Eben überall wo die Komplexität das übersteigt was sinnvoll von Menschen erfasst werden kann.
 
Zuletzt bearbeitet:
Einige scheinen hier das Feld AI wirklich grundlegend falsch zu verstehen. LLM's sind nur ein kleiner Unterteil von AI, und nein AGI ist nicht um die Ecke. LLM's werden mit Deeplearning erstellt, Machine Learning Algorithmen sind nichtmals ein Teil davon. ML Algorithmen werden immer nur jeweils auf einen speziellen Part trainiert. Wohingegen LLM's nur Prediktoren des nächsten Wortes sind. Warum können LLM's ohne Toolcalling nur in kleinen Zahlenbereichen "rechnen"`? Weil die Lösung in den Trainingsdaten entsprechend oft vorkommt. Versucht ihr nun 21312312313131 * 2329329329113 zu rechnen, scheitern diese - da eben genau dieses Muster nicht in den Trainingsdaten vorhanden ist.

Außerdem stehen wir schon kurz davor, dass LLM's Commodity werden. Alles frei verfügbare Trainingsmaterial wurde bereits gescraped, also könnt ihr euch die Zukünftigen Entwicklungsstufen wie von einem Iphone 17 zu 18 vorstellen. Es wird sich nicht mehr viel tun. Allgemein sind die Verbesserung in den letzten 3 Jahren nur durch mehr Computing Power & mehr Trainingsdaten gekommen. Die Grundlegenden Probleme welche LLM's nun mal architektonisch mit sich bringen sind weiterhin nicht gelöst.

Ein kleines Beispiel: Ein Kind von 2 Jahren hat nur mit seinen Augen in etwa die selbe Datenmenge gesehen, wie ein LLM mit seinen Trainingsdaten.

Außerdem kann ein LLM auch keine Physik. Ihr als Menschen wisst, wenn ich auf eine volle Plastikflasche drücke, läuft diese über. Ein LLM "weiß" die nur wenn es den Satz entsprechend oft in den Trainingsdaten gesehen hat.

Deswegen ist die Forschung auch aktuell an dem Thema "World Models". LLM's werden ihren Weg gehen, jedoch nicht so wie angekündigt - ich gebe einen Single Shot Prompt ab und bekomme innerhalb von Minuten die besten Investitionsmöglichkeiten.

Wer mal einem echten Experten zuhören möchte:
 
  • Gefällt mir
Reaktionen: Rockstar85
Es gibt allerdings noch einige Möglichkeiten der ganz grundlegenden Weiterentwicklung - "halbwegs" zeitnah realistischer >FP32 also FP64 oder FP128 :D was sehr viel mehr Informationen der Trainingsdaten erhalten lassen würde im AI Netz als FP32 - da weniger Rundungen und weniger "Verwässern" der bisher gelernten Informationen aus den Trainingsdaten - oder - natürlich noch zeitlich weiter weg - Quantencpus oder Analog.

AI Netze werden sicher viel mehr States in den Neuronen brauchen als FP32 - aber das ist ja nichts prinzipiell unmögliches es ist nur aktuell noch zu viel Aufwand für die Massenanwendung.

FP32 wird irgendwann - vielleicht sogar zeitnah - an die Grenzen kommen was man an Trainingsdaten sinnvoll verwursteln kann - das kann schon sein.

Aber NVidia und Co werden sicher irgendwann jenseits dieser Grenze gehen - glaube sie ersten AIs waren doch FP8 oder?

AI ist halt erst am Anfang.
 
Zuletzt bearbeitet:
cRz7 schrieb:
Einige scheinen hier das Feld AI wirklich grundlegend falsch zu verstehen. LLM's sind nur ein kleiner Unterteil von AI, und nein AGI ist nicht um die Ecke. LLM's werden mit Deeplearning erstellt, Machine Learning Algorithmen sind nichtmals ein Teil davon. ML Algorithmen werden immer nur jeweils auf einen speziellen Part trainiert. Wohingegen LLM's nur Prediktoren des nächsten Wortes sind. Warum können LLM's ohne Toolcalling nur in kleinen Zahlenbereichen "rechnen"`? Weil die Lösung in den Trainingsdaten entsprechend oft vorkommt. Versucht ihr nun 21312312313131 * 2329329329113 zu rechnen, scheitern diese - da eben genau dieses Muster nicht in den Trainingsdaten vorhanden ist.

Außerdem stehen wir schon kurz davor, dass LLM's Commodity werden. Alles frei verfügbare Trainingsmaterial wurde bereits gescraped, also könnt ihr euch die Zukünftigen Entwicklungsstufen wie von einem Iphone 17 zu 18 vorstellen. Es wird sich nicht mehr viel tun. Allgemein sind die Verbesserung in den letzten 3 Jahren nur durch mehr Computing Power & mehr Trainingsdaten gekommen. Die Grundlegenden Probleme welche LLM's nun mal architektonisch mit sich bringen sind weiterhin nicht gelöst.

Ein kleines Beispiel: Ein Kind von 2 Jahren hat nur mit seinen Augen in etwa die selbe Datenmenge gesehen, wie ein LLM mit seinen Trainingsdaten.

Außerdem kann ein LLM auch keine Physik. Ihr als Menschen wisst, wenn ich auf eine volle Plastikflasche drücke, läuft diese über. Ein LLM "weiß" die nur wenn es den Satz entsprechend oft in den Trainingsdaten gesehen hat.

Deswegen ist die Forschung auch aktuell an dem Thema "World Models". LLM's werden ihren Weg gehen, jedoch nicht so wie angekündigt - ich gebe einen Single Shot Prompt ab und bekomme innerhalb von Minuten die besten Investitionsmöglichkeiten.

Wer mal einem echten Experten zuhören möchte:

cRz7 schrieb:
Einige scheinen hier das Feld AI wirklich grundlegend falsch zu verstehen. LLM's sind nur ein kleiner Unterteil von AI, und nein AGI ist nicht um die Ecke. LLM's werden mit Deeplearning erstellt, Machine Learning Algorithmen sind nichtmals ein Teil davon. ML Algorithmen werden immer nur jeweils auf einen speziellen Part trainiert. Wohingegen LLM's nur Prediktoren des nächsten Wortes sind. Warum können LLM's ohne Toolcalling nur in kleinen Zahlenbereichen "rechnen"`? Weil die Lösung in den Trainingsdaten entsprechend oft vorkommt. Versucht ihr nun 21312312313131 * 2329329329113 zu rechnen, scheitern diese - da eben genau dieses Muster nicht in den Trainingsdaten vorhanden ist.

Außerdem stehen wir schon kurz davor, dass LLM's Commodity werden. Alles frei verfügbare Trainingsmaterial wurde bereits gescraped, also könnt ihr euch die Zukünftigen Entwicklungsstufen wie von einem Iphone 17 zu 18 vorstellen. Es wird sich nicht mehr viel tun. Allgemein sind die Verbesserung in den letzten 3 Jahren nur durch mehr Computing Power & mehr Trainingsdaten gekommen. Die Grundlegenden Probleme welche LLM's nun mal architektonisch mit sich bringen sind weiterhin nicht gelöst.

Ein kleines Beispiel: Ein Kind von 2 Jahren hat nur mit seinen Augen in etwa die selbe Datenmenge gesehen, wie ein LLM mit seinen Trainingsdaten.

Außerdem kann ein LLM auch keine Physik. Ihr als Menschen wisst, wenn ich auf eine volle Plastikflasche drücke, läuft diese über. Ein LLM "weiß" die nur wenn es den Satz entsprechend oft in den Trainingsdaten gesehen hat.

Deswegen ist die Forschung auch aktuell an dem Thema "World Models". LLM's werden ihren Weg gehen, jedoch nicht so wie angekündigt - ich gebe einen Single Shot Prompt ab und bekomme innerhalb von Minuten die besten Investitionsmöglichkeiten.

Wer mal einem echten Experten zuhören möchte:

Wenn du mal einen echten Experten hören willst. Den Nobelpreisträger für Physik. Der „Godfather” von KI. Hier ein Ausschnitt aus Wiki:

„Im Jahr 2023 äußerte sich Hinton besorgt über den raschen Fortschritt der KI. Zuvor war er der Meinung, dass die künstliche allgemeine Intelligenz noch „30 bis 50 Jahre oder sogar noch länger entfernt“ sei. In einem Interview mit CBS im März 2023 erklärte er jedoch, dass die AGI weniger als 20 Jahre entfernt sein könnte und Veränderungen bewirken könnte, „die in ihrem Ausmaß mit der industriellen Revolution oder der Elektrizität vergleichbar sind”.



















 
  • Gefällt mir
Reaktionen: CM286
HarrisUnknow schrieb:
Wenn du mal einen echten Experten hören willst. Den Nobelpreisträger für Physik. Der „Godfather” von KI. Hier ein Ausschnitt aus Wiki:

„Im Jahr 2023 äußerte sich Hinton besorgt über den raschen Fortschritt der KI. Zuvor war er der Meinung, dass die künstliche allgemeine Intelligenz noch „30 bis 50 Jahre oder sogar noch länger entfernt“ sei. In einem Interview mit CBS im März 2023 erklärte er jedoch, dass die AGI weniger als 20 Jahre entfernt sein könnte und Veränderungen bewirken könnte, „die in ihrem Ausmaß mit der industriellen Revolution oder der Elektrizität vergleichbar sind”.




















[/QUOTE]
Als erstes: Geoffrey Hinton ist nicht der „Godfather of AI“. Als Background: Er hat den Bereich Deep Learning groß gemacht und unter anderem CNN (Convolutional Neural Network) entwickelt, die heute beim Deep Learning eine eher untergeordnete Rolle spielen. Mit dem aufkommen der Transformer Technologie wurde er von Google auf das Abstellgleis gestellt und versucht nun mit „Warnungen“ und Angst sein Geld zu verdienen.

Außerdem KEIN Mensch kann 20 Jahre in die Zukunft sehen. Es gibt nicht mal Ansätze für AGI. Wie gesagt die Forschung hängt aktuell am Thema World Models. Liebe Grüße von jemanden mit einem Master auf diesem Gebiet.
 
Als erstes: Geoffrey Hinton ist nicht der „Godfather of AI“. Als Background: Er hat den Bereich Deep Learning groß gemacht und unter anderem CNN (Convolutional Neural Network) entwickelt, die heute beim Deep Learning eine eher untergeordnete Rolle spielen. Mit dem aufkommen der Transformer Technologie wurde er von Google auf das Abstellgleis gestellt und versucht nun mit „Warnungen“ und Angst sein Geld zu verdienen.

Außerdem KEIN Mensch kann 20 Jahre in die Zukunft sehen. Es gibt nicht mal Ansätze für AGI. Wie gesagt die Forschung hängt aktuell am Thema World Models. Liebe Grüße von jemanden mit einem Master auf diesem Gebiet.



[/QUOTE]
Entschuldige, aber was redest du? Das ist absolut falsch und auch schon etwas frech, ihm zu unterstellen, er würde des Geldes wegen warnen. Als ob er mit seinen Millionen und seinem Rang noch Angstgeld verdienen müsste, das ist absolut lächerlich. Manche Experten zählen ChatGPT als Vorstufe zu AGI. Als ob du ernsthaft denkst, dass es bei AGI nie zu einem Durchbruch kommt. Das weiß er auch genau, und deswegen warnt er. Und wenn der Durchbruch kommt, was dann? Dann hat er genau recht. Die Entwicklung läuft jetzt exponentiell. Auch Musk hat schon gewarnt, dass der Mensch, wenn er in der Zukunft mit der KI mithalten will, sich dafür rüsten muss. Was er damit meint, sehen wir mit seiner Firma Neuralink.
 
HarrisUnknow schrieb:
Als erstes: Geoffrey Hinton ist nicht der „Godfather of AI“. Als Background: Er hat den Bereich Deep Learning groß gemacht und unter anderem CNN (Convolutional Neural Network) entwickelt, die heute beim Deep Learning eine eher untergeordnete Rolle spielen. Mit dem aufkommen der Transformer Technologie wurde er von Google auf das Abstellgleis gestellt und versucht nun mit „Warnungen“ und Angst sein Geld zu verdienen.

Außerdem KEIN Mensch kann 20 Jahre in die Zukunft sehen. Es gibt nicht mal Ansätze für AGI. Wie gesagt die Forschung hängt aktuell am Thema World Models. Liebe Grüße von jemanden mit einem Master auf diesem Gebiet.
Entschuldige, aber was redest du? Das ist absolut falsch und auch schon etwas frech, ihm zu unterstellen, er würde des Geldes wegen warnen. Als ob er mit seinen Millionen und seinem Rang noch Angstgeld verdienen müsste, das ist absolut lächerlich. Manche Experten zählen ChatGPT als Vorstufe zu AGI. Als ob du ernsthaft denkst, dass es bei AGI nie zu einem Durchbruch kommt. Das weiß er auch genau, und deswegen warnt er. Und wenn der Durchbruch kommt, was dann? Dann hat er genau recht. Die Entwicklung läuft jetzt exponentiell. Auch Musk hat schon gewarnt, dass der Mensch, wenn er in der Zukunft mit der KI mithalten will, sich dafür rüsten muss. Was er damit meint, sehen wir mit seiner Firma Neuralink.
[/QUOTE]


Dann meine das für dich, wie gesagt ich besitze den höchsten Abschluss auf diesem Gebiet und berate internationale Konzerne dazu.

Du scheinst nicht mal zu wissen was Neuralink wirklich macht, posaunst es aber einfach in den Raum. Neuralink entwickelt Brain Computer Interfaces, welche versuchen die Nervenaktivität in einem Gehirn zu lesen. Natürlich ist der Wunsch irgendwann auch mit dem Gehirn zu interagieren, bisher ist es aber weiterhin ein Wunsch. Auch scheinst du nicht wirklich zu verstehen wie diese Firmen Kapital erheben. Vieles was du aktuell auf dem Gebiet hörst ist nichts mehr als Werbung.

Auch wächst die Leistungsfähigkeit aktueller LLMs nicht exponentiell, wir haben bereits Probleme neue Trainingsdaten zu finden, so dass seit 2-3 Jahren diese synthetisiert werden.

Auch sage ich nicht, dass AGI in 10-20 Jahren nicht möglich sein wird - in naher Zukunft (5 Jahre) wird es jedoch nicht soweit kommen.

Was soll Angstgeld sein? Er besetzt eine Nische die sich mit der Angst von AI beschäftigt, dies bringt nun mal Geld mit sich. Wenn er doch so gegen KI ist, warum publiziert er weiterhin auf dem Gebiet?
 
Zurück
Oben