News OpenAI-Finanzierung: Nvidia gibt wohl „nur“ 30 statt 100 Mrd. US-Dollar

Uzer1510 schrieb:
Äh weil das einfachste Mathe ist? ~ Winkel 0- ca 90 Grad im mittleren LEO je höher desto besser natürlich. was über Relay wie Starlink im niedrigeren LEO realisierbar wäre - da AI keine Echtzeit ist ist Latenz eher egal.

Der Satellit hat nur im Bereich "d" keine Sonne. und das wird einfach durch h=r(Erde) und h(sat-Erdoberfläche) bestimmt.

Ähm immer noch falsch
was du da aufgemalt hat ist eine Polare Umlaufbahn

der Großteil der Satelliten bewegt sich aber nicht in der Polaren Umlaufbahn
 
Uzer1510 schrieb:
Der sieht natürlich die noch Schwachstellen aktueller AI aber nennt 5-10 Jahre für echte AGI
Natürlich sagt er das. Sein AG möchte, dass er das sagt. Shareholder value und so. In dem Artikel ist allerdings keine Begründung aufgeführt, wie er auf diesen Zeitraum kommt. Wie gesagt: an Rechenleistung fehlt es nicht, bzw bringt mehr rechenleistung einfach nix.
Uzer1510 schrieb:
die praktisch gar nicht können ausser ein wenig Biochemie nach Schema F ablaufen zu lassen bilden bei ausreichend komplexer Vernetzung plötzlich Intelligenz.
Vlt verstehe ich dich hier falsch. Glaubst du, mit ausreichend Vernetzung entsteht Intelligenz?
 
Yumix schrieb:
LLMs sind nützliche Tools, haben mit Intelligenz aber nur wenig zu tun. Die Chatbots verstehen nicht was sie dir antworten, es sind rein auf Wahrscheinlichkeit basierend zusammengewürfelte Daten
Das kombiniert mit einer bestimmten Weltanschauung (wertungsfrei in Bezug auf welche es ist)
So habe ich schon mehrfach erlebt, das 2-3 mal nachfragen bei Themen wie "die Linke und ihre Rolle bei der FARC" (der Fall blieb hängen, weil besonders spektakulär) plötzlich eine 180° Wende bei der Bewertung der aufgezählten Fakten herauskommt (sprich, entweder nicht gut recherchiert, oder ber blasenfördernd, in beiden Fällen nicht gut).
 
Uzer1510 schrieb:
Die ersten self-evolving AI Modelle sind doch schon vorgstellt.
In dem Paper steht im Abstract:
When using the popular Qwen2.5-VL as the base model,
our EvoLMM yields consistent gains upto ∼3% on mul-
timodal math-reasoning benchmark

Sorry, aber bei dem Ergebnis klingt das für mich weniger nach Eigen-Evolution und mehr nach Eigen-Tuning. Der relativ geringe Prozentsatz wirft für mich die Frage auf, ob der getestete Ansatz für die Eigen-Evolution nicht nicht besonders gut ist oder ob das Modell schon im Ursprungszustand sehr gut optimiert ist.
Ersteres schreiben die Schreiber auch auf Seite 7, Kapitel 4.4:
However, the
model’s performance drops on tasks requiring multi-step
inference or symbolic reasoning (e.g., MathVista, Math-
Verse), indicating that pretrained multimodal alignment
alone is insufficient for deeper reasoning.

Insgesamt finde ich das Paper etwas dünn. Man hätte da ruhig auch mehrere verschiedene Prinzipien und Strategien für den Proposer und Solver ausprobieren können. Vielleicht gibt es da ja ein paar, die den Weg zu einer generell besseren Selbstverbesserung aufzeigen. Vielleicht wäre auch ein drittes LoRA als Judge möglich, dass die Antwort des Solvers bewertet und sie ggfs. bei ungenügender Qualität ablehnt.


Alphanerd schrieb:
Glaubst du, mit ausreichend Vernetzung entsteht Intelligenz?
Das ist ein spannendes Thema. Ist Intelligenz ein emergentes Phänomen? Also entsteht sie zwangsläufig, sobald ein paar gewisse Grundvoraussetzungen* gegeben sind? Ich habe darüber noch nie nachgedacht.

* Dazu muss vielleicht die Komplexität der Vernetzung gar nicht dazugehören.
 
  • Gefällt mir
Reaktionen: layercake87 und Alphanerd
Krik schrieb:
Dazu muss vielleicht die Komplexität der Vernetzung gar nicht dazugehören
Also die Vernetzung in unseren hirnen ist unglaublich komplex und sogar elastisch, dass heißt wir können sie ändern.

Was auch noch so eine Sache ist, die nicht so leicht reproduzierbar ist: unser Gehirn "rechnet" weder seriell (also nacheinander), noch parallel (gleichzeitig), sondern chaotisch. Bei einem Input werden gleich mehrere "Rechenwege" angschubst, bin denen manche verworfen, andere verfolgt und/oder in anderen Bahnen gelenkt werden. Bei Bedarf werden neue aufgemacht, verworfen, verfolgt, etcpp. Und das alles in Millisekunden. Bei 20 Watt Leistung.
 
  • Gefällt mir
Reaktionen: Krik
aid0nex schrieb:
Ist letztlich auch nur ein Sinnbild für die ganze EU 😂
In deiner kleinen Welt baut jedes Dorf seine eigene Wagenburg.... und wird anschließend von den Indianern überrannt.

UK will übrigens zurück in die EU. Das warnfurbUK wohl doch etwas einsam da draußen ohne Bündnisse das einem den Rücken frei hält.
 
Krik schrieb:
Das ist ein spannendes Thema. Ist Intelligenz ein emergentes Phänomen? Also entsteht sie zwangsläufig, sobald ein paar gewisse Grundvoraussetzungen* gegeben sind? Ich habe darüber noch nie nachgedacht.

* Dazu muss vielleicht die Komplexität der Vernetzung gar nicht dazugehören.

Nun die Ergebnisse der Xenotransplanation legt das zumindest nahe, dass die Komplexität entscheidend ist jedenfalls bei den biochemischen Neuronen - das ist mit gewisser Wahrscheinlichkeit übertragbar.

Stand der Wissenschaft ist hier Intelligenz ist Ergebnis höherer Vernetzung / Komplexität - humanoide Neuronen ~ praktisch im Wesentlichen baugleich mit den von Mäusen und damit biologisch kompatibel ~ dort eingepflanzt in einem frühen Stadium entwickeln höhere Vernetzung und signifikant höhere Intelligenz in den Tieren.

Das Papier ist auch nur ein kleiner Einstieg von self evolving Modellen, das halt ein mögliches Prinzip vergleichsweise überschaubar erklärt. das ist nicht der Stand der self evolving Modelle sondern nur als Startpunkt für das Thema gedacht.

Wer grössere Ansätze will findet die ja z.b. dann hier - z.b. https://arxiv.org/html/2509.22642v1 das aber dann halt nicht mehr ganz so einsteigerfreundlich.

Der Unterschied zu klassischen LLMs ist nicht mehr eingetrichteres "Wissen" also Tokenwahrscheinlichkeiten sondern "Wissen" basierend allein auf eigener Erfahrung und eigenen Schlussfolgerungen das eigene "Hypothesen" Prinzip die die Realität beschreiben und ggf. ständig angepasst werden.

LLMs sind sicher begrenzt da sprachbasiert - aber bei self evolving WoW-Modellen seh ich das nicht (bis auf Hardware wie RAM etc)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Krik
Naja die Robotik ist halt der interessanteste Bereich und wird halt in Chinas x-Jahresplan massivst gepusht die haben halt ein komplett extremes Demographieproblem und brauchen in dem Bereich den Turbo.

Aber das Grundprinzip der WoW Modelle ist ja dass sie System komplett selber Daten verabeiten, Hypothesen aufstellend und die selber korrigieren ist ja prinzipiell auf alle Bereiche anwendbar. Es muss halt eine Interaktion mit etwas sein - ob das physisch ist oder simuliert ist ja egal.

FÜr die AI besteht kein qualitativer Unterschied ist das "unsere" Welt oder ist das z.B. das Bild eine Elektronenrastermikroskop - oder bersteht das gesamte Universum aus einem Bild eines Oszilloskops.

Solange die AI ein "Universum" beobachten und damit irgendwie interagieren kann funktioniert das WoW Modell - ob das ein Roboterarm steuern ist oder an einem Gerät Werte verändern und die Auswirkungen beobachten hat keine verschiende Wertigkeit - das sind alles nur Datenflüsse.

Einzig wichtig ist für WoW Modelle ist nur dass mit der "Welt" eine Interaktionsmöglichkeit besteht aber die Welt ist halt fast völlig frei definierbar.

Wenn das tut dann hat man halt die logische nächste Stufe der AI, die dann zunehmend losgelöst ist von dem ist was der Mensch vorgibt. Vor allem die selbsterlernte Fähigkeit der Abstraktion ist das, was AI auf die nächste Ebene bringt. Ich finde das super dass hier mal China aktuell den Ton angibt und nicht alles aus der US AI Bubble kommt.
 
Zuletzt bearbeitet:
Alle AIs wurden bisher in virtuellen Welten und Simulationen trainiert Denn mehr 1-dimensionale Zahlenfolgen haben AIs noch nie als Input bekommen - ob die in Form von Tokens oder Sensordaten.

Die reale ist nunmal keine 1-dimensionale Zahlenreihe die aller AI Systeme bisher schon -und die reale Welt hat Basisdimensionen wie Raum und Zeit etc das alles existiert bisher für keine AI.

Solche ganz ganz wenigen Spezial AI wie semibiologische mit Organoiden mal aussen vor die sind sicher Edge cases - aber jetzt nicht wirklich ausserhalb der Forschung nennenswert im Einsatz. Was werden die aktuell ausmachen? 0000000000000000001% und die sind doch auch extrem noch limitiert.
 
Zuletzt bearbeitet:
contractor schrieb:
In deiner kleinen Welt baut jedes Dorf seine eigene Wagenburg.... und wird anschließend von den Indianern überrannt.

Bitte was laberst du da für einen Müll? o.O

contractor schrieb:
UK will übrigens zurück in die EU. Das warnfurbUK wohl doch etwas einsam da draußen ohne Bündnisse das einem den Rücken frei hält.

Ach ich verstehe, in deiner kleinen Welt bin ich jetzt also EU-Gegner oder sowas.
Surprise: Ich kann die EU kritisieren und trotzdem Fan von ihr sein.
Oder geht das in deiner kleinen Welt nicht?
 
Zurück
Oben