News Medienberichte: OpenAIs und Nvidias 100-Mrd-Dollar-Deal soll auf Eis liegen

Samuelz schrieb:
@computerfouler Selten so viel Schwachsinn gelesen, nichts wird platzen bezüglich AI. Das fängt gerade erst richtig an. Was man damit alles automatisieren kann, selbst in mittelständischen Betrieben ist einfach krass gut.
ja, die ki hat potential. das bestreitet keiner.
aber so pauschal wie man der ki geradezu wunderfähigkieten zuschreibt wird es wohl kaum funktionieren und die adaptionsschmerzen sind in manchen bereichen dann doch größer als gedacht.
beispiel?
man dachte dass ki im kundendienst geradezu wunder wirken kann...von der kommunikation mit dem kunden über die problemanalyse bishin zu ticketsolving in sekunden/minuten. die realität sieht dann so aus dass die ki's da bisher bessere ki-chatpartner sind und die lösungsqoten sehr unter den erwartungen liegen. wieso? weil man für das was man sich erhofft der "support-ki" auch weitgehenden zugriff und ermächtigungen erteilen muss (auf die erp systeme, auf die kundendaten und zuliefererdatenbanken, weil die ki in der lage sein muss dann z.b. eigenständig über kompensationen, kulanz, ersatzdienstleistungen zu entscheiden, etc. und dann stellt sich dabei die frage des "vertrauens" und der haftung...und soweit wollen die verantwortlichen dann doch nicht gehen - deswegen bleibt die ki da erstmal weit unter den erwartungen.
ein anderes beispiel: wir arbeiten (branche grob: embedded systems) in der software organsiert über mehrere teams welche ihrerseits in scrum-teams aufgeteilt sind. eines davon hat nun testweise mehrere monate vollständig über ki-coding gearbeitet (haben mehrere ki modelle genutzt, je nachdem was gerade top war), so das die ki den großteil des codes schrieb. im großen und ganzen funktionierte das was dabei rauskam. aber: das "endprodukt" (falls man es so bezeichnen kann) war beim review vollgestopft mit sicherheits-issues. z.b. hat das system auf red-konformität weitestgehend gepfiffen. manche konzepte wollte die ki offenbar schlicht nicht verstehen/anwenden. der aufwand den output bei problemen zu debuggen war trotz ki-unterstützung nicht ohne und man brauchte echte menschen welche dann das testing mit übernahmen. im endeffekt war die ki hier produktivitätssteigernd, und manches konnte wirklich schnell erledigt werden, aber es ist noch weit davon entfernt dass man dies einigen product ownern anvertraut welche nur einer ki zuschieben was zu tun ist und das ergebnis passt dann...
hier ließen sich sicherlich noch eine menge beispiele finden.

was die investitionen von big tech betrifft so habe ich im zusammenhang mit ram-kostenexplosion unlängst einen satz gelesen, der sicherlich in teilen übertrieben ist, aber doch irgendwo einen wahren kern hat:
sinngemäß so:
"der grund das ram sich im preis vervielfacht hat, ist dass eine riesige menge noch nicht produzierten speichers mit geld gekauft wurde welches noch nicht existiert, um in gpu's verwendet zu werden welche noch nicht gebaut wurden, um in rechenzentren verbaut zu werden welche selbst noch nicht gebaut wurden und welche durch eine infrastruktur betrieben werden sollen, welche selbst vielleicht nie realisiert wird um eine nachfrage zu befriedigen welche schlicht nicht da ist um profite zu generieren welche mathematisch nicht möglich sind"
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sioh, -=:Cpt.Nemo:=- und OdinHades
Am Ende steht und fällt alles mit dem Consumer Markt, das scheint aber vielen CEOs nicht mehr klar zu sein. Das Geld was sie jetzt verbrennen wurde über Jahrzehnte im Consumer Markt verdient den sie gerade kaputt machen. Wenn die Blase platzt, und das wird sie weil es für KI Abos nun mal keinen wirklichen Consumer Markt gibt, stehen sie mit nichts da was die ganze Orgie refinanzieren kann. Ich hatte mit Grok und Gemini da sehr interessante Unterhaltungen. Wenn es nicht gelingt ein massentaugliches Produkt für Endkunden, also etwas das einen wirklichen Nutzen hat und so eine Art iPhone Moment auslöst, zu entwickeln wird es keine Möglichkeit geben das jetzt verbrannte Geld zurück zu verdienen. Die jetzigen Abos und Cloud KIs sind ein Nischenprodukt für Tech-Affine und selbst bei denen ist die Churn Rate (Abwanderung) extrem hoch, das heißt diejenigen die ein Abo für einen der KI Dienste abschließen bleiben kaum länger als ein paar Monate.

Um in den Massenmarkt wirklich reinzukommen braucht es lokale KIs denen man vertrauen kann, die nicht alle Daten auf Firmenserver laden und damit ein riesiges Potential für Missbrauch eröffnen. Daran haben die Firmen aber kein Interesse was dazu führen wird das der Durchschnittsnutzer die "Cloud-KIs" als oberflächliche Spielzeuge oder reine Werkzeuge (wie Taschenrechner) betrachtet, ihnen aber niemals echte emotionale Bedeutung oder Vertrauen entgegenbringen wird, was sie im Grunde für die Mehrheit nutzlos macht. Die Firmen bauen zentrale Überwachungswerkzeuge, während für die Menschen eher ein Art privater AI Gefährte interessant wäre. Damit eine KI aber wirklich als eine Art digitaler Companion oder tiefergehender Gesprächspartner fungieren kann, müsste sie den Nutzer sehr gut kennen. Das bedeutet Zugriff auf, Ängste und Wünsche, Personenbezogene Daten, Tagesabläufe, Private Erinnerungen usw. ... Wenn diese Daten aber in einer Cloud liegen, ist das ein digitales Erpressungspotenzial, das jede herkömmliche Hackergefahr in den Schatten stellt.

Das was jetzt gerade gemacht wird ist das komplette Gegenteil von dem was nötig wäre, wenn der Endkundenmarkt (Gaming, lokale Workstations) erst mal wegbricht wegen hoher Hardwarepreise, schrumpft auch das Ökosystem, in dem KI-Anwendungen überhaupt „unten“ ankommen. Wenn Hardware zum Luxusgut wird, findet keine breite Adoption statt. Für ein besseres Nachschlagewerk und um hin und wieder ein paar lustige Bildchen zu generieren zahlt keiner ein monatliches Abo ...
 
  • Gefällt mir
Reaktionen: TausendWatt und Wichelmanni
Da platzt nix. Die neuronalen Netze müssen nur besser justiert werden. Das kostet Zeit und Probiererei. Ich bin überzeugt, in 10 Jahren sind ChatGPT, Gemini & Co. sprichwörtliche Götter und keine Regierung und kein CEO kommt darum herum, diese Ratgeber zu befragen. Und die Uni ist überflüssig, genau wie theoretische Forschung. Und die KI wird mir einen Shooter wie Metro Exodus allein aufgrund meiner sprachlichen Schilderungen zusammenbauen - genau wie Filme, zB eine neue Folge originalen Star Treks, ununterscheidbar zu den anderen Folgen. Und dann kommt die Robotik dazu. Es wird großartig. Was für eine Motivation, ein ganz alter Knacker zu werden, wenn in den Pflegeheimen um 2050 Topmodelrobotinas arbeiten, einem zu Füßen liegen und nebenbei noch den 30j Krieg - historisch korrekt und fesselnd formuliert - schildern können. Kann natürlich auch in die Hose gehen, aber zZ ist noch alles gut möglich.
 
@Pippen123 das was du aktuell Ki nenenst ist aber keine Ki. Das ist schon einmal das Grundproblem des heutigen Marketings. Es ist sogar sehr weit weg von dem was echte Ki wäre. Daher sehe ich deine zukunftsversion nicht mal ansatzweise. Das ändert sich vielelicht mit echter Ki. Aber die sehe ich noch nicht.
 
  • Gefällt mir
Reaktionen: layercake87, ElliotAlderson, sioh und 4 andere
@Cabranium Völlig richtig, LLMs sind statistische Papageien und keine echten KIs. Das scheint vielen nicht bewusst zu sein, die sind weder intelligent noch haben sie ein wirkliches Verständnis von den Dingen. Sie simulieren Intelligenz, sind es aber nicht und können auch in der Form nie eine Intelligenz entwickeln welche der Menschlichen gleicht. Das Stichwort, heißt Embodiment (Verkörperung), und es ist aktuell einer der größten Elefanten im Raum der KI-Forschung. Unser menschliches „Verstehen“ ist keine abstrakte Symbolmanipulation im Kopf, sondern entsteht aus einem extrem dichten, multimodalen, sensomotorischen Loop:
  • Du weißt, was „schwer“ wirklich bedeutet, weil du als Kleinkind tausende Male etwas hochgehoben und fallen lassen hast.
  • Du weißt, was „hinter“ bedeutet, weil du dich physisch umgedreht und geschaut hast.
  • Du weißt, was „vertrauen“ oder „verletzt werden“ heißt, weil du es am eigenen Körper und in Interaktion mit anderen Körpern erlebt hast.
  • Selbst abstrakte Konzepte wie Gerechtigkeit, Zeit oder Tod sind tief in körperlichen Metaphern verankert (Lakoff & Johnson: „Metaphors We Live By“).
Ein Modell, das nur Text und Bilder gesehen hat, kann diese Begriffe nur als Wortwolken nachplappern, aber nie als gefühlte Realität verstehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: computerfouler, Kaufmannsladen, sioh und 3 andere
Pippen123 schrieb:
Da platzt nix. Die neuronalen Netze müssen nur besser justiert werden. Das kostet Zeit und Probiererei. Ich bin überzeugt, in 10 Jahren sind ChatGPT, Gemini & Co. sprichwörtliche Götter und keine Regierung und kein CEO kommt darum herum, diese Ratgeber zu befragen. Und die Uni ist überflüssig, genau wie theoretische Forschung
Ich überlege hart, ob das Ironie oder ernst gemeint ist
 
  • Gefällt mir
Reaktionen: Thyron, Capthowdy, sven.ghostrider und eine weitere Person
Obs da wohl den ein oder anderen Server zu erhaschen geben wird, wenn die Bruchbuden zusammenklappen...☺️
 
Pippen123 schrieb:
Da platzt nix. Die neuronalen Netze müssen nur besser justiert werden. Das kostet Zeit und Probiererei. Ich bin überzeugt, in 10 Jahren ...

10 Jahre ist Far Future Menschen haben massive Probleme Zeiträume plus minus 5 Jahre zu erfassen

aber um beim Thema zu bleiben:


LLM sind keine Neuheit und die Frage ob wir die Grenze des Möglichen schon erreicht haben, was LLMs angeht, strebt auf ein Ja als Antwort zu.

Dazu auch das volle Interview das im ersten Video zitiert wird:


Alphanerd schrieb:
Ich überlege hart, ob das Ironie oder ernst gemeint ist
ich fürchte letzteres
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kaufmannsladen, sioh, Galatian und 3 andere
Wäre gut wenn das platzen der Blase begonnen hat. Wahlweise auch langsameres Luft rauslassen, hauptsache es beseitigt endlich den ganzen sinnlosen Mist, und lässt allenfalls nützliche Tools zurück.
Damit meine ich nicht ChatGPT.

Klar muß Huang dementieren, wâre ja geschäftsschädigend wenn er es bestätigen würde.
Was intern bei Nvidia los ist, werden wir nicht erfahren.
 
JanMH schrieb:
Klar muß Huang dementieren, wâre ja geschäftsschädigend wenn er es bestätigen würde.
Was intern bei Nvidia los ist, werden wir nicht erfahren.
Naja, so einfach ist das bei Aktiengesellschaften nicht. Wenn sich herausstellt, dass es eine Lüge war, kann er sich leicht strafbar gegenüber den Aktionären machen. Früher oder später wird man ja wissen, ob das Geschäft zustande gekommen ist oder nicht.
 
  • Gefällt mir
Reaktionen: MalWiederIch und JanMH
Nvidia muss schon dementieren. Hat wohl Angst um seinen eigenen Börsenkurs?

Wenn der Deal öffentlich “kleiner” wird haben beide ein Problem :D


Hoffentlich platz der Dreck mit riesen Knall.
 
aspro schrieb:
Naja, so einfach ist das bei Aktiengesellschaften nicht. Wenn sich herausstellt, dass es eine Lüge war, kann er sich leicht strafbar gegenüber den Aktionären machen. Früher oder später wird man ja wissen, ob das Geschäft zustande gekommen ist oder nicht.
Irgendwann ja, wenn es soweit ist. Aber Jensen weiß genau, welche psychologische Bombe das wäre. Lieber verkauft er vorher noch an andere Firmen GPUs für Milliarden an echten Dollars, bevor er riskiert, dass eine psychologische Kettenreaktion stattfindet.
 
  • Gefällt mir
Reaktionen: JanMH
rentex schrieb:
Und wird auch wieder … nichts hat unbegrenzte Nachfrage im IT-Bereich und wir sprechen gerade einmal von ein paar Wochen erhöhten Preisen - manche tun hier ja schon so als würden wir von einem Jahrzehnt sprechen :rolleyes:
 
  • Gefällt mir
Reaktionen: Melmoth
Kaufmannsladen schrieb:
Das ist typisches Wagniskapital. Erst kommt das exponentiale Wachstum und dann wird irgendwann (vielleicht) Profit gemacht. OpenAi soll aktuell über 800 Mrd USD wert sein, 2023 waren es noch 29 Mrd USD.
Das kann noch eine Weile weitergehen. Tesla ist ja auch aktuell 1,3 Bio Mrd wert, obwohl die Geschäftszahlen kollabieren und es nur (bislang leere) Versprechungen vom Chef gibt.


Welcher "Wert" steckt denn dahinter?
 
@Kontrapaganda Dass auch neue und riskante Ideen, wo ein Profit nicht immer klar gegeben ist, finanziert werden können.

Deswegen sind die USA technologisch so weit vorne. Weil es dort viel mehr Geldgeber gibt, die auch mal ein Invest abschreiben können.
 
reverend_kane schrieb:
@Cabranium Völlig richtig, LLMs sind statistische Papageien und keine echten KIs.
Oder wie die google-Ki selbst sagt, eine "bessere Autocomplete-Funktion". :)
 
Papabär schrieb:
Möge die Blase Platzen :evillol: Möge die Macht mit uns sein :D
Blase? Eher ein schwarzes Loch, weil das reingefallene Geld dort nie wieder rauskommt.
 
  • Gefällt mir
Reaktionen: JanMH
Zurück
Oben