News OpenAI: Sam Altman fehlen nur noch 99 Millionen GPUs

Ich bin mal gespannt wie wenig die Hardware in 5 Jahren noch Wert ist.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, MGFirewater und gartenriese
Gar nichts weil die nichts wert sein muss - wenn AI Grundlage für die wichtigen F&E Märkte wird dann macht man zig Billionen im Jahr - dann kann man die alte HW jedes Jahr einfach wegwerfen.

Und dass das Szenario denkbar ist ist halt einfach realistisch. Weil ganz vieles im Bereich Chemie, Matrialkunde, Biologie Pharma etc als Grundlage letztendlich einfach (komplexe) Mathematik hat (Gesetze der Physik und Chemie und deren Zusammenwirken und gegenseitigen Einflusses) die Welt in der AI "lebt" - die Welt in der AI evtl bei einem bestimmten Grad (=Anzahl) der Knoten dem Menschen überlegen ist - denn Intelligenz basiert und ergibt sich am Ende aus der Zahl der verknüpften Neuronen, das ist doch hinreichend wissenschaftlich in Versuchen mit Neuronen nachgewiesen, die man zwischen Spezien verpflanzt.
 
Zuletzt bearbeitet:
Wenn KI ganz viele Menschen in die Arbeitslosigkeit befördert, wer erwirtschaftet dann das Geld, um die KI-Dienstleistungen zu bezahlen?
 
  • Gefällt mir
Reaktionen: Sardellenpizza, scryed, Kitsune-Senpai und 6 andere
tdbr schrieb:
Ich bin mal gespannt wie wenig die Hardware in 5 Jahren noch Wert ist.
So rechnet man nicht mit einem Gebrauchsgegenstand.
Oder soll es eine Anspielung auf einen KI Crash sein?
 
Falls man auf der Erde das Geld nicht zurück erwirtschaften kann, das man für die 100 Millionen GPUs ausgegeben hat, kann man die GPUs ja bei SETI einsetzen um außerhalb der Erde neue Kunden für ChatGPT zu finden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -MK, Schumey und MGFirewater
LikeHike schrieb:
Mal ganz allgemein: Kreativbranchen werden gerade überflüssig. Sachbearbeiterstellen werden überflüssig bzw. extrem reduziert notwendig.
Naja, Kreativbranchen verlieren in erster Linie Bullshit-Jobs, die eh kaum Geld eingebracht haben. Wenn jetzt die Freiwillige Feuerwehr aus dem Nachbardorf eigenständig ein Logo oder Eventflyer gebraucht hat und nun selber machen kann - who cares? Mehr als einen Fünfziger oder kostenlose Verpflegung bei dem Event ist da eh nie drin gewesen, also sollen sies halt selber machen. Indische Designer auf Fiverr/99designs oder ein kostenloser Account bei Canva haben diese Bereiche auch schon vor der KI verwässert.

Chatbots und co. gab es auch vor dem KI-Hype. Nur ists irgendwie jetzt der Fall, dass die immer beschissener werden und man anfängt die zu beleidigen, damit man schneller an menschlichen Support gelangt.

ChatGPT ist nett zum texten, ich verbringe jetzt aber doppelt so viel Zeit damit die Texte zu lesen und auf korrekte Fakten zu überprüfen. Naja.
 
  • Gefällt mir
Reaktionen: gartenriese, ShiftyBro, scryed und 2 andere
Eine GB300 saugt an die 1400Watt. 100 mio davon kämen dann auf 140GW, was rund 100 Atommeilern moderner Bauart entspricht. Um eine Komplettlösung anzubieten, sollte NVidia die Atomkraftwerke gleich mitliefern..
 
  • Gefällt mir
Reaktionen: gartenriese, Der Trost, Kitsune-Senpai und 2 andere
Michael-Menten schrieb:
Ist das nur Fluff oder glauben die wirklich an 100 mio. GPUs nur für deren AI?
Bei 100k das Stück sind das 10 Trillionen Dollar. Sind nur ungefähr zwei mal das GDP von Deutschland ...
Aber nutzen von KI rechtfertigt das doch alles! 🙄

ChatGPT wird leider immer schlechter von Version zu Version. Hat mir zB vorgeschlagen, Elasticsearch als backend für paperless-ngx zu nutzen, weil es selbst nicht kapiert wie die Suche funktioniert. Das ist mehrfach bescheuert, Weil paperless-ngx das garnicht supportet und ChatGPT munter paperless ng mit ngx vermischt hat, auch angebliche Doku hat es sich ausgedacht …
 
  • Gefällt mir
Reaktionen: gartenriese
Nun ChatGPT ist ein LLM dessen Fähigkeit ist nur gramnmatikalisch korrekte Sätze zu liefern deren Inhalt sprachlich "korrekt" formuliert ist - die Modelle sind keineswegs auf korrekten Inhalt trainiert, der ergibt sich ja eher "implizit".

Wenn ChatGPT auf eine Frage was gibt "2+2" mit "die Addition von 2 und 2 ergibt 5" antwortet und nicht mit "jhfjakhafuihuzummm,......" oder "Gurkensalat" dann hat es das halt erfüllt worauf es trainiert wurde (bis halt auf die Nebensächlichkeit der falschen Rechnung)
 
  • Gefällt mir
Reaktionen: gartenriese, Sardellenpizza und scryed
Diese selbstverstärkende Eigendynamik von xyz-Blasen funktioniert, weil die Gier von Investoren größer ist als deren Hirn.

Und je größer die Zahlen, desto größer die Gier.
 
  • Gefällt mir
Reaktionen: gartenriese
Das interessante an der ganzen KI entwicklung ist mMn. ja, dass die ganzen Modelle darauf ausgelegt sind, von Millionen von Usern gleichzeitig genutzt zu werden.

Sprich zur Laufzeit z.B. für das Reasoning dürfen nur geringe Rechenkapazitäten genutzt werden, da das Nutzen von Ressourcen natürlich Kosten verursacht.

Die Entwickler wissen aber, was möglich wäre, wenn sie für eine Anfrage zur Laufzeit die doppelte, zehnfache oder vielleicht hunderfache Rechenleistung zur Verfügung stellen könnten. Das können sie ja jederzeit testen und sehen dann wie die Modelle skalieren.

Das heißt, die Entwickler und Unternehmen wissen jetzt schon ziemlich genau, was in einigen Jahren für die breite Masse an Rechenkapazitäten bereitgestellt werden kann und was mit den KI Tools dann möglich sein würde.
Unter diese Prämisse finde ich es besonders interessant, dass so enorm viel Geld investiert wird.
Denn wenn die Modelle nicht vernünftig skalieren würden und auf absehbare Zeit kein großer Mehrwert entstehen würde, dann wären die Investitionen sicherlich auch verhaltener.

Aber jetzt ist zumindest im Consumer Bereich die erste Begeisterung über KI zumindest ein wenig verflogen oder eben alltäglich geworden. Dass man dann sagt, "ja, wir sind erst bei 1% von dem was wir erreichen wollen" ist entweder absolut kranker Größenwahn oder sie wissen es einfach besser und wissen genau was sie tun.

Sehr spannende Zeiten.
 
  • Gefällt mir
Reaktionen: gartenriese und Sansio
Bin gespannt, wann das Kartenhaus zusammen fällt.

Wenn man merkt, das die Anwendungsbereiche eher mau sind?
Wenn es keine sterilen Lerndaten mehr gibt und die KI von der KI lernt und die großen Halus anfangen?

🧐
 
  • Gefällt mir
Reaktionen: gartenriese und Kitsune-Senpai
Haaase schrieb:
Löst dann die KI das Klimaproblem, indem Sie sich selber abschaltet bis auf 1 GPU?
Das Klimaproblem hat eh längst eine Lösung, die Leute müssten halt nur mitmachen.
 
  • Gefällt mir
Reaktionen: KitKat::new() und ErbarmeHesse
Alphanerd schrieb:
Damals hat man blind Geld auf jedes Startup geworfen, das "irgendwas mit Internet" zu tun hatte. Wahnsinnig viel Risikokapital. Ohne dass die Firmen Geld gemacht haben.

Wie sehen denn die aktuellen oder zukünftigen Einnahmen der ganzen heutigen startups aus?
Ist doch völlig anderes heute + es ist einfach wahnsinnig viel billiges Geld am Markt, das investiert werden will.

Es kann wohl niemand den Nutzen von KI abstreiten, das geht über Chat Assistenten hinaus.
Für den entscheidenden KI Vorteil in der Medizin oder der Forschung, sind die Firmen, die sich bei Meta, Musk oder Alphabet usw in Zukunft für KI Kapazitäten einkaufen, bereit jeden Preis zu zahlen.
Der Markt entsteht doch gerade erst, aber was wenn die erste KI Wirkstoffe findet die es sonst nicht geben würde oder eine Warnung vor einem Hurricane ausgibt und Tausende Menschen rettet, die es sonst nicht gegeben hätte.
 
https://www.deutschlandfunk.de/nobe...r-demis-hassabis-john-jumper-protein-100.html

AI Systeme sind bereits heute die zentrale Basis für Entwicklungen auf Nobelpreisniveau.

Es gibt auch viele Modelle in der Wissenschaft die nur auf wenige Nutzer ausgelegt sind aber durch extrem komplexe Faktoren und Beziehungen trotzdem riesig werden können - gerade wnen die darunterliegenden Chemischen und Physikalsichen Prozesse so überkomplex sind dass sie nicht durch einen Menschen erfasst werden können.

DIe LLM wie ChatGPT sind doch aufgrund der unspezifischen Ausrichtung nur die netten "Spielzeuge für das Volk" von AI - die echten Möglichkeiten von AI liegen woanders.
 
  • Gefällt mir
Reaktionen: gartenriese
Weyoun schrieb:
Wenn jede dieser GPUs 500 Watt verbraucht, macht das in Summe 50 GW (und da fehlt noch die Leistung der restlichen Komponenten der Mega-Server). Das bedeutet zusätzliche 50 Meiler der 1 GW-Klasse (Kohle oder AKW)...
Oder anders gerechnet ca. 1 Terawattsrunde pro Tag (50 * 24). Deutschland verbraucht am Tag glaube ich 1,5 Terawattstunden an Strom.

Joa - wenn eine KI soviel Strom verballert wie ein 80 Mio Land ... sollte sie auch so schlau sein wie 80 Mio Leute. Oder?

BAR86 schrieb:
Das Klimaproblem hat eh längst eine Lösung, die Leute müssten halt nur mitmachen.
Welche Leute? Wobei mitmachen? Aus welchem Paralleluniversum schreibst Du uns?
 
  • Gefällt mir
Reaktionen: gartenriese, Weyoun und Kitsune-Senpai
  • Gefällt mir
Reaktionen: gartenriese
Der Titel ist sehr gut gewählt - dachte zuerst, ich hätte mich verlesen x)
 
Nun nur noch 99 Mioist tatsächlich gar nicht so falsch. Auf dem Weg zum Self-Made-Milliardär sind auch die ersten 10, 50 oder 100 Mio sicher die schwersten, dann flacht der Schwierigkeitsgrad die nächste Stufe zu erreichen ab weil eifnach die Basis immer grösser wird.

Und durch Stargate und andere solche Projekte ensteht halt eine gigantische Basis.

Dass Oracle mal kurz glaub 400.000 CPUs dafür gerordert hat für die erste Stufe ist halt inzwischen nur noch eine kleine Meldung wert - das halt nur noch ein kleines Päckchen.

Weils halt nur ne halbe Million ist - die Dimensionen haben sich schon längst verschoben. EIn halbe Million CPUs für ein Startprojekt ist inzwischen die 4060 RTX in der PC Welt da hat kein AAA Gamer einen offenen Mund mehr wenn sich die jetzt einer kauft :D
 
Zuletzt bearbeitet:
Zurück
Oben