News Altman verteidigt KI-Energiebedarf: „Ein Mensch braucht 20 Jah­re, um intelligent zu werden“

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Den Kern der argumentativen Basis verwende ich tatsächlich häufiger gerne, also den Vergleich der Leistungsaufnahme eines Menschen mit z.B. der Kapazität von einem typischen Notebook- oder Staubsaugerakkus. Ist mMn sehr aufschlussreich.

Das, was Altman auf Basis der validen Basis konstruiert, ist aber meiner Meinung nach in erster Linie bislang Marketing.
 
Cabranium schrieb:
Sktiell wirkt es dich so, dass der Kraftwerksbau noch nicht mal angefangen hat. Und wie sieht es da mit dem amerikanischen energienetz aus? Was haben sie eigentlich noch an verfügbare kapazität?
Da besteht massives Ausbaupotential und ausnahmsweise profitieren davon auch deutsche Unternehmen enorm:

https://www.investor-verlag.de/akti...siemens-energy-ist-ein-gewinner-des-ki-booms/
https://www.ingenieur.de/technik/fa...-energy-eine-milliarde-in-die-usa-investiert/
 
end0fseven schrieb:
Und wenn man bedenkt wie viele Millionen Menschen kein Zugang zu regelmässigen Essen und Strom haben, ist diese Aussage von oben Bullshit.
Und es ist liegt in der Verantwortlichkeit von Altman das zu ändern?
 
LikeHike schrieb:
Ich sehe da kein Problem. Technologie braucht Energie. KI hat so breitgefächerte, weitreichende Anwendungsmöglichkeiten, dass sie viel zu wichtig wäre als wegen Energiemangels einzustellen.
Selbst wenn dadurch Menschen sterben? Also ganze Landstriche in den USA wird im Winter der Strom abgestellt (wärend die Rechenzentren weiterlaufen) und manche erfrieren dann. Wegen der "weitgefächerten Anwendungsmöglichkeiten" ? Z.B. Vertriebler ersetzen, Servicemitarbeiter ersetzen... Ja das wars ja schon fast. Derzeitige Ai kann übersetzen und recherchieren (wenn man dabei immer im Auge behält das 5-20% der ERgebnisse erfunden sind).
 
  • Gefällt mir
Reaktionen: Flutefox
Cool Master schrieb:
Jup, warum sollte man eine Batterie einfach wegwerfen ;) Bis das aber wirklich kommt und wir eine echte AGI haben werden noch einige Jahrzehnte vergehen ich denke da in Richtung ~50 Jahre.
Der Blödsin das Menschen Batterien/Generatoren wären, wurde nur für die Filme gemacht. Eigentlich war es "Rechenleistung" des Gehirns im Originalscript (angeblich). Macht dann auch Sinn. Der Mensch produziert im liegen 100 Watt. Dafür muss er Essen. Und man kann einen Menschen nicht mit sich selbst ernähren. Das hat mich bei Matrix schon als Kind extrem genervt. War aber sonst so cool das ich es ignorieren konnte.

Hat man scheinbar so gemacht weil man dachte das verstehen die Zuschauer eher. Naja. Künstlerische Freiheit :)
 
  • Gefällt mir
Reaktionen: adnigcx
Dieser unkritische Vergleich mit echter Intelligenz macht mir wirklich Sorgen, weil das klarer Hype ist.

2011 hat der Forscher David Gelernter dem Spiegel ein Interview gegeben, daraus:
Gelernter: Ich glaube, dass es tatsächlich möglich ist, eine kreative Maschine zu bauen, wahrscheinlich sogar eine Maschine, die halluzinieren könnte. Aber sie würde uns in keiner Weise gleichen. Sie wäre immer eine Täuschung, eine Fassade. Es ist vollkommen plausibel, dass etwa das Modell »Watson 2050« einen Poesiewettbewerb gewinnt. Es wird womöglich ein wundervolles Sonett schreiben, das ich schön und bewegend finde und das weltberühmt wird. Aber würde das bedeuten, dass Watson einen Verstand hat, eine Idee von sich selbst? Natürlich nicht. Da ist niemand zu Hause. Da ist nichts drin.
(...)
Wenn ein einfacher Computer keinen Orangensaft herstellen kann, wie soll es dann ein weit komplexerer können? Computerchips sind einfach der falsche Stoff. Es ist unmöglich, Bewusstseinszustände mit Hilfe von Software zu erzeugen, egal wie komplex die Programme auch sein mögen. Kann ein Wunder geschehen, wenn man sehr viele Bauteile zusammensteckt? Vielleicht. Aber ich habe keinen Anlass, daran zu glauben. Die Leute unterschätzen die Komplexität eines natürlichen Organismus. Und sie überschätzen Kinofilme über künstliche Menschen, Terminatoren und verständige Computer wie etwa den berühmten Hal in Stanley Kubricks »2001«.
 
  • Gefällt mir
Reaktionen: LamaTux, Pontus und the_IT_Guy
Es wird so viel geheult, dass alles viel Strom verbraucht und das schlecht für die Umwelt ist...
Aber Crypto Müll und KI Slop ist in Ordnung...
Die nächste Generation wird vermutlich "Idiocracy" gerecht.
ShatGPT sagt Elektrolyte sind gut für Pflanzen...
 
  • Gefällt mir
Reaktionen: Weapi und Tsu
Hat hier etwa jemand erwartet, der Transhumanismus sei human?
 
Do Berek schrieb:
Terminator als mögliches Szenario, wahrscheinlich wird's aber eher auf Matrix hinauslaufen.

Es gibt noch eine weitere Theorie. KI's stecken eines Tages ihre Menschen in betüttelte Gated comunities, worin ihnen alle (für KI's mittlerweile primitive, leicht zu erfüllende) Bedürfnisse nebenher vollständig erfüllt werden.
So haben sie den nervigen Klotz am Bein endlich los und können sich untereinander zu einer Superintelligenz hochjazzen. Und alle sind zufrieden. :daumen:
 
natürlich hat er recht... hier sitzen anscheinend viele Leute der Marke " 640 Kilobyte Speicher sind genug, mehr braucht kein Mensch ". Sicher ist nicht alles perfekt, war das Internet vorher auch nicht, die ersten Smartphones auch nicht. Lasst einfach unvoreingenommen ( was in dem Alter der meisten Menschen hier kaum mehr geht ) sehen wo das hinführt. Ich liebe AI. Die Welt ohne AI wäre absoluter Bockmist für ich. Warum bin ich nicht jetzt 8 Jahre und hole mir das Wissen aus einer AI raus anstatt das mich mein dummes Umfeld " falsch " trainieren zu lassen. Natürlich gibt es Nachteile aber die Kinder sind blessed in dieser Zeit zu leben.
 
NoNameNoHonor schrieb:
Da müsste man erstmal klären, was intelligent bedeutet/heisst. Momentan sind bspw. LLMs nicht "intelligent" sondern eher stochastische Papageien.

Das haben schon viele versucht, und zwar lange vor dem aktuellen LLM-Boom, dennoch hat es keiner geschafft.
Das mag überraschend klingen, aber wir können Stand heute nicht sagen was unser Gehirn von einem stochastischem Papagei fundamental unterscheidet.
 
  • Gefällt mir
Reaktionen: Hovac
Sieht so aus als wäre das größte Problem unserer Zeit, das wir keine AGI haben. Deshalb müssen wir sämtliche Ressourcen unseres Planeten aufwenden, um sie zu erschaffen.
Dann können wir endlich alle Menschen damit ersetzen und die Probleme sind gelöst.

:freak:
 
Krik schrieb:
Für mich ist Sam Altman ein Soziopath.
Was erwartest du? Der ist CEO eines großen Unternehmens. Da ist er schon per Definition ein soziopath. Anders wäre er nicht dahin gekommen und hätte sich da auch nicht gehalten. Das merkt man jetzt wieder eindrücklich.
 
  • Gefällt mir
Reaktionen: Alphanerd, Axonteer und Vitche
floh668 schrieb:
Selbst wenn dadurch Menschen sterben? Also ganze Landstriche in den USA wird im Winter der Strom abgestellt (wärend die Rechenzentren weiterlaufen) und manche erfrieren dann.
Quelle bitte.
floh668 schrieb:
Wegen der "weitgefächerten Anwendungsmöglichkeiten" ? Z.B. Vertriebler ersetzen, Servicemitarbeiter ersetzen... Ja das wars ja schon fast. Derzeitige Ai kann übersetzen und recherchieren (wenn man dabei immer im Auge behält das 5-20% der ERgebnisse erfunden sind).
Du hast keine Ahnung, wo KI schon alles eingesetzt wird, oder? Aus der Medizin nicht mehr wegzudenken. KI ist schneller, besser und qualitativ stabiler in der Krebserkennung als jeder Onkologe. Effizienzsteigerungen sind in der Entwicklung von Produkten, im Coding, in der Verwaltung ein Kinderspiel.

KI ist mehr als ein LLM.
 
  • Gefällt mir
Reaktionen: McTheRipper und Dogbrothers
theGucky schrieb:
Man kann sagen, ein Mensch verbraucht ungefähr 110 Watt in der Stunde.
Und einer der größte „Energiefresser“ ist sein gewaltiger Informationsspeicher. 😄
 
Es gibt sicherlich (nicht erst seit Star Trek und dem Crewmitglied Data der TV Serie) Ideen KI-trainierte, Menschen nachempfundene Roboter zu entwickeln, aber dass diese dann von sich aus Gefühle entwickeln werden können bzw. fühlende Lebewesen werden, dürfte wohl fiktional bleiben.

Somit verbietet sich der unsinnige Vergleich von Altman, da man in bspw. 20 Jahren (jetzt erst bei LLMs angelangt) - mit all den dafür zu erbringenden Energiehunger von KI und den finanziellen, sozial und ökologischen Nebeneffekten - kein KI Äquivalent zu einem gleichaltrigen Menschen wird schaffen können, was Intelligenz gesamtheitlich (und dazu gehört eben auch echte/untrainierte Empfindungen/Gefühle zu haben) ausmacht.

Ich sehe Altmans rechtfertigende und vergleichende Äusserung (die von einem Mangel an Verantwortungsbewusstsein zeugt) leider eher als selbstdisqualifizierenden Nachweis für seine jetzige Rolle bei OpenAI und die ihm zur Verfügung gestellte Macht in Form von Finanzmitteln und anderen Ressourcen.
 
Zuletzt bearbeitet:
TechBro, menschlich eine untere Schublade. Wenig überraschend. Und dann hört er nicht auf sein LLM (Machine-Learning) als KI zu verkaufen. Die Wissenschaft musste derweil KI in “harte KI” umbenennen, weil das Marketing mal wieder einen Begriff sinnentleert hat.

Schauen wir uns mal an was LLMs gebracht haben:
  • Kernfusion.
  • Fehlerfreie Programme mit wohl definiertem Verhalten.
  • Klare und präzise Texte in der Kommunikation.
  • Krebs geheilt.
  • Lebensstandard der Menschheit verbessert.
  • Energiebedarf gesenkt.
  • Niedrige Preise für Grafikkarten und Speicher.
  • Schneller Zugriff auf tatsächliche Fakten und Wahrheit.
Nichts davon.

Wir können jetzt schneller Text, Bilder und Videos erzeugen. Deren Qualität in keiner Weise gesichert ist, weil LLMs per se undefiniertes Verhalten haben. Schneller mehr fehlerhafte Programme.

Was wir nicht gebraucht haben war schneller Softwareentwicklung mit mehr Fehlern. Auch keiner aufgeblasenen Präsentationen. Und noch mehr Sicherheitslücken durch agentische KI.


Klar ist es schneller als ich im Lesen von Quellcode. Es ist ein Computer und hat Machine-Learning. Im besten Fall ist der eingefügte Codeschnipsel auf Stackoverflow passend. Im schlechtesten Fall erfindet es wieder mal eine Option für Git - die es nie gab. Und das obwohl eine man-page für Machine-Learning pures Gold ist :(
 
  • Gefällt mir
Reaktionen: .fF und LamaTux
floh668 schrieb:
Selbst wenn dadurch Menschen sterben? Also ganze Landstriche in den USA wird im Winter der Strom abgestellt (wärend die Rechenzentren weiterlaufen) und manche erfrieren dann. Wegen der "weitgefächerten Anwendungsmöglichkeiten" ? Z.B. Vertriebler ersetzen, Servicemitarbeiter ersetzen... Ja das wars ja schon fast. Derzeitige Ai kann übersetzen und recherchieren (wenn man dabei immer im Auge behält das 5-20% der ERgebnisse erfunden sind).
Nicht zu vergessen, dass in manchen Regionen aufgrund dieser Rechenzentren vielfach das Grundwasser abgepumpt wird.

Dazu gab es in den letzten Wochen auch einiges an Berichterstattung:

  1. https://www.forbes.com/sites/kensil...m-is-running-into-an-unplanned-water-problem/
  2. https://unu.edu/inweh/news/world-enters-era-of-global-water-bankruptcy
  3. https://edition.cnn.com/2026/01/20/climate/water-bankruptcy-drought-united-nations
 
Die meisten hier checken auch nicht, dass KI mehr als ein Schönheitsfilter für Chantal, Text Zusammenfassung oder Bildgenerator ist. Die erste Generation Humanoiden steht in den Startlöchern und spätestens dann brauchen wir massiv Rechenleistung. Dann heißt es "R2D2 mach in meiner Abwesenheit die Wäsche und Putz" oder "Kehr den Hof und fahr mit dem Gabelstapler das von a nach b". Zuerst mehr schlecht als Recht, aber mit jedem Fehler wird das System besser. Das ist der Grund für den AI "Hype"
 
Bei solchen Aussagen wie von Altman wundert es mich nicht das wir wirklich mehr KI brauchen.
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben