Halte ich für eine sehr gewagte These und das hört sich vielmehr nach einer Ausrede an, um weitere Investitionen rechtfertigen zu können. Der Mensch benötigt keine 20 Jahre, um Aufgaben erledigen zu können. Das ist ein sukzessiver Prozess, der bereits nach den ersten 18-24 Monaten eigene Handlungen ermöglicht. Alles Aufgaben, die eine KI nicht umsetzen kann: Greifen, Laufen, etc. Wenn Menschen erst nach 20 Jahren dazu in der Lage wären Aufgaben erledigen zu können, würden Kinder auch nicht mit 7-8 Jahren eingschult werden, weil sie nicht dazu in der Lage wären eigenständig zur Schule zu kommen oder Hausaufgaben zu machen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Altman verteidigt KI-Energiebedarf: „Ein Mensch braucht 20 Jahre, um intelligent zu werden“
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
- Registriert
- Dez. 2020
- Beiträge
- 2.101
Jein.dark destiny schrieb:Solch eine KI kann nur zu einem einzigem schluss kommen und der würde sicher niemandem gefallen.
Es gibt viele Möglichkeiten.
Ein Beispiel:
AGIs werden in die Gesellschaft integriert. Z.b. ein selbst denkender Roboter muss seinen Strom und seine Teile selbst bezahlen und muss von daher wie jeder Mensch arbeiten gehen. Das nennt sich Gleichberechtigung
Und es gibt viele weitere Möglichkeiten, auch jene, die Menschen kopieren, z.b. indem die AGI dümmere Roboter-Sklaven für sich baut, um keine Menschen mehr zu brauchen.
Vulvarine
Lieutenant
- Registriert
- Sep. 2016
- Beiträge
- 778
Eher Energielieferanten,wie in Matrix.MrStools schrieb:Menschen sind also nutzlose Fresser, habe ich das richtig verstanden?
Wir werden bald ein so Container eingelegt und dienen dann als Batterie für KI, Roboter und Co.
FU_long
Lt. Commander
- Registriert
- Okt. 2006
- Beiträge
- 1.407
Ja ja, schon richtig. 😄 Natürlich braucht der Mensch über Lebenszeit Energie. Aber die KI Energie benötigen wir ZUSÄTZLICH. Das ist der springende Punkt. Der Mensch benötigt in seinen ersten 20 Jahren ja nicht weniger Energie, nur weil es KI gibt. Egal, wieviel KI verbraucht, sie verbraucht es immer zusätzlich zu dem schon vorhandenen Verbrauch. Die Tatsache an sich ist jetzt weder gut oder schlecht, aber sein Vergleich ist zutiefst menschenverachtend. Menschlich ein unglaublicher Tiefflieger. Solche Leute sind gefährlich.
Snakeeater
Commander
- Registriert
- Aug. 2004
- Beiträge
- 2.956
Sam Altman wird in die Geschichte eingehen mit dem was er so von sich gegeben hat bevor die KI Blase platzte.
Ich persönlich mag Altman nicht. Ich verstehe seine Aussage und warum er das sagt ist relativ einfach: Er muss halt sein Produkt rechtfertigen.
Das hat mich auch gestört, aber war jetzt kein Dealbreaker. Im Grunde trotzdem eine super Trilogie. (Der vierte Teil ignoriere ich...)
Die Matrix Schöpfer wollten die Menschen auch als Recheneinheiten/RAM darstellen. Also die Programme der Maschinen sollte auf den Hirnen der Menschen laufen und die Matrix sollte nur die Ablenkung sein. Nur wusste damals kaum jemand in der breiten Bevölkerung wie Computersysteme funktionieren, also hat man es der einfachheit halt auf Menschen sind Batterien abgeändert.floh668 schrieb:Und man kann einen Menschen nicht mit sich selbst ernähren. Das hat mich bei Matrix schon als Kind extrem genervt. War aber sonst so cool das ich es ignorieren konnte.
Das hat mich auch gestört, aber war jetzt kein Dealbreaker. Im Grunde trotzdem eine super Trilogie. (Der vierte Teil ignoriere ich...)
Lil Moo
Lt. Commander
- Registriert
- Dez. 2008
- Beiträge
- 1.302
Kannst dir ja mal überlegen, wie sich ein Nutzvieh (Rinder, Schweine, Pferde, …) fühlt, das seinerseits auch in der Lage ist, soziale Bindungen einzugehen, Emotionen zu empfinden usw. wenn es von dir aus rein nutzbringenden Aspekten betrachtet wird. Auch Tiere sind zu mehr in der Lage als ihr reiner Nutzen.Krik schrieb:als wären wir nur Werkzeuge oder Nutzvieh.
Widerlich.
Das einzige, was deinen Kommentar von Altman‘s unterscheidet ist, dass Sam Altman selbst ein Mensch ist.
Nicht falsch verstehen: ich find den reinen Nützlichkeitsgedanken auch eklig und bin der Meinung, dass man KI nicht blind auf die ganze Menschheit hätte loslassen sollen. Aber das zeigt, wie nicht-intelligent wir sind: wir wissen, dass uns unsere Art zu leben kaputt macht, aber wir machen weiter bzw. verschärfen Probleme noch, anstatt wenigstens auf den Weg der Besserung zu gelangen (zB Mischgewebe, Fast Fashion, Massentierhaltung - brauchen wir alles nicht, aber beschleunigen sogar den Ausbau der uns vernichtenden Industrien). Ist das „intelligent“?
Anderster
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.109
Vermutlich einen Bruchteil, da es nur "Datengräber" sind, die nichts berechnen.Pipmatz schrieb:Hier wird jetzt der Energiebedarf von KI als Problem gesehen? Gibt es denn nicht ganz andere Probleme?🤔
- Wie viel Energie brauchen eigentlich Insta & TikTok pro Jahr für deren nutzlosen Dienste?
Und der ganze aufgezählte Rest wird durch KI nicht weniger. Ich kann eine neue Baustelle nucht durch alte Baustellen gerechtfertigen.
gleichwertig zu einem teil - manche modelle scheitern eben weil es bessere von anderen entwicklern gibt.theGucky schrieb:Und das gilt nicht für die KI?
scheinst mich sehr gut zu kennenAlphanerd schrieb:Selbst bei Menschen mit Aussagen wie deinen würde ich das nicht so sehen.
ganz exakt bei dir !LikeHike schrieb:Ich sehe da kein Problem. Technologie braucht Energie. KI hat so breitgefächerte, weitreichende Anwendungsmöglichkeiten, dass sie viel zu wichtig wäre als wegen Energiemangels einzustellen.
Naja Altmann sagt doch nicht man solle die Ressourcen, die ein Mensch nutzt von dem abziehen und für die KI nutzen. Ich sehe jetzt in seiner Aussage - zumindest was ich gelesen habe - keine Wertigkeit dass KI wichtiger sei als Menschen.
Wenn ich sgage 20 durchschnittliche Menschen wiegen so viel wie ein elektrischer Kleinwagen dann vergleiche nur eine Eigenschaft die Masse von 2 Dingen und nicht Menschen mit Autos.
Wenn die Energie relativ CO2 neutral zusätzlich generiert werden würde ist das doch egal.
Wenn ich sgage 20 durchschnittliche Menschen wiegen so viel wie ein elektrischer Kleinwagen dann vergleiche nur eine Eigenschaft die Masse von 2 Dingen und nicht Menschen mit Autos.
Wenn die Energie relativ CO2 neutral zusätzlich generiert werden würde ist das doch egal.
Sich selbst abzuschalten?dark destiny schrieb:Sind wir mal ehrlich, was würde daraus resultieren wenn es eine KI gäbe welche selbst lernt (perfekt ist) und über genug rechte verfügt zu machen was sie will? Solch eine KI kann nur zu einem einzigem schluss kommen und der würde sicher niemandem gefallen.
Scheinriese
Lt. Junior Grade
- Registriert
- Dez. 2018
- Beiträge
- 328
Ich bin mir nicht sicher, ob der Herr es nicht besser weiß oder ob er einfach nur gehasst werden will.
Am Ende des Tages sollten ihm aber eigentlich klar sein, dass der Souverän immer noch das Volk ist. Das Ganze könnte ganz schnell kippen, sollte die Bevölkerung endgültig die Nase voll von dem Circus haben. Dieses Kartenhaus steht auf keinem soliden Fundament.
Am Ende des Tages sollten ihm aber eigentlich klar sein, dass der Souverän immer noch das Volk ist. Das Ganze könnte ganz schnell kippen, sollte die Bevölkerung endgültig die Nase voll von dem Circus haben. Dieses Kartenhaus steht auf keinem soliden Fundament.
@Vulvarine Das war übrigens der größte Logikfehler in Matrix. Warum sollte man uns mit der Nahrung füttern anstatt diese direkt in Energie ohne die Verluste umzuwandeln?
Ruff_Ryders88
Rear Admiral
- Registriert
- Jan. 2008
- Beiträge
- 5.667
Da zeigt sich mal wieder, mit was für Art Mensch wir es hier moralisch zu tun haben, wenn man solche Vergleiche bedienen muss.
Da hat sich wahrscheinlich irgendein absoluter Vollhonk aus der Marketingabteilung diesen Spruch ausgedacht und der Typ fand dann - ah ja das ist gut, das sage ich.
Wir sind jetzt also so weit, dass wir den Menschen in seiner Daseinsberechtigung mit KI und Co. vergleichen, damit berechtigte Kritik an KI unterminiert wird.
Da hat sich wahrscheinlich irgendein absoluter Vollhonk aus der Marketingabteilung diesen Spruch ausgedacht und der Typ fand dann - ah ja das ist gut, das sage ich.
Wir sind jetzt also so weit, dass wir den Menschen in seiner Daseinsberechtigung mit KI und Co. vergleichen, damit berechtigte Kritik an KI unterminiert wird.
Was ich bei der ganzen Diskussion erstaunlich finde ist, wie viele Menschen Altmans Prämisse, nach der "artificial intelligence" und "human intelligence" gleichzusetzen seien, mehr oder weniger vorbehaltlos akzeptieren.
Letztendlich ist ein LLM trotz aller Fortschritte nichts anderes als ein "stochastischer Papagei". LLMs liegen zwar erstaunlich oft richtig mit ihren Antworten, sie sind aber unfähig zu verstehen WARUM eine Antwort richtig oder auch falsch ist. Insofern ist es auch kein Wunder das die vielgepriesene KI ausgerechnet mit mathematischen Fragestellungen oftmals immer noch ihre Probleme hat.
Auch die sogenannten Halluzinationen werden vermutlich auch weiterhin ein Problem darstellen. Eine KI kann nun einmal prinzipbedingt nicht zwischen Fakten und Fiktion unterscheiden. Für sie sind das alles zunächst einmal nur Daten.
Mit anderen Worten: Die Antworten einer KI sind mit hoher Wahrscheinlichkeit plausibel. Ob sie auch die Realität abbilden steht dabei auf einem anderen Blatt.
Wenn Altman den Energiebedarf einer KI mit dem Verweis kontert, daß ein Mensch ja schließlich auch sehr lange brauche bis er produktive Arbeit liefert, dann ist er zwar ein guter Verkäufer, aber im Grunde bringt er hier einen Vergleich zwischen Äpfeln und Paprika. Ja, beides kann man essen, aber das eine ist Obst während das andere Gemüse ist.
"Artificial intelligence" kann zweifellos einen Nutzen bringen, die "human intelligence" wird sie aber wahrscheinlich nicht so bald ersetzen.
Letztendlich ist ein LLM trotz aller Fortschritte nichts anderes als ein "stochastischer Papagei". LLMs liegen zwar erstaunlich oft richtig mit ihren Antworten, sie sind aber unfähig zu verstehen WARUM eine Antwort richtig oder auch falsch ist. Insofern ist es auch kein Wunder das die vielgepriesene KI ausgerechnet mit mathematischen Fragestellungen oftmals immer noch ihre Probleme hat.
Auch die sogenannten Halluzinationen werden vermutlich auch weiterhin ein Problem darstellen. Eine KI kann nun einmal prinzipbedingt nicht zwischen Fakten und Fiktion unterscheiden. Für sie sind das alles zunächst einmal nur Daten.
Mit anderen Worten: Die Antworten einer KI sind mit hoher Wahrscheinlichkeit plausibel. Ob sie auch die Realität abbilden steht dabei auf einem anderen Blatt.
Wenn Altman den Energiebedarf einer KI mit dem Verweis kontert, daß ein Mensch ja schließlich auch sehr lange brauche bis er produktive Arbeit liefert, dann ist er zwar ein guter Verkäufer, aber im Grunde bringt er hier einen Vergleich zwischen Äpfeln und Paprika. Ja, beides kann man essen, aber das eine ist Obst während das andere Gemüse ist.
"Artificial intelligence" kann zweifellos einen Nutzen bringen, die "human intelligence" wird sie aber wahrscheinlich nicht so bald ersetzen.
the_ButcheR
Vice Admiral
- Registriert
- Mai 2010
- Beiträge
- 6.992
Aha und KI haut zur Zeit solche Dinger raus:
Hab den Prompt letze Woche noch selber getestet und weiter getrieben. War mit dem Fahrrad im 15 km entfernten Nachbarort, weil meine nahe Waschanlage leider zu war. ChatGPT meinte nach weiteren Eingaben dann als letzte Antwort, bevor ich nicht mehr konnte, noch sowas wie: "Ja zu einem blitzsauberen Auto zurück zu kommen, wenn der Lack in der Abendsonne glänzt, kann einen glücklich machen." 🤣
Hab den Prompt letze Woche noch selber getestet und weiter getrieben. War mit dem Fahrrad im 15 km entfernten Nachbarort, weil meine nahe Waschanlage leider zu war. ChatGPT meinte nach weiteren Eingaben dann als letzte Antwort, bevor ich nicht mehr konnte, noch sowas wie: "Ja zu einem blitzsauberen Auto zurück zu kommen, wenn der Lack in der Abendsonne glänzt, kann einen glücklich machen." 🤣
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 8.260
hmm. kommt drauf an was man betrachtet...knoxxi schrieb:Der Mensch arbeitet aber mit einer Energieeffizienz, die eine Maschine, vermutlich, niemals erreichen werden wird.
Computer zeigen uns seit 30 Jahren dass sie gewisse Dinge viel effizienter (weniger Energie nötig) machen können, als ein Mensch..
in der Mechanik: (Elektro)-Motoren sind viel Effizienter als Muskeln (90-95% Wirkungsgrad möglich)
Muskeln beim Menschen: ca. 24-25% Wirkungsgrad
(dann kommt noch dazu dass der Mensch nicht nur mehr Energie für die Bewegung benötigt, er will auch noch hochwertigste Energie dafür zugeführt bekommen - wo sich ein Elektromotor mit paar Quadratmeter Solar begnügen würde, benötigt der Mensch die 100fache Fläche (Photosyntheses hat einen sehr bescheidenen Wirkungsgrad beim Verwerten des Sonnenlichts im Vergleich zu Solarzellen))
also so einfach ist es nicht
und auch KI wird dem Menschen in vielen Bereichen davonlaufen, auch was Effizienz angeht
ich kann mit einem lokalen Modell und paar Watt z.b. ein ganzes Buch zusammenfassen lassen..
ein Mench müsste dieses erst viele Stunden lang oder gar Tagelang lesen
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.