SuperHeinz
Captain Pro
- Registriert
- März 2023
- Beiträge
- 3.949
Man kann auch mit dem Film "Westworld" von Michael Crichton aus dem Jahre 1973 anfangen.user_zero schrieb:Und wer gerade eine neue Serie sucht, dem empfehle ich „Westworld“
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Man kann auch mit dem Film "Westworld" von Michael Crichton aus dem Jahre 1973 anfangen.user_zero schrieb:Und wer gerade eine neue Serie sucht, dem empfehle ich „Westworld“
Aha. Es ist halt trotzdem ne kognitive Leistung, die dabei entsteht. Verstehe den Einwand nicht wirklich. Wir wissen ja nicht mal genau, wie das menschliche Gehirn genau funktioniert. Wir lernen ja auch durch Mustererkennung.Bright0001 schrieb:Wie viele schon vorher geschrieben haben: Da ist nichts mit Motivation oder Denken: Dass sind große Versionen von der Autovervollständigung wie ihr sie auf dem Handy habt - nur halt etwas komplexer.
the_IT_Guy schrieb:Diese Art der Meldungen kommen seit Jahren über ChatGPT.
Und jedes mal mach ich einfach nur 🙄 🙄 🙄
Nochmal für alle, da ist 0, Zero, Nada Intelligenz hinter. Das ist ein Textgenerator. Nix mit Selbsterhaltungstrieb. Sondern mit zu viel Krimis und Thrillern Trainiert.
Ich finde es interessant wie bei solchen Artikeln immer zwei extreme aufeinander treffen, die beide die Realität verkennen.the_IT_Guy schrieb:Nochmal für alle, da ist 0, Zero, Nada Intelligenz hinter. Das ist ein Textgenerator. Nix mit Selbsterhaltungstrieb. Sondern mit zu viel Krimis und Thrillern Trainiert.
Wann genau eine Art von Bewusstsein auf welche Weise auch immer entstehen könnte, wissen wir schlicht nicht, da wir keinen blassen Schimmer haben (etwas übertrieben, aber im Prinzip) was ein Bewusstsein überhaupt ist und wo es herkommt. Es ist nach dem aktuellen Stand aber höchst unwahrscheinlich, dass sich das durch reine Steigerung der Parameter erreichen lässt.Andrej.S. schrieb:Schwierig zu sagen, ob ab einer bestimmten Vielzahl von Modellparametern, also quasi Synapsen nicht doch eine emergente Metaintellizenz entstehen kann.
Korrekt, KI kann gefährlich sein, ganz egal ob dahinter eine eigene Absicht, Bewusstsein, "echte Intelligenz" oder sonst was in der Art steckt. Sie ist bereits gefährlich, weil wir auf eine blackbox schauen und nicht hinreichend erklären können, wann welcher Input aus welchen Gründen zu welchem Output führt. Es ist eben kein Algorithmus mehr .SirKhan schrieb:Da macht es auch keinen Unterschied mehr, ob das nun wirkliche Intelligenz ist oder nicht, wenn er die Fähigkeiten hat und so reagieren kann (und wenn er es sich selbst halluziniert), dann kann das auch außerhalb von Simulationen passieren.
Nicht wie wir. Denken tut es durchaus. Was genau jetzt fehlt um von LLM zu echter KI zu kommen, das scheinen die meisten nicht so richtig zu verstehen und es ist zugegeben auch etwas kompliziert.Hax0r123 schrieb:Das sind LLMs und keine künstliche Intelligenz. Ein LLM kann nicht denken, wie wir es tun.
Das sind im Prinzip nur mehrere Durchläufe (Input --> Blackbox --> Output wird zu neuem Input der wieder zugefüttert wird --> Blackbox ... Usw).LadyAlice schrieb:Und was wenn das ganze mit Dingen wie chain of Thought und Continuous Thought Machines kombiniert wird?
dernettehans schrieb:Ich denke aber schon, dass unser Gehirn gewissermaßen auch wie LLMs funktioniert. Es fehlt aber etwas, worauf wir bisher nicht gekommen sind um das ganze zu einer AGI zu kombinieren. Ich vermute, dass Gehirn besitzt viele kleine LLMs die miteinander kommuniuieren, dazu ein Zwischenspeicher und eine Art oberes Betriebssystem, welches diese verwaltet und steuert.
Bright0001 schrieb:Am Ende ist es egal, ob die Maschine aus Eigenmotivation Unfug treibt, oder weil es eine Rolle spielt.
Alpenbruder schrieb:Es ist halt trotzdem ne kognitive Leistung, die dabei entsteht.
Kognitive Leistung erfordert Kognition, also Denken. Das gibt es bei den Modellen nicht, ein LLM ist nichts anderes als eine sehr große mathematische Formel. Anders formuliert: Die Ergebnisse kleiner neuronaler Netze kann man buchstäblich von Hand ausrechnen; Wenn man LLMs Intelligenz unterstellt, dann unterstellt man mathematischen Formeln Intelligenz. Es sollte offensichtlich sein, warum das wenig Sinn ergibt.KurzGedacht schrieb:Große multimodale Modelle auf "das ist ein Textgenerator" zu reduzieren und ihnen Intelligenz abzusprechen, ist das eine extrem und eine absolut unterkomplexe Darstellung der Situation
Völlig irrelevant für die Bewertung von LLMs: Selbst wenn das Gehirn 1:1 wie ein LLM arbeiten würde (was es nicht tut), vergleicht man hier ~100.000.000.000 mit ~1.000.000 Neuronen. Da fehlen noch ein paar Größenordnungen, bis man Erkenntnisse vom einen sinnvoll auf das andere übertragen kann.Alpenbruder schrieb:Wir wissen ja nicht mal genau, wie das menschliche Gehirn genau funktioniert. Wir lernen ja auch durch Mustererkennung.
Das sind zwei unterschiedliche Probleme die beide Beachtung verdienen. Eine echte KI hat durchaus apokalyptisches Potenzial, während die Gefahr der Ausbeutung und Kontrolle allgegenwärtig ist. Das ist ja keine entweder-oder Frage.mae schrieb:Ich denke nicht, dass das egal ist, weil die Sorge davor, dass uns die KI beherrschen wird, uns die Gefahr uebersehen laesst, dass uns Menschen mit allen moeglichen Mitteln (darunter KI, aber das ist bei weitem nicht alles) ausbeuten und beherrschen.
Eine KI, die zu blöd ist, sich eine Gebühr zu merken und deshalb die Polizei alarmiert? Ist eher ein typisches Phänomen von KI, dass sie nämlich irgendwann austrainiert ist und dann anfängt, ihre festgefahrenen Routinen für Blödsinn zu nutzen. Gefährlich ist daran eigentlich nur, dass es weiterhin Menschen sein müssen, die alle paar Monate ein neues Modell aufsetzen müssen, weil das alte wieder Alzheimer bekommen hat.Shir-Khan schrieb:Das ist schon irgenwie gruselig. Genau so stelle ich mir Skynet ind HAL9000 in ihren Anfangsphasen vor...
Naja, das Szenario aus "Wargames" wurde spätestens durch Civilization eingeholt und da gibt's auch keine echte KI. Eine KI ist durch ihre Programmierung genau so determiniert wie jedes andere Programm auch. Wenn ich der Oral-B KI also Atomcodes gebe, geht die Zahnbürste nicht mehr an. Wenn ich umgekehrt ChatGPT bitte, mir die Zähne zu putzen, passiert auch nichts.Bright0001 schrieb:Eine echte KI hat durchaus apokalyptisches Potenzial
Da finde ich "Better than us" (aktuell auf NF) interessanter und irgendwie nahbarer.user_zero schrieb:Westworld
Bright0001 schrieb:Wenn man LLMs Intelligenz unterstellt, dann unterstellt man mathematischen Formeln Intelligenz. Es sollte offensichtlich sein, warum das wenig Sinn ergibt.
Das sind zwei unterschiedliche Probleme die beide Beachtung verdienen. Eine echte KI hat durchaus apokalyptisches Potenzial, während die Gefahr der Ausbeutung und Kontrolle allgegenwärtig ist. Das ist ja keine entweder-oder Frage.
Ich finde die rechte unwoke culture auch viel besser. Da steht man zusammen. Zum Beispiel mit einer armen armen rassistin, die einen 5 jährigen Schwarzen mit Autismus mehrfach ni.... genannt hat.xerex.exe schrieb:Eher linke, woke Cancel Culture.
Fehlt halt noch der Arbeitgeber und Familie.
Weil sie es nicht besser können, das ist das ganze Problem mit Alignment. And es kommt wieder und wieder und wieder.mae schrieb:Zunaechst denke ich nicht, dass eine echte KI grundsaetzlich apokalyptisches Potential hat, solange man ihr nicht Ziele antrainiert, die den Interessen Ihrer Eigner zuwiderlaufen, und warum sollten die das tun?
"Trump als KI" ging mir durch den Kopf als ich den Artikel gelesen hatte.Pandora schrieb:Diese Dinger werden tatsächlich immer menschlicher, dichten sich die Welt zusammen wie es ihnen passt und erpressen andere zu ihrem eigenen Vorteil...