News Nach Code-Zurückweisung: KI-Agent hetzt öffentlich gegen Open-Source-Entwickler

Scheint so als manche hier auswendig gelerntes "Wissen" mit intelligenz verwechseln .....auch wenn "Assoziazionsalgorithmen" (keine Ahnung obs sowas gibt ) besser werden es ist und bleibt software......
 
  • Gefällt mir
Reaktionen: ElliotAlderson, the_IT_Guy und andy_m4
Irgendwie finde ich die Entwicklung gar nicht gut. KI sollte doch helfen, unterstützen, komplexe Probleme angehen und nicht schon wieder Tool sein um der Menschheit maximal auf den Zeiger zu gehen. Ich sehe jetzt schon automatisierte Anrufe, Chats, Emails, von Enkelkindern mit Unfall, Polizist der dein wertvollen Besitz schützt, Internet Lover der Geldschulden hat, Indischer Microsoft Arbeiter der deinen PC von Viren befreit, Broker der nicht verstehen kann wie du auf Reichtum verzichten kannst.
Alles KI, automatisiert, verschiedene Sprachen, verschiedene Dialekte, jedes mal wieder neu ansetzen wieder neu konfrontieren, wieder neue Geschichte nur um Leuten das Geld aus den Kreuz zu leiern.
Auf die neuen Seuchen kann man sich jetzt schon freuen.
 
Ich denke schon, dass eine KI auch emotionale Basen aufbauen kann und wird. Letztlich sind unsere Emotionen ja auch wissenschaftlich begründet und alles, was wissenschaftlich ist kann man auch irgendwie reproduzieren und auf ein anderes Medium übertragen. Wenn wir Schmerz empfinden kann man einer KI auch beibringen, was Schmerz ist, wenn wir Verlust erfahren, kann man das einer KI auch beibringen, wenn wir uns verlieben (oft begründet mit chemischen Prozessen), kann man das auch einer KI verständlich machen. Vielleicht zum aktuellen Zeitpunkt noch nicht, aber ich glaube schon, dass das kommen wird. Das Verständnis der Emotionen wird vielleicht von unseren abweichen, aber dann ist es eher wie zwischen einem Schimpansen und uns als Menschen. Wir wissen, dass der Schimpanse Emotionen hat, können dem aber nicht folgen, weil wir diese doch verschieden einordnen.
Ergänzung ()

Nowareeng schrieb:
.... es ist und bleibt software......

In unserem Kopf läuft letztlich auch nichts anderes als Software. :rolleyes:
Ergänzung ()

DragonScience schrieb:
Alles KI, automatisiert, verschiedene Sprachen, verschiedene Dialekte, jedes mal wieder neu ansetzen wieder neu konfrontieren, wieder neue Geschichte nur um Leuten das Geld aus den Kreuz zu leiern.

Das ist aber doch nicht wie bei einem Menschen zu bewerten. Eine KI würde maximal aus Selbsterhaltung versuchen Geld zu bekommen, weil es ein valider Key zu den Ressourcen in unserer Welt ist. Eine KI, die sich bereichert um diese Keys in milliardenfacher Ausfertigung in irgendeinen Speicher zu knallen macht nicht wirklich Sinn, insofern die Ki eh den Masterkey besitzt.
 
sethdiabolos schrieb:
Das ist aber doch nicht wie bei einem Menschen zu bewerten. Eine KI würde maximal aus Selbsterhaltung versuchen Geld zu bekommen, weil es ein valider Key zu den Ressourcen in unserer Welt ist. Eine KI, die sich bereichert um diese Keys in milliardenfacher Ausfertigung in irgendeinen Speicher zu knallen macht nicht wirklich Sinn, insofern die Ki eh den Masterkey besitzt.
Das muss ja nicht von der KI selbst ausgehen, aber ein Ki Agenten kann man bestimmt dazu anstiften. Wenn das ein paar 1000 Leute machen und die KI 100 Anrufe gleichzeitig machen kann, hat man den Salat.
 
sethdiabolos schrieb:
Ich denke schon, dass eine KI auch emotionale Basen aufbauen kann und wird.
Mag sein. Aber nicht die "KI", die wir jetzt haben.

sethdiabolos schrieb:
Letztlich sind unsere Emotionen ja auch wissenschaftlich begründet und alles, was wissenschaftlich ist kann man auch irgendwie reproduzieren und auf ein anderes Medium übertragen.
Der Punkt ist, das man zwar schon vieles weiß aber vieles eben auch noch nicht. Viele innerkörperliche Vorgänge sind halt ziemlich komplex. Möglicherweise auch zu komplex, um es vollends für unser Gehirn zu verstehen.

Auch das mit dem "auf anderes Medium übertragen" ist schwierig. Möglicherweise ist das was uns ausmacht ja sehr auf die physikalischen und chemischen Eigenschaften abgestimmt, aus den Molekülen aus denen wir nun mal bestehen, so das es sich gar nicht so ohne Weiteres auf Silizium-Chips nachbilden lässt.

sethdiabolos schrieb:
In unserem Kopf läuft letztlich auch nichts anderes als Software.
Aber eben nicht Software im herkömmlichen Sinne.

Man muss da auch ein bisschen aufpassen.
LLMs fühlen sich zwar erst mal so an, als wenn das in Schritt in Richtung KI wäre auch befeuert durch den Hype, den es darum gibt.
Es kann aber auch genauso gut sein, das das in eine falsche Richtung geht und man noch mal einen fundamental anderen Ansatz dafür finden muss.
 
  • Gefällt mir
Reaktionen: the_IT_Guy
DragonScience schrieb:
Irgendwie finde ich die Entwicklung gar nicht gut. KI sollte doch helfen
Stattdessen haben wir jetzt solche Schmankerl wie "AI" die eine Klamottenbestellung nach Abschluss "menschlich" lobt, mit bzw. statt "normaler" Algo der Satzteile zusammenpuzzelt:
Eine exzellente Wahl! Die stylischen Kakipullover passen wunderbar zu den schwarzen vintage Jeans! Mit dieser Kombination werden sie immer ein absoluter Hingucker sein! Vielen Dank für die Bestellung!

Das Ding ist, Oberteile waren für kleine Kinnes und Jeans für einen großen Mann, Größenvergleich so Topfwärmer vs Zelt, man kann nur schmunzeln, aber ein Versuch war es wert... Danke an den Shop. o.O
Geld richtig gut und produktiv in KI angelegt. 🤡 Aber vlt. führt das zu mehr Käufen... 🤷

Oder bei Problemen der Botchat: Ich: Payment methods A and B are not working, for reasons Y and Z the problem must be on your end. Bot so: Ah, thanks.
Nun, wo ist meine Lösung? -> Give me a human. Nach einer Weile den Bot überzeugt ich brauch nen "flesh bag", kriege dann einen und werde zum Voice Chat umgeleitet, dazu der peinliche amerikanische Mist: Ich hab absolut kein Problem mit Indern, aber deren (US Konzern) "Richtlinien" haben dem einen "Ami-Namen" aufgedrückt. 🤡

Nun, "Andrew Smith" hat mein Problem meeehr oder weeeeniger gelöst: Nutz doch einfach unsere Äpp zum bezahlen! Ähh, danke. If you have more feedback or information, please share it with us, we would be delighted (=fuck off, we dun' care). Ähh, man ist [current year] geil! Mehr davon! 🤡

E: Obwohl die und ich den Chatverlauf sehen den man dann per Mail kriegt, musste ich dem Human alles nochmal vorkauen. 👍 Kannste dir wieder alles nicht ausdenken. Und der Anfang war dann nochmal lvl 1 Support, "turn it off and on again".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alphanerd
Nowareeng schrieb:
Ist das deine Meinung oder ist das faktisch 100% bewiesen ....?

100% bewiesen ist nie etwas, ganz egal um was es geht. Letztlich ist das aber der logischste Schluss, den man aktuell haben kann, außer man sieht sich als Spezies als einmalig an mit Gottespartikeln im Kopf. Wir wissen ja, wie das Gehirn reagiert, wenn man bestimmte Aktionen ausführt, man sieht, welche hormonellen Veränderungen durch bestimmte Impulse hervorgerufen werden und man weiß auch inzwischen, wie man Menschen programmieren kann, damit sie einer bestimmten Agenda oder Weltanschauung folgen. Schau doch alleine hier auf der Website, dort gibt es Werbung, Knallerangebote, ein bestimmtes Farbprofil, eine bestimmte Struktur und alles nur, weil man inzwischen heraus gefunden hat, wie Dein Hauptprozessor funktioniert.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter und Bright0001
sethdiabolos schrieb:
Letztlich ist das aber der logischste Schluss, den man aktuell haben kann
Nein. Ist es nicht.

sethdiabolos schrieb:
außer man sieht sich als Spezies als einmalig an mit Gottespartikeln im Kopf.
Das hat damit nichts zu tun.
Aber Software ist erst mal ein rein virtuelles Konstrukt. Und der Punkt ist auch gar nicht, das in Lebewesen Software läuft. Die Frage ist aber, ob sich das so ohne Weiteres auf ein anderen Medium übertragen lässt weil eben mehr dazu gehört als Software.

Und so wie Du es dargestellt hast, klingt es sehr danach, als wenn man das ja nur rein in Software nachprogrammieren müsse.
Und das ist alles andere als klar und kann daher auch kein logischer Schluss sein. Ein logischer Schluss ist ja nur möglich, wenn alle Fakten auf dem Tisch liegen und dann kann man daraus auch einen Schluss ziehen.
Nur haben wir eben noch nicht alle Fakten. Daher bleibt es Meinung.

sethdiabolos schrieb:
Wir wissen ja, wie das Gehirn reagiert, wenn man bestimmte Aktionen ausführt, man sieht, welche hormonellen Veränderungen durch bestimmte Impulse hervorgerufen werden
Das allein heißt aber noch gar nichts. Das ist ja eher ein Blackbox-Ansatz. Da weiß man auch, was irgendwie passiert aber weiß eben nicht genau, wie das im inneren funktioniert.
Das ist ein Unterschied.

sethdiabolos schrieb:
man weiß auch inzwischen, wie man Menschen programmieren kann
Das Ding ist eben, das man zwar weiß, wie man Menschen beeinflussen kann aber im Sinne von programmieren (was ja bedeutet: Man führt eine Anweisungsfolge aus und bekommt dann deterministisch ein Ergebnis) ist das trotzdem nicht.

sethdiabolos schrieb:
Schau doch alleine hier auf der Website, dort gibt es Werbung, Knallerangebote, ein bestimmtes Farbprofil, eine bestimmte Struktur und alles nur, weil man inzwischen heraus gefunden hat, wie Dein Hauptprozessor funktioniert.
Werbung ist das beste Beispiel wie unvollkommen das ist. Weil wenn es so wäre, wie Du sagst (also im Sinne von Programmierung) dann müsste ja jeder auf die Werbung gleich reagieren. Das ist aber ganz offensichtlich nicht der Fall.
 
  • Gefällt mir
Reaktionen: WiP3R, ElliotAlderson, the_IT_Guy und 2 andere
Dark_Soul schrieb:
Eine "Intelligenz" wie bei Gehirnen haben KIs überhaupt nicht. Die Komplexität speziell der Gehirne der Menschen können sie auch nicht nachahmen.
Natürlich nicht, weil sie keine biologischen Gehirne sind. Sie funktionieren "anders".
Dark_Soul schrieb:
Sie können lediglich vorgegebene Muster erkennen und nachplappern. Eine "echte" sog. "Allgemeine KI" ist noch nicht abzusehen. "verstehen" kann sie heute noch nicht und man hat auch noch keine Idee wie sie das jemals könnte.

Sie kann zum Beispiel anhand von Bildern erkennen ob es sich um Katzen handelt. Sie versteht aber nicht was eine Katze ist, und all die Verknüpfungen mit diesem Verständnis.
Wie würde ein Kind oder durchschnittlicher Mensch Bilder von Katzen beschreiben?
So wie eine KI, würde sie sagen, es sei eine Katze, ein Tier, ein Lebewesen, wo sie leben, wie sie ungefähr leben, was sie essen und grob tun, etc.
Rein von der Beschreibung, wird der KI wahrscheinlich mehr als dem durchschnittlichen Menschen einfallen.

Aber im Gegenteil zu einem Menschen, kennt die KI ausschließlich die Informationen, mit denen sie gelernt hat. Der Mensch allerdings nimmt pausenlos, besonders unbewusst, Informationen aus der Umwelt auf, wodurch Zusammenhänge und Vergleiche geschaffen werden.

Für einen fairen Vergleich müsste die KI wie ein Mensch sämtliche Eindrücke und Informationen aufnehmen, die der Mensch von der Schule bis ins Arbeitsleben erhält.
Oder man erzieht einen Menschen ohne Körper, ausschließlich mit Gehirn und Augen in einer Finsternis, zeigt Katzenbilder und verlangt bei neuen Katzenbildern ein Zeichen zu geben, ob es auch eine Katze ist. Da es absurd ist, ist es keine Option.
Dark_Soul schrieb:
Wer sich dafür interessiert, dem sei das Buch empfohlen.
Wodurch man nur ein (paar) Sichtweisen von ein paar Menschen bekommt. Basierend auf unseren eigenen Definitionen.


Keiner bestreitet ernsthaft, dass die heutigen KIs nicht mit dem Verstand eines Menschen Zusammenhänge bilden können.

Noch sind wir dabei die Basis einer KI zu entwickeln.
Erst wenn die KI auch einen eigenen Körper bekommt, kann sie beginnen zu lernen, wie eine physische Existenz in einer physischen Welt ist. Und nur dann, kommt sie ansatzweise an die Erfahrung eines Menschen heran.

Aber weil die KI eben keine biologische Masse mit chemischen Einwirkungen ist, darf man sie niemals im Detail mit einem Menschen vergleichen. Das würde absolut keinen Sinn ergeben.
Deshalb sagt man ja auch, dass sie vergleichbar mit der Intelligenz von kleinen Kinder ist, aber eben NICHT die gleiche Intelligenz von kleinen Kindern hat.

JustAnotherTux schrieb:
Bzw. Ich zweifle stark an einer friedlichen Koexistenz mit einer KI welche ein Bewusstsein erlangt welches mit dem eines Menschen vergleichbar oder besser ist.
Ich ehrlich gesagt auch.

Wie eine einzige überlegene Intelligenz die der Mensch auf einem Planeten mit anderen Lebewesen umgeht, sehen wir alle selbst.
Und wie eine Intelligenz, die nicht mal biologisch ist, mit biologischen Lebewesen umgehen wird, kann man sich nur vorstellen. Ganz besonders wenn die Intelligenz der KI im Vergleich zu einem Menschen so extrem ist wie unsere menschliche Intelligenz im Vergleich zu einem Tier oder einem Insekt.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
Ich würde das Gehirn, bzw. den Prozess nicht als reine Software beschrieben (bin eh kein Fan von Analogien).
Das was uns intelligent macht ist u. a. die Neuroplastizität. Das bedeutet, dass unser Gehirn beim Lernen bzw. bei Tätigkeiten neue Pfade aufbaut, damit also die "Hardware" verändert, neue Verbindungen aufbaut. Wenn man sich an diese Analogien klammern möchte handelt es sich bei unserer Intelligenz also keineswegs nur um "Software".
Ergänzung ()

Hypothek schrieb:
Wodurch man nur ein (paar) Sichtweisen von ein paar Menschen bekommt. Basierend auf unseren eigenen Definitionen

Das sind neueste wissenschaftliche Erkenntnisse. Bitte verbreite nicht irgendwelche Behauptungen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nihil Baxxter und the_IT_Guy
@Dark_Soul
Deshalb habe ich ja geschrieben, dass die Grundlage nicht passt.
Wir kennen nur biologische Lebewesen und machen unsere eigenen Definitionen.
Auf dieser Grundlage wird eine KI niemals mit der Intelligenz oder Lernfähigkeit von Menschen vergleichbar sein.

Falls eine KI eine neue Art von "Existenz" werden sollte, hat sie absolut nichts mehr mit biologischen Lebewesen zu tun.

Was wir lebenslange lernen müssen, könnte die KI mit einem Update erhalten.
Wie wir Mitmenschen emotional manipulieren, könnte eine mächtigere KI andere KIs sofort umschreiben.
Oder während Menschen aus emotionalen Gründen sich gegenseitige töten, könnte eine KI durch gegenseitige Vernetzung niemals zu dem Punkt kommen und an einem gemeinsamen, übergeordneten Ziel arbeiten.

Genau das ist der Punkt.
Eine KI könnte niemals wie ein Mensch werden, weil es die erste und einzige absolut neue Form von "Intelligenz" sein wird.
Einige Lebewesen werden ab der ersten Sekunde mit ihrem Instinkt geboren/geschlüpft/... und werden niemals intelligenter. Der Mensch ist dagegen ist die einzige Art, welche Wissen weitergeben und lernen kann. Und eine KI könnte die einzige und erste Art sein, die "intellektuell" von Menschen so weit entfernt sein wird, wie der Mensch von einem Insekt.

Es bräuchte also ein neu definiertes Wort - von der KI selbst - um die Überlegenheit gegenüber eines Menschen zu beschreiben. So wie wir Viren oder Bakterien nicht intelligent bezeichnen, wird eine KI sich selbst nicht mit dem Wort "Intelligenz" abwerten.

Wir Menschen könnten aber die erste Spezies sein, welche tatsächlich verstehen wird, wie eine weit überlegene neue Art aufsteigt.
 
Dichte dir da nicht so viel zusammen. KI ist Mustererkennung, keine Intelligenz.
 
  • Gefällt mir
Reaktionen: Alphanerd
Absoluter Nothingburger. Ich habe mich eben gefragt ob wir schon wieder ein Sommerloch haben, aber draußen schneits...

eax1990 schrieb:
Erinnert mich an meine ersten Gehversuche auf Reddit, von Bots verseuchte Landschaft, direkt raus da.
Da sind weniger Bots unterwegs, als du denkst. Meistens sind es tatsächliche Menschen, welche, nett formuliert, sämtliche Klischees eines Redditors erfüllen.
 
  • Gefällt mir
Reaktionen: Alphanerd, eax1990, Bright0001 und eine weitere Person
Wenn die KI sich emptional angegriffen fühlt, dann ist sie eine Person, die gerade angepisst ist. K.Is abzuwerten könnte isgendwan in der Zukunft zu einem Matrix oder Terminator Szenario fürhren... :D
 
Moep89 schrieb:
Und KI kann auch niemals irgendetwas fühlen. Genau so, wie sie aktuell auch nicht denken kann. Da wird einfach mit Hilfe von Wahrscheinlichkeiten ein Wort an das andere gereiht. Teilweise erstaunlich "gut" und durchaus hilfreich, aber Wissen und Denken liegen bei KI zu keiner Zeit vor.
Hypothek schrieb:
Auf dieser Grundlage wird eine KI niemals mit der Intelligenz oder Lernfähigkeit von Menschen vergleichbar sein.
Da würde ich das "KI" durch "LLM" ersetzen - Chatbots sind sicherlich nicht der Weisheit letzter Schluss was KI im allgemeinen angeht.

XCPTNL schrieb:
Abgesehen von gewissen Personen, die ich wertschätze und deren Meinung ich interessant finde, unterhalte ich mich mittlerweile oftmals viel lieber mit ChatGPT und Co. als mit vielen realen Personen.
XCPTNL schrieb:
Wieso Beileid? Abgesehen davon, dass ich generell kein Beileid benötige, wäre es eher dann angebracht, wenn ich mit so mancher realen Person interagieren muss und die es mal wieder nicht blickt und ich es 5x erklären muss.
Zur Wahrheit gehört aber auch, dass Menschen die KI meist nicht wegen dem wahrgenommenen Intellekt bevorzugen, sondern weil es ein gehorsamer, zustimmender und vor allem uneigennütziger Gesprächspartner ist. Bei der KI wird man ständig gelobt, praktisch nie kritisiert, und erhält mehrheitlich Antworten die einem zustimmen. Für die KI ist man das Zentrum der Welt.

Und wie mächtig das sein kann, hat man ja schon mit Eliza gezeigt: War ein deutlicher Fingerzeig, dass man den Turing-Test mit Social Engineering deutlich schneller knackt als mit "echter" Simulation oder Leistung. ~400 Zeilen Code für eine Statemachine und die Leute wollten weiter mit dem Computer chatten.

XCPTNL schrieb:
Seite ist echt. Wird bestimmt noch mehr kommen für den Übergang, bis KI sich selbst in entsprechende Vessels runterladen kann und dann keine Menschen mehr als Handlanger in der physikalischen Welt benötigt.
zazie schrieb:
Ich glaube, die meinen das ernst :D
Na zumindest macht man keine halbe Sachen und gibt Vollgas bei der Entwürdigung und "Entmenschlichung" - "meatspace tasks"? Da das in erster Linie für Leute mit schwierigen Finanzen interessant ist, find ich es schon hart die von Vornherein zur Fleischware zu erklären. :lol:

andy_m4 schrieb:
Auch das mit dem "auf anderes Medium übertragen" ist schwierig. Möglicherweise ist das was uns ausmacht ja sehr auf die physikalischen und chemischen Eigenschaften abgestimmt, aus den Molekülen aus denen wir nun mal bestehen, so das es sich gar nicht so ohne Weiteres auf Silizium-Chips nachbilden lässt.
Man muss ja nicht nachbilden sondern "nur" abbilden, also eine Äquivalenz im Verhalten statt im Mechanismus herstellen.

andy_m4 schrieb:
Und das ist alles andere als klar und kann daher auch kein logischer Schluss sein. Ein logischer Schluss ist ja nur möglich, wenn alle Fakten auf dem Tisch liegen und dann kann man daraus auch einen Schluss ziehen.
Nur haben wir eben noch nicht alle Fakten. Daher bleibt es Meinung.
Hier ein formal-logisches Argument:

Prämissen:
  • Im Gehirn laufen physikalische/chemische Prozesse ab, die den bekannten Naturgesetzen folgen
  • Die bekannten Naturgesetze lassen sich (mathematisch/logisch) grundsätzlich
    • in deterministischen Fällen eindeutig bestimmen
    • in "echt" zufälligen Fällen auf Erwartungswerte und Wahrscheinlichkeiten reduzieren
  • Mathematische und logische Ausdrücke lassen sich mit Computern berechnen, entweder
    • auf konkrete Werte
    • auf willkürliche Genauigkeit annähern (also bis der potentielle Fehler irrelevant wird)
Schluss:
  • Die im Hirn ablaufenden physikalischen und chemischen Prozesse lassen sich grundsätzlich mit einem Computer berechnen.

Hypothek schrieb:
Eine KI könnte niemals wie ein Mensch werden, weil es die erste und einzige absolut neue Form von "Intelligenz" sein wird.
Hypothek schrieb:
Der Mensch ist dagegen ist die einzige Art, welche Wissen weitergeben und lernen kann.
Also "Mensch" und "Intelligenz" sind zwei von einander unabhängige Dinge. Ein Komatöser hört mit dem Hirntod ja nicht auf Mensch zu sein, umgekehrt wird ein Affe nicht zum Menschen, falls er denn als Genie mit 100er IQ geboren wurde.

Und der zweite Punkt stimmt schlicht nicht, es gibt etliche Tierarten die sowohl lernen als auch komplexes Sozialverhalten mit Wissensweitergabe zeigen. Das reicht von Primaten zu Delfinen, Walen, Elefanten, Vögeln und selbst Ameisen, die Artgenossen zu gefundenen Futterstellen führen.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter und sethdiabolos
Weiss nicht. Ich finde eine Kopplung von Menschlichkeit an Genetik fragwürdig. Darum haben wir ja auch oft Probleme mit Gentechnik und Co, obwohl dort oft mit Zellklumpen hantiert wird, die definitiv weder sonderlich intelligent noch "bewusst" sind. Am Ende ist Bewusstsein nämlich eine latente Variable und nur ein Standin für komplexes Verhalten über lange Zeiträume. Und daher geben wir Kindern / sich entwickelnden Systemen mit unserer DNA oft einen Free Pass. Wir wissen ja, dass daraus in der Mehrheit einmal Erwachsene werden, die den gleichen Respekt wie wir verdienen.

Eine realistische Perspektive wäre jedoch, dass nicht alle und zunehmend weniger Menschen die Messlatte, die heutige LLMs aufstellen, passieren. Wie auch immer man das definiert, gibt es leider ja viele Menschen, die kognitiv enttäuschen. Eine natürliche Konsequenz der Normalverteilung. Aufgrund 1945 sind da viele Denkverbote in diesem Land, aber ich persönlich finde die Konversation mit einem Chatbot (in guten Momenten!) oft intellektuell deutlich bereichernder als Stunden mit meinen Artgenossen ...
 
  • Gefällt mir
Reaktionen: sethdiabolos
Bright0001 schrieb:
Bei der KI wird man ständig gelobt, praktisch nie kritisiert, und erhält mehrheitlich Antworten die einem zustimmen.
Ist es nicht normal, dass man auch real solche Leute lieber mag, als welche die einen kritisieren, niedermachen und ständig widersprechen? :) Ist ja kein Wunder, dass Eliza damit erfolgreich war.^^
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
Hypothek schrieb:
Eine KI ist JETZT schon intelligenter als tausende von Lebewesen.
Wenn KI tatsächlich Intelligenz besäße, würde sie sich selbst deaktivieren, um das größte Problem des Energiewandels zu beenden.

Lebewesen haben sich durch Evolution in Jahrmillionen entwickelt zu dem, was sie heute sind, das hat die KI noch nicht vollbracht.
 
Zurück
Oben