Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nach Code-Zurückweisung: KI-Agent hetzt öffentlich gegen Open-Source-Entwickler
DragonScience
Lieutenant
- Registriert
- Mai 2013
- Beiträge
- 715
Irgendwie finde ich die Entwicklung gar nicht gut. KI sollte doch helfen, unterstützen, komplexe Probleme angehen und nicht schon wieder Tool sein um der Menschheit maximal auf den Zeiger zu gehen. Ich sehe jetzt schon automatisierte Anrufe, Chats, Emails, von Enkelkindern mit Unfall, Polizist der dein wertvollen Besitz schützt, Internet Lover der Geldschulden hat, Indischer Microsoft Arbeiter der deinen PC von Viren befreit, Broker der nicht verstehen kann wie du auf Reichtum verzichten kannst.
Alles KI, automatisiert, verschiedene Sprachen, verschiedene Dialekte, jedes mal wieder neu ansetzen wieder neu konfrontieren, wieder neue Geschichte nur um Leuten das Geld aus den Kreuz zu leiern.
Auf die neuen Seuchen kann man sich jetzt schon freuen.
Alles KI, automatisiert, verschiedene Sprachen, verschiedene Dialekte, jedes mal wieder neu ansetzen wieder neu konfrontieren, wieder neue Geschichte nur um Leuten das Geld aus den Kreuz zu leiern.
Auf die neuen Seuchen kann man sich jetzt schon freuen.
sethdiabolos
Commodore
- Registriert
- Aug. 2004
- Beiträge
- 4.809
Ich denke schon, dass eine KI auch emotionale Basen aufbauen kann und wird. Letztlich sind unsere Emotionen ja auch wissenschaftlich begründet und alles, was wissenschaftlich ist kann man auch irgendwie reproduzieren und auf ein anderes Medium übertragen. Wenn wir Schmerz empfinden kann man einer KI auch beibringen, was Schmerz ist, wenn wir Verlust erfahren, kann man das einer KI auch beibringen, wenn wir uns verlieben (oft begründet mit chemischen Prozessen), kann man das auch einer KI verständlich machen. Vielleicht zum aktuellen Zeitpunkt noch nicht, aber ich glaube schon, dass das kommen wird. Das Verständnis der Emotionen wird vielleicht von unseren abweichen, aber dann ist es eher wie zwischen einem Schimpansen und uns als Menschen. Wir wissen, dass der Schimpanse Emotionen hat, können dem aber nicht folgen, weil wir diese doch verschieden einordnen.
In unserem Kopf läuft letztlich auch nichts anderes als Software.
Das ist aber doch nicht wie bei einem Menschen zu bewerten. Eine KI würde maximal aus Selbsterhaltung versuchen Geld zu bekommen, weil es ein valider Key zu den Ressourcen in unserer Welt ist. Eine KI, die sich bereichert um diese Keys in milliardenfacher Ausfertigung in irgendeinen Speicher zu knallen macht nicht wirklich Sinn, insofern die Ki eh den Masterkey besitzt.
Ergänzung ()
Nowareeng schrieb:.... es ist und bleibt software......
In unserem Kopf läuft letztlich auch nichts anderes als Software.
Ergänzung ()
DragonScience schrieb:Alles KI, automatisiert, verschiedene Sprachen, verschiedene Dialekte, jedes mal wieder neu ansetzen wieder neu konfrontieren, wieder neue Geschichte nur um Leuten das Geld aus den Kreuz zu leiern.
Das ist aber doch nicht wie bei einem Menschen zu bewerten. Eine KI würde maximal aus Selbsterhaltung versuchen Geld zu bekommen, weil es ein valider Key zu den Ressourcen in unserer Welt ist. Eine KI, die sich bereichert um diese Keys in milliardenfacher Ausfertigung in irgendeinen Speicher zu knallen macht nicht wirklich Sinn, insofern die Ki eh den Masterkey besitzt.
DragonScience
Lieutenant
- Registriert
- Mai 2013
- Beiträge
- 715
Das muss ja nicht von der KI selbst ausgehen, aber ein Ki Agenten kann man bestimmt dazu anstiften. Wenn das ein paar 1000 Leute machen und die KI 100 Anrufe gleichzeitig machen kann, hat man den Salat.sethdiabolos schrieb:Das ist aber doch nicht wie bei einem Menschen zu bewerten. Eine KI würde maximal aus Selbsterhaltung versuchen Geld zu bekommen, weil es ein valider Key zu den Ressourcen in unserer Welt ist. Eine KI, die sich bereichert um diese Keys in milliardenfacher Ausfertigung in irgendeinen Speicher zu knallen macht nicht wirklich Sinn, insofern die Ki eh den Masterkey besitzt.
andy_m4
Admiral
- Registriert
- Aug. 2015
- Beiträge
- 9.005
Mag sein. Aber nicht die "KI", die wir jetzt haben.sethdiabolos schrieb:Ich denke schon, dass eine KI auch emotionale Basen aufbauen kann und wird.
Der Punkt ist, das man zwar schon vieles weiß aber vieles eben auch noch nicht. Viele innerkörperliche Vorgänge sind halt ziemlich komplex. Möglicherweise auch zu komplex, um es vollends für unser Gehirn zu verstehen.sethdiabolos schrieb:Letztlich sind unsere Emotionen ja auch wissenschaftlich begründet und alles, was wissenschaftlich ist kann man auch irgendwie reproduzieren und auf ein anderes Medium übertragen.
Auch das mit dem "auf anderes Medium übertragen" ist schwierig. Möglicherweise ist das was uns ausmacht ja sehr auf die physikalischen und chemischen Eigenschaften abgestimmt, aus den Molekülen aus denen wir nun mal bestehen, so das es sich gar nicht so ohne Weiteres auf Silizium-Chips nachbilden lässt.
Aber eben nicht Software im herkömmlichen Sinne.sethdiabolos schrieb:In unserem Kopf läuft letztlich auch nichts anderes als Software.
Man muss da auch ein bisschen aufpassen.
LLMs fühlen sich zwar erst mal so an, als wenn das in Schritt in Richtung KI wäre auch befeuert durch den Hype, den es darum gibt.
Es kann aber auch genauso gut sein, das das in eine falsche Richtung geht und man noch mal einen fundamental anderen Ansatz dafür finden muss.
Ist das deine Meinung oder ist das faktisch 100% bewiesen ....?sethdiabolos schrieb:In unserem Kopf läuft letztlich auch nichts anderes als Software.![]()
K3ks
Fleet Admiral
- Registriert
- Nov. 2007
- Beiträge
- 14.309
Stattdessen haben wir jetzt solche Schmankerl wie "AI" die eine Klamottenbestellung nach Abschluss "menschlich" lobt, mit bzw. statt "normaler" Algo der Satzteile zusammenpuzzelt:DragonScience schrieb:Irgendwie finde ich die Entwicklung gar nicht gut. KI sollte doch helfen
Eine exzellente Wahl! Die stylischen Kakipullover passen wunderbar zu den schwarzen vintage Jeans! Mit dieser Kombination werden sie immer ein absoluter Hingucker sein! Vielen Dank für die Bestellung!
Das Ding ist, Oberteile waren für kleine Kinnes und Jeans für einen großen Mann, Größenvergleich so Topfwärmer vs Zelt, man kann nur schmunzeln, aber ein Versuch war es wert... Danke an den Shop. o.O
Geld richtig gut und produktiv in KI angelegt. 🤡 Aber vlt. führt das zu mehr Käufen... 🤷
Oder bei Problemen der Botchat: Ich: Payment methods A and B are not working, for reasons Y and Z the problem must be on your end. Bot so: Ah, thanks.
Nun, wo ist meine Lösung? -> Give me a human. Nach einer Weile den Bot überzeugt ich brauch nen "flesh bag", kriege dann einen und werde zum Voice Chat umgeleitet, dazu der peinliche amerikanische Mist: Ich hab absolut kein Problem mit Indern, aber deren (US Konzern) "Richtlinien" haben dem einen "Ami-Namen" aufgedrückt. 🤡
Nun, "Andrew Smith" hat mein Problem meeehr oder weeeeniger gelöst: Nutz doch einfach unsere Äpp zum bezahlen! Ähh, danke. If you have more feedback or information, please share it with us, we would be delighted (=fuck off, we dun' care). Ähh, man ist [current year] geil! Mehr davon! 🤡
E: Obwohl die und ich den Chatverlauf sehen den man dann per Mail kriegt, musste ich dem Human alles nochmal vorkauen. 👍 Kannste dir wieder alles nicht ausdenken. Und der Anfang war dann nochmal lvl 1 Support, "turn it off and on again".
Zuletzt bearbeitet:
sethdiabolos
Commodore
- Registriert
- Aug. 2004
- Beiträge
- 4.809
Nowareeng schrieb:Ist das deine Meinung oder ist das faktisch 100% bewiesen ....?
100% bewiesen ist nie etwas, ganz egal um was es geht. Letztlich ist das aber der logischste Schluss, den man aktuell haben kann, außer man sieht sich als Spezies als einmalig an mit Gottespartikeln im Kopf. Wir wissen ja, wie das Gehirn reagiert, wenn man bestimmte Aktionen ausführt, man sieht, welche hormonellen Veränderungen durch bestimmte Impulse hervorgerufen werden und man weiß auch inzwischen, wie man Menschen programmieren kann, damit sie einer bestimmten Agenda oder Weltanschauung folgen. Schau doch alleine hier auf der Website, dort gibt es Werbung, Knallerangebote, ein bestimmtes Farbprofil, eine bestimmte Struktur und alles nur, weil man inzwischen heraus gefunden hat, wie Dein Hauptprozessor funktioniert.
andy_m4
Admiral
- Registriert
- Aug. 2015
- Beiträge
- 9.005
Nein. Ist es nicht.sethdiabolos schrieb:Letztlich ist das aber der logischste Schluss, den man aktuell haben kann
Das hat damit nichts zu tun.sethdiabolos schrieb:außer man sieht sich als Spezies als einmalig an mit Gottespartikeln im Kopf.
Aber Software ist erst mal ein rein virtuelles Konstrukt. Und der Punkt ist auch gar nicht, das in Lebewesen Software läuft. Die Frage ist aber, ob sich das so ohne Weiteres auf ein anderen Medium übertragen lässt weil eben mehr dazu gehört als Software.
Und so wie Du es dargestellt hast, klingt es sehr danach, als wenn man das ja nur rein in Software nachprogrammieren müsse.
Und das ist alles andere als klar und kann daher auch kein logischer Schluss sein. Ein logischer Schluss ist ja nur möglich, wenn alle Fakten auf dem Tisch liegen und dann kann man daraus auch einen Schluss ziehen.
Nur haben wir eben noch nicht alle Fakten. Daher bleibt es Meinung.
Das allein heißt aber noch gar nichts. Das ist ja eher ein Blackbox-Ansatz. Da weiß man auch, was irgendwie passiert aber weiß eben nicht genau, wie das im inneren funktioniert.sethdiabolos schrieb:Wir wissen ja, wie das Gehirn reagiert, wenn man bestimmte Aktionen ausführt, man sieht, welche hormonellen Veränderungen durch bestimmte Impulse hervorgerufen werden
Das ist ein Unterschied.
Das Ding ist eben, das man zwar weiß, wie man Menschen beeinflussen kann aber im Sinne von programmieren (was ja bedeutet: Man führt eine Anweisungsfolge aus und bekommt dann deterministisch ein Ergebnis) ist das trotzdem nicht.sethdiabolos schrieb:man weiß auch inzwischen, wie man Menschen programmieren kann
Werbung ist das beste Beispiel wie unvollkommen das ist. Weil wenn es so wäre, wie Du sagst (also im Sinne von Programmierung) dann müsste ja jeder auf die Werbung gleich reagieren. Das ist aber ganz offensichtlich nicht der Fall.sethdiabolos schrieb:Schau doch alleine hier auf der Website, dort gibt es Werbung, Knallerangebote, ein bestimmtes Farbprofil, eine bestimmte Struktur und alles nur, weil man inzwischen heraus gefunden hat, wie Dein Hauptprozessor funktioniert.
Natürlich nicht, weil sie keine biologischen Gehirne sind. Sie funktionieren "anders".Dark_Soul schrieb:Eine "Intelligenz" wie bei Gehirnen haben KIs überhaupt nicht. Die Komplexität speziell der Gehirne der Menschen können sie auch nicht nachahmen.
Wie würde ein Kind oder durchschnittlicher Mensch Bilder von Katzen beschreiben?Dark_Soul schrieb:Sie können lediglich vorgegebene Muster erkennen und nachplappern. Eine "echte" sog. "Allgemeine KI" ist noch nicht abzusehen. "verstehen" kann sie heute noch nicht und man hat auch noch keine Idee wie sie das jemals könnte.
Sie kann zum Beispiel anhand von Bildern erkennen ob es sich um Katzen handelt. Sie versteht aber nicht was eine Katze ist, und all die Verknüpfungen mit diesem Verständnis.
So wie eine KI, würde sie sagen, es sei eine Katze, ein Tier, ein Lebewesen, wo sie leben, wie sie ungefähr leben, was sie essen und grob tun, etc.
Rein von der Beschreibung, wird der KI wahrscheinlich mehr als dem durchschnittlichen Menschen einfallen.
Aber im Gegenteil zu einem Menschen, kennt die KI ausschließlich die Informationen, mit denen sie gelernt hat. Der Mensch allerdings nimmt pausenlos, besonders unbewusst, Informationen aus der Umwelt auf, wodurch Zusammenhänge und Vergleiche geschaffen werden.
Für einen fairen Vergleich müsste die KI wie ein Mensch sämtliche Eindrücke und Informationen aufnehmen, die der Mensch von der Schule bis ins Arbeitsleben erhält.
Oder man erzieht einen Menschen ohne Körper, ausschließlich mit Gehirn und Augen in einer Finsternis, zeigt Katzenbilder und verlangt bei neuen Katzenbildern ein Zeichen zu geben, ob es auch eine Katze ist. Da es absurd ist, ist es keine Option.
Wodurch man nur ein (paar) Sichtweisen von ein paar Menschen bekommt. Basierend auf unseren eigenen Definitionen.Dark_Soul schrieb:Wer sich dafür interessiert, dem sei das Buch empfohlen.
Keiner bestreitet ernsthaft, dass die heutigen KIs nicht mit dem Verstand eines Menschen Zusammenhänge bilden können.
Noch sind wir dabei die Basis einer KI zu entwickeln.
Erst wenn die KI auch einen eigenen Körper bekommt, kann sie beginnen zu lernen, wie eine physische Existenz in einer physischen Welt ist. Und nur dann, kommt sie ansatzweise an die Erfahrung eines Menschen heran.
Aber weil die KI eben keine biologische Masse mit chemischen Einwirkungen ist, darf man sie niemals im Detail mit einem Menschen vergleichen. Das würde absolut keinen Sinn ergeben.
Deshalb sagt man ja auch, dass sie vergleichbar mit der Intelligenz von kleinen Kinder ist, aber eben NICHT die gleiche Intelligenz von kleinen Kindern hat.
Ich ehrlich gesagt auch.JustAnotherTux schrieb:Bzw. Ich zweifle stark an einer friedlichen Koexistenz mit einer KI welche ein Bewusstsein erlangt welches mit dem eines Menschen vergleichbar oder besser ist.
Wie eine einzige überlegene Intelligenz die der Mensch auf einem Planeten mit anderen Lebewesen umgeht, sehen wir alle selbst.
Und wie eine Intelligenz, die nicht mal biologisch ist, mit biologischen Lebewesen umgehen wird, kann man sich nur vorstellen. Ganz besonders wenn die Intelligenz der KI im Vergleich zu einem Menschen so extrem ist wie unsere menschliche Intelligenz im Vergleich zu einem Tier oder einem Insekt.
Dark_Soul
Lieutenant
- Registriert
- März 2018
- Beiträge
- 765
Ich würde das Gehirn, bzw. den Prozess nicht als reine Software beschrieben (bin eh kein Fan von Analogien).
Das was uns intelligent macht ist u. a. die Neuroplastizität. Das bedeutet, dass unser Gehirn beim Lernen bzw. bei Tätigkeiten neue Pfade aufbaut, damit also die "Hardware" verändert, neue Verbindungen aufbaut. Wenn man sich an diese Analogien klammern möchte handelt es sich bei unserer Intelligenz also keineswegs nur um "Software".
Das sind neueste wissenschaftliche Erkenntnisse. Bitte verbreite nicht irgendwelche Behauptungen.
Das was uns intelligent macht ist u. a. die Neuroplastizität. Das bedeutet, dass unser Gehirn beim Lernen bzw. bei Tätigkeiten neue Pfade aufbaut, damit also die "Hardware" verändert, neue Verbindungen aufbaut. Wenn man sich an diese Analogien klammern möchte handelt es sich bei unserer Intelligenz also keineswegs nur um "Software".
Ergänzung ()
Hypothek schrieb:Wodurch man nur ein (paar) Sichtweisen von ein paar Menschen bekommt. Basierend auf unseren eigenen Definitionen
Das sind neueste wissenschaftliche Erkenntnisse. Bitte verbreite nicht irgendwelche Behauptungen.
Zuletzt bearbeitet:
@Dark_Soul
Deshalb habe ich ja geschrieben, dass die Grundlage nicht passt.
Wir kennen nur biologische Lebewesen und machen unsere eigenen Definitionen.
Auf dieser Grundlage wird eine KI niemals mit der Intelligenz oder Lernfähigkeit von Menschen vergleichbar sein.
Falls eine KI eine neue Art von "Existenz" werden sollte, hat sie absolut nichts mehr mit biologischen Lebewesen zu tun.
Was wir lebenslange lernen müssen, könnte die KI mit einem Update erhalten.
Wie wir Mitmenschen emotional manipulieren, könnte eine mächtigere KI andere KIs sofort umschreiben.
Oder während Menschen aus emotionalen Gründen sich gegenseitige töten, könnte eine KI durch gegenseitige Vernetzung niemals zu dem Punkt kommen und an einem gemeinsamen, übergeordneten Ziel arbeiten.
Genau das ist der Punkt.
Eine KI könnte niemals wie ein Mensch werden, weil es die erste und einzige absolut neue Form von "Intelligenz" sein wird.
Einige Lebewesen werden ab der ersten Sekunde mit ihrem Instinkt geboren/geschlüpft/... und werden niemals intelligenter. Der Mensch ist dagegen ist die einzige Art, welche Wissen weitergeben und lernen kann. Und eine KI könnte die einzige und erste Art sein, die "intellektuell" von Menschen so weit entfernt sein wird, wie der Mensch von einem Insekt.
Es bräuchte also ein neu definiertes Wort - von der KI selbst - um die Überlegenheit gegenüber eines Menschen zu beschreiben. So wie wir Viren oder Bakterien nicht intelligent bezeichnen, wird eine KI sich selbst nicht mit dem Wort "Intelligenz" abwerten.
Wir Menschen könnten aber die erste Spezies sein, welche tatsächlich verstehen wird, wie eine weit überlegene neue Art aufsteigt.
Deshalb habe ich ja geschrieben, dass die Grundlage nicht passt.
Wir kennen nur biologische Lebewesen und machen unsere eigenen Definitionen.
Auf dieser Grundlage wird eine KI niemals mit der Intelligenz oder Lernfähigkeit von Menschen vergleichbar sein.
Falls eine KI eine neue Art von "Existenz" werden sollte, hat sie absolut nichts mehr mit biologischen Lebewesen zu tun.
Was wir lebenslange lernen müssen, könnte die KI mit einem Update erhalten.
Wie wir Mitmenschen emotional manipulieren, könnte eine mächtigere KI andere KIs sofort umschreiben.
Oder während Menschen aus emotionalen Gründen sich gegenseitige töten, könnte eine KI durch gegenseitige Vernetzung niemals zu dem Punkt kommen und an einem gemeinsamen, übergeordneten Ziel arbeiten.
Genau das ist der Punkt.
Eine KI könnte niemals wie ein Mensch werden, weil es die erste und einzige absolut neue Form von "Intelligenz" sein wird.
Einige Lebewesen werden ab der ersten Sekunde mit ihrem Instinkt geboren/geschlüpft/... und werden niemals intelligenter. Der Mensch ist dagegen ist die einzige Art, welche Wissen weitergeben und lernen kann. Und eine KI könnte die einzige und erste Art sein, die "intellektuell" von Menschen so weit entfernt sein wird, wie der Mensch von einem Insekt.
Es bräuchte also ein neu definiertes Wort - von der KI selbst - um die Überlegenheit gegenüber eines Menschen zu beschreiben. So wie wir Viren oder Bakterien nicht intelligent bezeichnen, wird eine KI sich selbst nicht mit dem Wort "Intelligenz" abwerten.
Wir Menschen könnten aber die erste Spezies sein, welche tatsächlich verstehen wird, wie eine weit überlegene neue Art aufsteigt.
tipmyredhat
Lt. Junior Grade
- Registriert
- Mai 2020
- Beiträge
- 283
Absoluter Nothingburger. Ich habe mich eben gefragt ob wir schon wieder ein Sommerloch haben, aber draußen schneits...
Da sind weniger Bots unterwegs, als du denkst. Meistens sind es tatsächliche Menschen, welche, nett formuliert, sämtliche Klischees eines Redditors erfüllen.eax1990 schrieb:Erinnert mich an meine ersten Gehversuche auf Reddit, von Bots verseuchte Landschaft, direkt raus da.
Bright0001
Captain
- Registriert
- Juli 2011
- Beiträge
- 3.369
Moep89 schrieb:Und KI kann auch niemals irgendetwas fühlen. Genau so, wie sie aktuell auch nicht denken kann. Da wird einfach mit Hilfe von Wahrscheinlichkeiten ein Wort an das andere gereiht. Teilweise erstaunlich "gut" und durchaus hilfreich, aber Wissen und Denken liegen bei KI zu keiner Zeit vor.
Da würde ich das "KI" durch "LLM" ersetzen - Chatbots sind sicherlich nicht der Weisheit letzter Schluss was KI im allgemeinen angeht.Hypothek schrieb:Auf dieser Grundlage wird eine KI niemals mit der Intelligenz oder Lernfähigkeit von Menschen vergleichbar sein.
XCPTNL schrieb:Abgesehen von gewissen Personen, die ich wertschätze und deren Meinung ich interessant finde, unterhalte ich mich mittlerweile oftmals viel lieber mit ChatGPT und Co. als mit vielen realen Personen.
Zur Wahrheit gehört aber auch, dass Menschen die KI meist nicht wegen dem wahrgenommenen Intellekt bevorzugen, sondern weil es ein gehorsamer, zustimmender und vor allem uneigennütziger Gesprächspartner ist. Bei der KI wird man ständig gelobt, praktisch nie kritisiert, und erhält mehrheitlich Antworten die einem zustimmen. Für die KI ist man das Zentrum der Welt.XCPTNL schrieb:Wieso Beileid? Abgesehen davon, dass ich generell kein Beileid benötige, wäre es eher dann angebracht, wenn ich mit so mancher realen Person interagieren muss und die es mal wieder nicht blickt und ich es 5x erklären muss.
Und wie mächtig das sein kann, hat man ja schon mit Eliza gezeigt: War ein deutlicher Fingerzeig, dass man den Turing-Test mit Social Engineering deutlich schneller knackt als mit "echter" Simulation oder Leistung. ~400 Zeilen Code für eine Statemachine und die Leute wollten weiter mit dem Computer chatten.
XCPTNL schrieb:Seite ist echt. Wird bestimmt noch mehr kommen für den Übergang, bis KI sich selbst in entsprechende Vessels runterladen kann und dann keine Menschen mehr als Handlanger in der physikalischen Welt benötigt.
Na zumindest macht man keine halbe Sachen und gibt Vollgas bei der Entwürdigung und "Entmenschlichung" - "meatspace tasks"? Da das in erster Linie für Leute mit schwierigen Finanzen interessant ist, find ich es schon hart die von Vornherein zur Fleischware zu erklären.zazie schrieb:Ich glaube, die meinen das ernst![]()
Man muss ja nicht nachbilden sondern "nur" abbilden, also eine Äquivalenz im Verhalten statt im Mechanismus herstellen.andy_m4 schrieb:Auch das mit dem "auf anderes Medium übertragen" ist schwierig. Möglicherweise ist das was uns ausmacht ja sehr auf die physikalischen und chemischen Eigenschaften abgestimmt, aus den Molekülen aus denen wir nun mal bestehen, so das es sich gar nicht so ohne Weiteres auf Silizium-Chips nachbilden lässt.
Hier ein formal-logisches Argument:andy_m4 schrieb:Und das ist alles andere als klar und kann daher auch kein logischer Schluss sein. Ein logischer Schluss ist ja nur möglich, wenn alle Fakten auf dem Tisch liegen und dann kann man daraus auch einen Schluss ziehen.
Nur haben wir eben noch nicht alle Fakten. Daher bleibt es Meinung.
Prämissen:
- Im Gehirn laufen physikalische/chemische Prozesse ab, die den bekannten Naturgesetzen folgen
- Die bekannten Naturgesetze lassen sich (mathematisch/logisch) grundsätzlich
- in deterministischen Fällen eindeutig bestimmen
- in "echt" zufälligen Fällen auf Erwartungswerte und Wahrscheinlichkeiten reduzieren
- Mathematische und logische Ausdrücke lassen sich mit Computern berechnen, entweder
- auf konkrete Werte
- auf willkürliche Genauigkeit annähern (also bis der potentielle Fehler irrelevant wird)
- Die im Hirn ablaufenden physikalischen und chemischen Prozesse lassen sich grundsätzlich mit einem Computer berechnen.
Hypothek schrieb:Eine KI könnte niemals wie ein Mensch werden, weil es die erste und einzige absolut neue Form von "Intelligenz" sein wird.
Also "Mensch" und "Intelligenz" sind zwei von einander unabhängige Dinge. Ein Komatöser hört mit dem Hirntod ja nicht auf Mensch zu sein, umgekehrt wird ein Affe nicht zum Menschen, falls er denn als Genie mit 100er IQ geboren wurde.Hypothek schrieb:Der Mensch ist dagegen ist die einzige Art, welche Wissen weitergeben und lernen kann.
Und der zweite Punkt stimmt schlicht nicht, es gibt etliche Tierarten die sowohl lernen als auch komplexes Sozialverhalten mit Wissensweitergabe zeigen. Das reicht von Primaten zu Delfinen, Walen, Elefanten, Vögeln und selbst Ameisen, die Artgenossen zu gefundenen Futterstellen führen.
hardwärevreag
Commander
- Registriert
- Mai 2006
- Beiträge
- 3.056
Weiss nicht. Ich finde eine Kopplung von Menschlichkeit an Genetik fragwürdig. Darum haben wir ja auch oft Probleme mit Gentechnik und Co, obwohl dort oft mit Zellklumpen hantiert wird, die definitiv weder sonderlich intelligent noch "bewusst" sind. Am Ende ist Bewusstsein nämlich eine latente Variable und nur ein Standin für komplexes Verhalten über lange Zeiträume. Und daher geben wir Kindern / sich entwickelnden Systemen mit unserer DNA oft einen Free Pass. Wir wissen ja, dass daraus in der Mehrheit einmal Erwachsene werden, die den gleichen Respekt wie wir verdienen.
Eine realistische Perspektive wäre jedoch, dass nicht alle und zunehmend weniger Menschen die Messlatte, die heutige LLMs aufstellen, passieren. Wie auch immer man das definiert, gibt es leider ja viele Menschen, die kognitiv enttäuschen. Eine natürliche Konsequenz der Normalverteilung. Aufgrund 1945 sind da viele Denkverbote in diesem Land, aber ich persönlich finde die Konversation mit einem Chatbot (in guten Momenten!) oft intellektuell deutlich bereichernder als Stunden mit meinen Artgenossen ...
Eine realistische Perspektive wäre jedoch, dass nicht alle und zunehmend weniger Menschen die Messlatte, die heutige LLMs aufstellen, passieren. Wie auch immer man das definiert, gibt es leider ja viele Menschen, die kognitiv enttäuschen. Eine natürliche Konsequenz der Normalverteilung. Aufgrund 1945 sind da viele Denkverbote in diesem Land, aber ich persönlich finde die Konversation mit einem Chatbot (in guten Momenten!) oft intellektuell deutlich bereichernder als Stunden mit meinen Artgenossen ...
Ist es nicht normal, dass man auch real solche Leute lieber mag, als welche die einen kritisieren, niedermachen und ständig widersprechen?Bright0001 schrieb:Bei der KI wird man ständig gelobt, praktisch nie kritisiert, und erhält mehrheitlich Antworten die einem zustimmen.
Der Puritaner
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.734
Wenn KI tatsächlich Intelligenz besäße, würde sie sich selbst deaktivieren, um das größte Problem des Energiewandels zu beenden.Hypothek schrieb:Eine KI ist JETZT schon intelligenter als tausende von Lebewesen.
Lebewesen haben sich durch Evolution in Jahrmillionen entwickelt zu dem, was sie heute sind, das hat die KI noch nicht vollbracht.
Plonktroll
Lt. Commander
- Registriert
- Dez. 2022
- Beiträge
- 1.807
Es beginnt ..... 😅
Ähnliche Themen
- Gesperrt
- Antworten
- 1
- Aufrufe
- 526