News Emotient-Übernahme: Apple kauft Start-Up für künstliche Intelligenz

@mcasd
Und dennoch wäre es keine künstliche Intelligenz selbst mit guten Algorithmen, denn Intelligenz setzt abstraktes denken und zweckmäßiges handeln voraus und Algorithmen können keins von beiden.
Und ein Computer mit dem menschlichen Gehirn zu Vergleichen ist falsch, ein Computer besitzt zwar seit einiger Zeit mehr Leistung als das Gehirn aber ein Gehirn funktioniert nicht nur mit 1&0 sondern aus hochkomplexen chemischen und elektrischen Vorgängen deren Ergebnisse nicht nur auf 1&0 hinauslaufen! Selbst die Gehirnforscher wissen zwar welche Region im Gehirn für welche Funktionen verantwortlich sind wissen aber noch lange nicht wie es genau funktioniert!
 
Corros1on schrieb:
Naja künstliche Intelligenz ist das nicht, nicht mal im Ansatz, weil letztendlich macht das Programm genau das wofür es programmiert wurde.

Das ist Quark, denn man spricht ja explizit nur dann von Machine Learning oder Artificial Intelligence, wenn man eben keine statischen Algorithmen mehr zur Problemlösung vorgeben, also programmieren, muss.

Es sei denn deine Argumentation zielte auf eine Meta-Ebene ab, dass man ja die selbstlernenden Systeme innerhalb bestimmter Parameter betreibt. Würde ich aber ebenso "recht quarkig" finden, denn das würde stark in die Philosophie abdriften...es gibt ja beispielsweise auch viele Menschen die größtenteils nur nach dem Prinzip Essen, Arbeiten, Schlafen funktionieren. Hier würde man sich also sehr schnell dabei wiederfinden, wie genau man die Parameter definiert, innerhalb derer man Intelligenz eines Systems vermutet.



Corros1on schrieb:
Erst wenn das Programm anfängt fragen zu stellen, den Sinn seines Daseins hinterfragt, sich selbst umschreibt für Aufgaben, rational handelt oder ein Bewusstsein mit Persönlichkeit besitzt sprich mehr zu sein scheint alles 0&1 dann könnte man sich über künstliche Intelligenz unterhalten alles andere ist nur eine Illusion von Intelligenz die auf wenn dann Funktionen aufgebaut ist.

Das ist falsch. Was du meinst ist die Erschaffung einer starken künstlichen Intelligenz, siehe z.B. Wikipedia. Rationalität sowie ein Bewusstsein, eine Erfahrungsebene und eben das bewusste Erleben von Erfahrungen sind die Kennzeichen einer starken KI. Dies definiert aber keinesfalls Intelligenz per se, denn dann müsstest du stark Behinderten Menschen, den meisten Tieren, usw. usf. auch die Intelligenz aberkennen.

Künstliche Intelligenz beschäftigt sich erstmal nur mit Disziplinen, in denen Problemlösungsstrategien überhaupt irgendeine Form von Intelligenz benötigen (und deshalb nicht oder nur sehr schwer mit statischen Algorithmen zu lösen sind).



Mercsen schrieb:
Danke! Ständig wird von künstlicher Intelligenz gesprochen, der Begriff wird so inflationär benutzt das man selbst bei einer T9 tatstur von KI sprechen kann, aber klar, ist der bessere aufreißer.

Das ist Quark, siehe oben ;)

T9 ist eben genau so etwas wofür ein statischer Algorithmus vollkommen reicht, in dieser Domäne von Problemen ist keine Form von Intelligenz zur Problemlösung nötig.



Mercsen schrieb:
Was die machen hat nicht im Ansatz was mit Intelligenz zu tun, sondern mit Muster Erkennung, ein ganz normales Gebiet der Informatik. Das ist ja nicht mal simulierte / virtuelle Intelligenz sondern einfach ein Programm das Daten aufnimmt und mit (zugegeben sicherlich hoch optimierten und cleveren) Algorithmen analysiert.

Darüber lässt sich sicherlich streiten. Aktuelle Forschung im Bereich der Neurologie der letzten Jahre hat ja gezeigt, dass ein menschliches neuronales Netz in unserem Gehirn auch nichts anderes tut, als Stimuli zu verarbeiten. Natürlich ist die milliardenfache Vernetzung, vor allem aufgrund der starken Transitivität von den Dendriten und die verschiedenen Signale in verschiedenen Abstufungen, die bereits durch ein einzelnes Axon "gesendet" werden können, unendlich viel komplexer als aktuelle künstliche neuronale Netze...das ändert aber nicht viel daran, dass man mit der aktuellen KI-Entwicklung schon relativ gut auf der Spur des Ganzen ist. Man benötigt nur eben noch zwei, drei, vier Jahrzehnte technische Entwicklung für ausreichende Ressourcen und theoretische Entwicklung für das Verständnis komplexer Netzsysteme.



Mercsen schrieb:
Auch neuronale netzte oder maschienelles Lernen hat nichts mit KI zu tun, ich finde hier müsste wirklich mal klarer differenziert werden.

Quark siehe oben. Das ist genau ein großer Teil des Forschungsgebiets für (schwache) KI.


Mercsen schrieb:
Selbst Programme die intelligent wirken weil sie menschliche Sprache verstehen, auswerten und in ganzen Sätzen Antworten sind nichts weiter als die Simulation von Intelligenz um dem Menschen ein natürlicheres Interface zu bieten.

Das stimmt, aber warum möchtest du dem ganzen seine (schwache) Intelligenz aberkennen? Intelligente Systeme tun Derartiges immerhin selbstständig. Es wird auch nicht mehr all zu lange dauern, bis man Systeme hat die perfekt den Turing-Test absolvieren. Manch einer sagt 5 Jahre, andere gehen von 10 aus (zumindest die Doktoren, mit denen ich mich unterhalte), aber alle sind sich einig, dass es eben in einem sehr überschaubaren Zeitrahmen passieren wird.



Mercsen schrieb:
Naja zum Thema:
Irgendwie ist das schon eine gruselige Vorstellung das mir der Computer bald aufmunternde Worte sagt wenn er sieht das es mir schlecht geht :D
Auch wenn es einfach nur ein konsequenter Schritt zu besagtem Interface ist .

Findest du? Finde ich ehrlich gesagt nicht. Bei einer schwachen KI würde es mich nicht stören, denn dort steckt ja kein Bewusstsein und damit keine übergeordneten Ziele dahinter. Es wäre also einfach hilfreich, nicht bedrohlich o.Ä. (weil es das gar nicht sein kann, per Definition).

Bei einer starken KI könnte man sich theoretisch gesehen gruseln - etwas derart intelligentes und eigenständiges...

Andererseits betrachte ich das eher (& viel lieber!) mit Neugier anstatt Argwohn! Immerhin ist das dann die größte Leistung, die der Mensch bis dato erzielt hat. Die Erschaffung einer künstlichen Lebensform, die alle bisherigen auch noch übertrifft.
Die Kirchenjungs wirds sicher gruseln und einen Aufschrei geben...aber wen interessieren die schon? Ohne die wären wir sicherlich schon 100 Jahre weiter in so ziemlich allem. Irgendwann ist auch mal gut mit rückwärtsorientiertem Gedankengut.

Sicherlich mag man natürlich argumentieren, dass meine Betrachungsweise darauf gefärbt ist, da ich selbst an einer Universität in den Bereichen Robotik & KI verwurzelt bin...aber ich würde denke ich selbst eher von einer speziellen Betrachtungsweise reden, die mir das ganze ermöglicht.

Natürlich kann Neues, besonders wenn man es nicht versteht, bedrohlich wirken (und verstehen können es natürlich die wenigsten, da steckt ja schon einiges recht komplizierter Mathematik dahinter^^)...aber bis zur starken KI schlummert in den Systemen selbst keinerlei Gefahr, höchstens in den Anwendern respektive den Anwendungsgebieten.
Und selbst bei der starken KI ist die Gefahr nicht größer, als in jedem Kind, das man erzieht. Letztendlich wird nämlich aufgrund der Erfahrungs- und Bewusstseinsebene bei einer derartigen künstlichen Entität ihre Handlungsmaxime davon abhängen, welche Aktionsmöglichkeiten man ihr gibt und was man ihr beibringt, wie man mit ihr umgeht.
 
Zuletzt bearbeitet:
ascer schrieb:
...
Und selbst bei der starken KI ist die Gefahr nicht größer, als in jedem Kind, das man erzieht. Letztendlich wird nämlich aufgrund der Erfahrungs- und Bewusstseinsebene bei einer derartigen künstlichen Entität ihre Handlungsmaxime davon abhängen, welche Aktionsmöglichkeiten man ihr gibt und was man ihr beibringt, wie man mit ihr umgeht.

So wird das "Arbeitnehmer"-Konstrukt hergestellt, dem ich gottseidank keinen Nachwuchs liefere.
 
@overflow: worauf möchtest du da explizit anspielen?
 
Zurück
Oben