Wann wird die KI freigelassen?

@ThomasK_7

Tensorflow ist keine KI, ebensowenig wie eine Tesla-Fabrik eben kein PKW ist. Da ist ein deutlicher Zusammenhang, aber es ist sicher nicht das selbe. Deshalb war auch der Vergleich mit dem Motor genau falsch herum.

ThomasK_7 schrieb:
1. Welche Funktion darin wäre denn gut exemplarisch für eine höhere KI?
Die Frage ist ein wenig so, wie die welches Neuron den ein Intelligentes Gehirn ausmacht, oder auf der anderen Seite welche Funktion den ein komplexes Programm ausmacht. Am ende lässt sich alles auf Einzen und Nullen und damit If-Abfragen runter brechen.
ThomasK_7 schrieb:
2. Modelliert denn nicht der Mensch die KI in TensorFlow?
Der Mensch baut darin ein Programm und in der Regel als Bestandteil darin ein oder mehere Neuronale Netzwerke. Diese werden mit Gewichtungen versehen um Eingangsparameter (Tensoren eine mathematische Struktur die eine Verallgemeinerung von Matrizen darstellt) zu modellieren und damit eine oder mehrere Zielfunktionen für das Netzwerk oder deren Verkettung zu generieren.
Um Konflikfrei zu sein müssen sich Zielfunktionen am Ende vereinheitlichen lassen zumindest je Netzwerk. Es gibt aber viele Konstrukte in denen ein Agent/Netzwerk die Zielfunktion für ein anderes zu erzeugen und dabei im Trainingsprozess auch weiter anpassen.
ThomasK_7 schrieb:
3. Ist TensorFlow in der Lage, Neues hervorzubringen? Falls ja, wie?
Dazu hatte ich das Beispiel der GAN's geliefert. Die kann man auch mit Tersorflow bauen. Die erzeugen ja zum Beispiel Bilder oder eben Geschichten und auch ganze Computerspiele. Google feiert ja gerade angeblich, das deren KI so gut Programmiert wie der durchschnittliche menschliche Entwickler.
Wie groß da das Prüfspektrum ist und welche Metriken herangezogen wurden habe ich aber noch nicht recherchiert, so das ich mir kein Urteil erlaube ob das ein Meilenstein oder reiner Hype ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BeBur
CCIBS schrieb:
Wird hier jetzt über künstlicher Intelligenz, oder einem künstlichen Bewusstsein diskutiert?

Gute Frage.
Wirklich interessant wird es ja eigentlich erst bei Typ IV KIs
Systeme, die ein eigenes Bewusstsein entwickeln.

Und davon sind wir noch Lichtjahre entfernt - hoffe ich.
Dann wäre wohl der Mensch auch Geschichte.
 
ThomasK_7 schrieb:
1. Welche Funktion darin wäre denn gut exemplarisch für eine höhere KI?
2. Modelliert denn nicht der Mensch die KI in TensorFlow?
3. Ist TensorFlow in der Lage, Neues hervorzubringen? Falls ja, wie?
Zu 1.: Das ist im Prinzip die wesentliche Frage. Gar keine, meiner Meinung nach. Auch keine Kombination davon.
Das was du verlinkst ist aber das, was KI für den Forscher in erster Linie ist. Programmieren, Handwerk, Wissen um die Theorie, ausprobieren und halt ganz viel benutzen von tf und anderen Bibliotheken. Das ist weit weniger zauberhaft als sich das viele offenbar vorstellen. Die Ergebnisse sind dann in manchen Bereichen herausragend, aber das ändert nichts am Wesen der Sache.

Zu 2.: Teils ja. Keylan hat ja schon gutes dazu geschrieben. Der Forscher gibt im Prinzip die Struktur des Netzes vor. Er gibt auch vor, mit welchen Daten die KI lernen soll (aka trainiert wird). Das Lernen ist im Prinzip eine Fehlerminimierung im klassischen, aber deutlich komplexeren Sinne (siehe Lineare Regression für das Grundprinzip. LR ist natürlich vergleichsweise sehr simpel).
Aber: Das Ergebnis nach dem Training, das ist zwar theoretisch statistisch/mathematisch Erklärbar und vollständig deterministisch, aber so kompliziert, dass es für uns nicht mehr vollständig nachvollziehbar ist, wegen welchen Trainingsdaten die KI jetzt da an der einen Stelle eine Person oder einen Topf erkannt hat. Stichwort Explainable KI. Deswegen werden solche Netze oft nicht oder höchstens ergänzend in stark regulierten Bereichen, z.B. Finanzsektor, eingesetzt, weil du keine Rechenschaft darüber ablegen kannst, wann genau die KI nun 1 oder 0 ausspucken wird.

Bei sehr vielen KIs ist die Lernphase übrigens vollständig abgetrennt von der "Performance-Phase" (aka Inferenz). Es gibt keine kontinuierliche Selbstkorrektur wie in der Trainingsphase. So eine Feedback-Schleife ist allerdings u.a. das, was dazu führt, dass die GAN Netze so erfolgreich sind. Aber auch bei GANs wird (afaik) so eine Feedback-Schleife nur beim Training verwendet, wenn das Training zuende ist, dann ist die KI fertig gebaut und sie lernt nichts mehr dazu. Die KI kann das auch nicht selber entscheiden. Das sind schlichte Funktionsaufrufe KI.lerne_aus(ganz_viele_Daten) und KI.gibt_mir_ergebnis(einzelnes_Bild).
Von daher finde ich persönlich es irgendwie urig, wenn Menschen denken, da wäre irgendwie Bewusstsein involviert.

Zu 3.: Das ist mMn die falsche Frage, schon seit 30 Jahren können Algorithmen und KI 'neues' hervorbringen. Wie aber schon gesagt ist heutige KI sehr sehr gut darin geworden, Neues zu generieren und es ist nur noch schwerlich unterscheidbar von den 'Vorbildern' der KI (= Trainingsdaten). Siehe z.B. hier wie eine KI Portraits generiert (es handelt sich umgenerierte Bilder von nicht existenten Personen). Du kannst neu laden für ein neues Foto.

Keylan schrieb:
Google feiert ja gerade angeblich, das deren KI so gut Programmiert wie der durchschnittliche menschliche Entwickler.
Das würde ich nicht überbewerten, das ist so ähnlich wie Googles Quantencomputer-Berechnung die letztes Jahr durch die Medien ging. Sie nehmen ein für ihre Lösung extrem gut passendes Problem her, das lässt sich aber nicht verallgemeinern.
 
Zuletzt bearbeitet:
Das mit dem KI-Bild generieren aus Deinem link ist ja mal cool!
 
Naja, das aktuelle Netzwerke und damit eben auch GAN's irgendwann nicht mehr trainiert werden ist aktuell eher ein Ressourcen Thema. Die Rechenkapazität und der damit verbundene Energieaufwand beim Training ist Immens verglichen mit der Effizienz von biologischen Gehirnen.
Für mich ist das einer der Kernaspekte weshalb mich eine sehr Zeitnahe Entstehung einer KI mit komplexen Kognitiven Fähigkeiten die in das vage Schema eines Bewusstseins passen nicht um den Schlaf bringt.

Die anderen Einwände finde ich meist schwierig, da wir einfach nicht wissen welcher Schritt fehlt um eine KI dazu zu befähigen sich selbst zu verbessern und in kürzester Zeit zur AGI zu werden.
Aber die Energie die zur Bilderkennung gebraucht wird im Vergleich zu den wenigen mg Gucklose die im Zwischenhirn dafür benötigt werden. Da musste die Selbstoptimierung halt auch auf der Hardwareseite sehr schnell gehen um nicht den Strom ganzer Nationen für wenige Überlegungen und Planungen zu verbrauchen.

Das was KI heute kann ist an vielen stellen am besten mit Heuristiken wie wir sie bei Pflanzen und einfachen Tieren, oftmals ohne zentrales Nervensystem kennen.
Andererseits mach sich auch unser Gehirn haufenweise Heuristiken zu nutze, und die sind genauso Fehleranfällig wie von @fgordon für die KI bemängelt.
Wir sehen ja auch in jedem zweiten Muster Augen und Gesichter und müssen dann mit den höheren kognitiven Funktionen nachbessern.
Aber unsere Intelligenz als Standard zu setzen um überhaupt von Intelligenz zu sprechen ist halt gar nicht zielführend. Jeder erkennt das sein Hund eine gewisse Intelligenz hat, oder die Krähe. Warum sollten frühe Stadien von KI nicht auch erst mal nur begrenzt Probleme lösen können und sich nicht gleich mit jedem erdenklichen Thema Beschäftigen können.

Und zu den GAN's hatte ich nie von Bewusstsein gesprochen, sondern von einer Art zu Verstehen. Und die ist auch sehr limitiert, aber ein GAN erzeugt nicht ein Bild, sondern wie gesagt einen latent space (die Übersetzung in latenz Raum ist schwierig) also eine ganze Menge von Bildern. Nach dem Lernen sind das alle möglichen Ausgaben und ab da ist das System deterministisch.
Aber um jetzt ein Bild zur Ausgabe zu wählen übergebe ich dem System einen Vektor der eben mit dem Bild im latent space korreliert. Und da finde ich es schon faszinierend, dass z. B. bei Bildern von Menschen eine Richtung im Vektorraum den Unterschied zwischen männlichen und weiblichen Bildern ausmacht. Und eine Andere die Haarfarbe. Und wenn ich von einem Vektor/Bild mit einem Mann in Richtung eines Rothaarigen gehe, und dann in Richtung weiblich komme ich eben bei einer Rothaarigen Frau raus.
Diese für uns bedeutungsvollen Kategorien ergeben sich beim Training ganz alleine. Das ist noch kein Sinnieren über deren Bedeutung und keine Inferenz, dass in einer physischen Welt mit größer auch schwerer korreliert. Aber als niedrige Stufe kognitiver Fähigkeiten finde ich das schon bemerkenswert.
 
  • Gefällt mir
Reaktionen: BeBur
Allerdings siehe Adversarial Attack Beispiel(e) kein Menschen würde links sicher den Papagei erkennen und rechts sicher sein das ist ein Bücherregal.

Schon dass er links sagt das ist ein Papagei und rechts der gleiche Mensch dann rechts sagt uh weiss ich nicht irgendein Tier wäre nicht denkbar.

Diese nicht vorhersagbare mögliche extreme Abweichung des Ergebnisses von KI Systemen bei zu 99,99999999% identischen Eingangsparamtern ist nunmal ein ganz grundsätzliches Problem.
 
Woher kommt die Erwartungshaltung, das eine KI nur Fehler machen würde die ein Mensch auch machen würde?
Oder das Intelligenz etwas damit zu tun hätte gar keine Fehler zu machen?

Ich finde es immer faszinierend wie viel Anthropomorphismus von vielen eingebracht wird um bestimmte Verhaltensweisen als nicht Intelligenz oder nicht Bewusst oder was auch immer zu klassifizieren. Und dann auf der anderen Seite wird erwartet, das die Limitationen und Schwächen unserer eigenen Intelligenz doch überwunden werden müssen.

Bilderkennung ist nun wirklich 100% Heuristik, sowohl bei der KI als auch bei jedem bekannten biologischem Beispiel. Das sind die einfachsten neuronalen Netzwerke die wir Tatsächlich noch recht gut Nachvollziehen können.
Dabei erreichen wir mit Machinelearning Verlässlichkeitswerte die die Prüfung durch einen einzelnen Menschen in den Schatten stellen. Wie kann das nicht genug sein um zu zeigen das wir niedrige kognitive Fähigkeiten bereits gut in KI entwickeln können? Was ist daran das Problem?
 
natürlich.
ohne antriphomorphismen gehts ned. wie denn auch.

"der mensch" als metaperson schafft alles im bezug auf sich.
schließlich soll eine technik was für uns tun.
bleiben wir bilderkennung.
das fängt ja ned bei null an. denn wir füttern das mit dem, was wir als bild sehen, besser gesagt das, was wir mit unserem bewussten denken "sprachlich" davon ausformulieren können.
denn da ist um einiges mehr, als formuliert werden kann, schließlich steckt da die history unserer eigenen entwicklung drin.
wir können zum beispiel von der bilderkennung licht im rotbereich analysieren lassen. wellenlänge von-bis, von mir aus unscharf, aber dies ist noch lange nicht alles, was wir mit dem wort "rot" meinen.

wir können uns gegenseitig unterhalten und über rot sprechen. jedoch sind sich die sprecher nur einig, daß sie beide rot dazu sagen, strenggenommen weiss aber keiner, wie der andere das wahrnimmt.

und diese grenze der möglichkeit der beschreibung ist es auch, die das fundamental trennt.
und was man ned definitiv beschreiben kann, kann man auch ned in seiner gesamtheit algorytmisieren.

aber ich denke, dieses fließende und wechselhafte umgehenkönnen mit unschärfe spielt eine große rolle, in dem, was wir intelligent bezeichnen.
und sehr wahrscheinlich kauft man sich dadurch aber auch die möglichkeit, sich zu irren ein, oder anders:
schaffen wir es, eine wirklich intelligente maschine zu bauen, dann teilt diese mit uns die eigenschaft, sich irren zu können.
was bedeutet: auch punkto erkenntnis gibts keinen laplaschen dämon.
man wird es verbessern können, keine frage.
aber ich vermute, es ist ähnlich wie in der wettervorhersage: mit immer größerem aufwand und immer mehr zahlen wird der fehler zwar kleiner, aber in immer geringeren häppchen bei immer höherem aufwand.
 
Ob man anhand eines Bildes das grundsätzliche Prolem zeigt oder anhand von irgendwas anderem ist egal - denn es ist für den Computer das gleiche - auch ein Bild ist nur eine x,y Matrix aus Integerwerten oder vielleicht aus Floatwerten - es gib keine "Bilder" sondern immer nur ausschliesslich - eine n-dimensionale Matrix egal um welches Problem es sich handelt - aus Zahlen in der die KI Muster bildet.

KIs sind zwar vielleicht im Durchschnitt besser als Menschen nur das reicht einfach nicht - ein wirklich verlässliches System muss vor allem eines bieten, nicht nur im Durchschnitt besser sein sondern eine möglichst geringe Abweichung im Fehlerfall, egal wie selten der ist - das ist entscheidend.

Verlässlichkeit von Systemen heisst vor allem eine möglichst garantierte minimale Abweichung im Fehlerfall.

Ob man ein Kind für eine Erwachsenen hält - sich also innerhalb eines engen Rahmens irrt das ist meist egal - aber ob man ein Kind auch mal - wenn auch in sehr seltenen Fällen - für ein Waschbecken hält, weil es ein rote Mütze aufhat, das halt nicht. Und letzteres ist einfach das Problem der KIs es gibt immer Punkte, in denen das Ergebnis extremst abweicht bei einem praktisch identischen Eingsangwert - auch wenn diese selten sind sie sind da und nicht vorhersagbar - und das KI System selber hat meist trotzdem die gleiche Sicherheit das Ergebnis ist richtig.
 
Zuletzt bearbeitet von einem Moderator:
Keylan schrieb:
Dabei erreichen wir mit Machinelearning Verlässlichkeitswerte die die Prüfung durch einen einzelnen Menschen in den Schatten stellen. Wie kann das nicht genug sein um zu zeigen das wir niedrige kognitive Fähigkeiten bereits gut in KI entwickeln können? Was ist daran das Problem?
Man muss denke ich aufpassen, dass man sich da nicht sprachliche Probleme begibt. Wenn du die Erkennung von Dingen auf Bildern (zu recht vermutlich) als eine kognitive Fähigkeit ansiehst, dann ja, dann können Computer das heute, konnten das aber in etwas schlechter auch schon vor 20 Jahren. Ich denke man würde dann auch noch mehr solcher Fähigkeiten finden, die man Computern vor 20 Jahren schon einpflanzen konnte. Ich finde z.B. auch das Erinnern oder das Wissen als ein Beispiel einer kognitiven Fähigkeit im Internet.
Das ist dann aber alles keine Intelligenz im engeren bzw. im interessanten Sinne.
 
Nun aber es werden ja keine Dinge erkannt auf Bildern - es werden nur mögliche Muster in Zahlenreihen erkannt - das ist ein ganz wesentlicher Unterschied. Der KI fehlt natürlich die Unterscheidung dass ein Bild eine graphische Darstellung ist und nicht z.B. die Messwerte einer Heizungsanlage. Es ist ALLES immer nur eine Matrix aus x,y,Farbwert,Kontrastwert, etc oder aus x Schadstoffkonzentration, y Schadstoffkonzentration, Zeitwert, Temperatur etc. - es gibt da überhaupt keinen Unterschied.

Alles ist immer ausschliesslich ein Matrix aus Zahlen - ohne dass das um was es sich handelt eine Rolle spielt oder irgendeinen Einfluss hat.

Und das ist halt das, was KI Systeme problematisch macht was Zuverlässigkeit angeht - sie haben keinerlei Bezug zu der Ebene darüber - also was stellt die Eingangsmatrix dar - das muss dann der Mensch gegebenfalls "hardcoden".

Ob das Ergebnis der KI Mustererkennung dann 99,9999% richtig ist oder Lichtjahre daneben liegt, das kann halt vom KI System nicht verifziert werden, dazu braucht man in der Regel die nächsthöhere Ebene man muss wissen was die Matrix, die verarbeitet wird, repäsentiert. Diese nächsthöhere Abstraktionsebene ist wohl auch nie erreichbar.
 
Zuletzt bearbeitet von einem Moderator:
eben. nicht nur, daß die maschine ned weiss, was sie tut, sonden sie weiss auch ned, daß sie überhaupt was tut.

nur glaube ich nicht, daß das, was wir geist nennen, ohne ein bewusstsein funktionieren kann.
ich glaube, bei allen fortschritten technischer natur: im wesentlichen gibt es für das bewusstsein ned einmal einen ansatz. eben "the hard problem".

wie denn auch, akademia löst das problem des bewusstseins nicht und hat auch keinen ansatz dafür.
kann ja auch nicht.
nicht mit den gegebenen erkenntnistheoretischen vorgaben, daß in der natur auf unterster ebene letztlich alles nur aufgrund von "random collisions" passiert.

wir bauen heute sehr komplexe maschinen, die ohne die erkenntnisse quantenmechanischer natur schlicht nicht möglich wären, doch gleicht die quantenmechanik einem rezeptbuch, dessen rezepte funktionieren, aber niemand weiss, warum sie funktionieren.
 
nun, technische lösungen werden wir verbessern, technische probleme werden wir lösen.
keine frage. denn darin sind wir extrem gut. und waren wir immer schon.

die wand, vor der wir stehen, ist eine erkenntnistheoretische.
was sich selbst in den wissenschaften niederschlägt.
die beiden "größten" theorien, relativität und quantenmechanik, entziehen sich sein ~einem jahrhundert der vereinbarkeit und sind in ihrer derzeitigen formulierung im grunde unvereinbar, und das hartnäckig.
und alle lösungsversuche sind hoch abstrakt und basieren rein auf mathematik. die ihrerseits aber ein werkzeug ist, und keine naturwissenschaft.
und daraus resultieren unklarheiten, so zum beispiel beim oft gebrauchten wort "dimension".
aber was meint wer damit?
ist das gemeint, in dessen richtung man zeigen kann, oder ist es nur anderer ausdruck für einen freiheitsgrad in einer mathematik?

es ist reichlich abstrakt, unser weldbild.
trotzdem wackeln dinge wie das standardmodell im kleinen und die kosmologie im großen recht wahrnehmlich.
zu viele überraschungen, zu viele anomalien, zu unprediktiv.

die frage ist, ob diese erkenntnistheoretische wand grundsätzlich bezwingar ist, oder ob wir diesbezüglich unsere grenzen zumindest in sichtweite haben.

ich neige dazu, kein prinzipielles ende der fahnenstange zu sehen, aber ich glaube, sowas kann über lange zeit stagnieren.
denn die geschichte ist voll von meist eher kurzer zeiten extremer veränderung und mitunter fortschritt, aber eben getrennt durch mitunter sehr langer zeit erkenntnistheoretischer stagnation.
 
  • Gefällt mir
Reaktionen: BeBur
judgment_day.png

Judgement Day
 
Ich fürchte fast, das geht leider nicht :D.
Ich finde die Frage aber durchaus interessant, würde eine KI das wohl machen (falls es ginge, hypothetisch). Schnell ist man ja dabei, den eigenen Standpunkt auf eine externe Entität zu projezieren. Die einen sagen, eine KI würde schlicht alle Menschen killen oder die Hälfte killen oder alle Atomwaffen vernichten... was davon ist aber wirklich "logisch"? Sicherlich alles davon, je nachdem, aus welcher Perspektive man es betrachtet und wie man die Schwerpunkte setzt. Schon Menschen sind hier ja unterschiedlich, aber aus irgendeinem Grund unterstellen wir, es gäbe es eine einzelne korrekte Handlung, die logisch aus "der Wahrheit" ableitbar ist. Das ist aber stark zu bezweifeln. Aber wofür würde sich eine KI 'entscheiden'? Wir 'entscheiden' uns ja auch nicht im engeren Sinne, was wir für richtig halten. Das könnte auch für eine KI gelten, je nachdem, wie sie geprägt wird. ImHo Bewusstsein setzt eine funktionale Dynamik zwischen Kontinuität und Veränderung voraus (ohne Kontinuität z.B. gar kein Ich-Empfinden, es muss ja etwas gegen, das ich als "ich", also etwas fixes wahrnehme), von daher könnte auch für eine KI gelten, dass eine frühe Prägung bzw. früher gemachte Werturteile darüber entscheiden, ob sie uns alle vernichtet uns gemeinsam mit uns leben wird und Harmonie anstrebt.
 
Ich persönlich fand und finde "künstliche Intelligenz" schon immer ein hochinteressantes Thema.

Vor allem, weil
A Der Begriff der "Intelligenz" nicht definiert ist
B Wir (Menschen) nicht in der Lage sind, Dinge ab einem gewissen Punkt selbst zu verstehen.

Da gabs mal so eine schlaue Person, die meinte, man könne immer nur die Dinge verstehen, die innerhalb des eigenen Ereignishorizontes lägen. So könne man als Mensch weder Ultraviolett verstehen noch die vierte (oder höhere) Dimension... und halt genausowenig Intelligenz oder Bewusstsein, sei es von Menschen selber oder von irgendetwas anderem.

Wir verstehen ja nicht mal Wale oder Delphine oder Wölfe oder, heck, Bienen.

Deswegen sehe ich an der Stelle tatsächlich uneingeschränkte Hybris. Wir spielen mit Dingen rum, die wir nicht verstehen, und wundern uns dann, wenn diese nicht tun, was wir erwartet hatten.

Haben Maschinen (im weiteren Sinne) bereits ein Bewusstsein? Wie will ich das einschätzen, ohne "Bewußtsein" definieren zu können?
Wir sind alle auf dem "Vegan" Trip, aber hat jemand die Pflanze gefragt, ob sie gefressen werden will?

Die KI steckt weiterhin in Kinderschuhen, soviel steht sicherlich fest. Die Frage, die aber aufzuwerfen ist: wo steht sie in Relation zum Menschen? Und da wird es schon unschärfer. Wenn die KI in Kinderschuhen steckt, dann müssen wir uns tatsächlich die Frage gefallen lassen, ob Menschen (als Ganzes) überhaupt wissen, was Schuhe sind, nevermind ob wir welche tragen.
 
Vielleicht mal wissenschaftliche Literatur/Artikel lesen statt Anime schauen? ;)

Eigentlich ist alles nach Satz 1 in Deinem Posting falsch/überholt.
 
  • Gefällt mir
Reaktionen: BeBur
Zurück
Oben