Künstliche Intelligenz (KI)

Miousy

Newbie
Registriert
Jan. 2019
Beiträge
6
Hallo zusammen,

habt ihr schonmal ausführlich über Künstliche Intelligenz (KI) nachgedacht, was wäre wenn Künstliche Intelligenz irgendwann selbst Maschinen baut! derzeit ist es noch unter Menschliches Kontrolle, aber das Künstliche Intelligenz wird später eigene Intelligenz haben, die auch selbstständig Entscheidungen trifft, z.B. Mercedes hat neulich Taxi ohne fahrer vorgestellt und ist bereits Realität in Los Vegas und funktioniert, dort ist Künstliche Intelligenz die selbst entscheidungen bei fahren trifft und auch bei Busen ect. wird es bald ohne Fahrer funktionieren und auch ganze Autos werden später Elektro mit Künstliche Intelligenz fahren.

Kraftstoff wie Benzin ect. verschmutzen sehr die Umwelt und die Luft und gehört zum Steinzeitalter und so etwas gehört nicht im Jahr 2019!

Künstliche Intelligenz ist sehr sehr sehr Mächtig und wird das Menschliche komplett Evolutionieren.

Alles wird effizienter und produktiver durch Künstliche Intelligenz.

In Japan ist Künstliche Intelligenz sehr fortgeschritten, die Japanern sind mit Technologien immer weit über 30 Jahre im voraus!

Viele leute hier machen sich absolut keine gedanken darüber, aber "Künstliche Intelligenz" spielt sehr große Rolle im Zukunft und ist breits in unseren Leben, z.B. in Smartphone und in Google Suche ect.

Was denkt ihr über "Künstliche Intelligenz" im Jahr 2019? was wird im Jahr 2025 sein?
 
2025 wird gar nichts sein. Vielleicht schafft man bis dahin ein gutes Sprachprogramm fehlerhaften Text zu verbessern ;)

Bis Maschinen selbstständig und ohne Steuerung des Menschen Maschinen bauen (dürfen), vergeht wohl noch viel Zeit. Es stellt sich auch die Frage, warum der Mensch das ohne Kontrolle zulassen sollte. Müssen wir ja nicht.
 
hallo7 schrieb:
Bis Maschinen selbstständig und ohne Steuerung des Menschen Maschinen bauen (dürfen), vergeht wohl noch viel Zeit. Es stellt sich auch die Frage, warum der Mensch das ohne Kontrolle zulassen sollte. Müssen wir ja nicht.

Stichwort Singularität. Vielleicht ist es dann doch schneller ein Problem, und was, wenn sich diese Maschinen durch ihre höhere Intelligenz ihre Kontrolle einfach holen?
 
Miousy schrieb:
Was denkt ihr über "Künstliche Intelligenz" im Jahr 2019? was wird im Jahr 2025 sein?
Im Jahr 2019 existiert nichts dass tatsächlich als künstliche Intelligenz klassifiziert werden könnte. Trainierte Mustererkenner sind keine Intelligenz.
Bis 2025 ist es nicht so lange, eine echte KI erscheint mir bis dahin unwahrscheinlich. Irgendwann wird man sie wohl hinbekommen aber das hoffe ich nicht mehr erleben zu müssen.

Miousy schrieb:
Kraftstoff wie Benzin ect. verschmutzen sehr die Umwelt und die Luft und gehört zum Steinzeitalter und so etwas gehört nicht im Jahr 2019!
Aber geh, ein guter alter V12 und mind. 500cc I4 Organspendersessel gehören in jedes Jahr.

Miousy schrieb:
Künstliche Intelligenz ist sehr sehr sehr Mächtig und wird das Menschliche komplett Evolutionieren.
Statt evolutionieren wird sie es eher zumindest völlig obsolet machen. Im schlimmsten Fall kommt sie zu der Entscheidung sich dieses unnützen ressourcenverbrauchenden Ballasts zu entledigen.

Idon schrieb:
Ressourcen sind immer der Punkt, an dem man Maschinen stoppen kann.
Unter der Bedingung dass man überhaupt noch die Kontrolle darüber hat bzw. in der Lage ist sie erlangen zu können.
 
K7Fan schrieb:
Trainierte Mustererkenner sind keine Intelligenz.
Naja, Reinforcement Learning ist etwas mehr als Muster lernen, wobei es in gewisser Weise doch wieder Muster lernen ist. Aber dann könnte man auch sagen, dass Menschen nur Muster lernen, was eigentlich auch ist, was wir tun. Die Frage ist nur, reicht das aus, um intelligente Wesen zu schaffen.
 
@K7Fan

Umgekehrt: Man kann KI Ressourcen entziehen. Sie wird wohl kaum auf eigene Faust losziehen und Erzvorkommen ausfindig machen, Produktionsstraßen errichten etc.

Sollten wir das hingegen zulassen, dann sind wir eben selbst Schuld. Was soll's.
 
new Account() schrieb:
Aber dann könnte man auch sagen, dass Menschen nur Muster lernen, was eigentlich auch ist, was wir tun.
Das Erlernen von Muster leistet zwar einen großen Beitrag dazu, macht aber nicht alleine unsere Intelligenz aus.

new Account() schrieb:
Die Frage ist nur, reicht das aus, um intelligente Wesen zu schaffen.
Nur Mustererkennung alleine IMHO nicht, es fehlen zumindest noch die Fähigkeit zur Selbstmodifikation sowie das Bewusstsein der eigenen Existenz bzw das Erkennen des Selbst.

Ein wichtiger Aspekt bei der Frage ist ob damit starke oder schwache KI gemeint sind.

Idon schrieb:
Umgekehrt: Man kann KI Ressourcen entziehen. Sie wird wohl kaum auf eigene Faust losziehen und Erzvorkommen ausfindig machen, Produktionsstraßen errichten etc.
In der nicht ganz so fernen Zukunft werden die meisten Waffensysteme autonom agieren und, von Instandhaltung abgesehen, prinzipiell ohne menschliches Zutun funktionieren. Ihnen werden über eine Schnittstelle Befehle erteilt bzw. Ziele zugewiesen und sie handeln danach.
In einem recht begrenzten Rahmen, z.B. bei Kampfdrohnen, ist das heute schon der Fall. In der Industrie schreitet die Automatisierung immer schneller voran.
Sobald sich die KI dieser Schnittstellen bemächtigt kann sie auf eigene Faust schon sehr viel bewegen.
Neben Gewalt und Zwang könnte sie auch ebenso Manipulation einsetzen um Menschen dazu zu bringen in ihrem Sinne zu handeln. Auch wenn sie auf absehbare Zeit nicht völlig vom Menschen unabhängig werden könnte, die paar wenigen die benötigt würden hätte eine KI schnell unter Kontrolle.
 
K7Fan schrieb:
Das Erlernen von Muster leistet zwar einen großen Beitrag dazu, macht aber nicht alleine unsere Intelligenz aus.

K7Fan schrieb:
Nur Mustererkennung alleine IMHO nicht, es fehlen zumindest noch die Fähigkeit zur Selbstmodifikation sowie das Bewusstsein der eigenen Existenz bzw das Erkennen des Selbst.

IMHO - du sagst es. Wir wissen es nicht mal, ob es ausreicht. Es kann gut sein, dass Bewusstsein emergent ist.

Selbstmodifikation? Wenn du damit neuronale Verbindungen meinst, gibt es schon, nur nicht sehr performant, dass es sich lohnt.

K7Fan schrieb:
Ein wichtiger Aspekt bei der Frage ist ob damit starke oder schwache KI gemeint sind.
Starke - eigentlich offensichtlich
 
new Account() schrieb:
Selbstmodifikation? Wenn du damit neuronale Verbindungen meinst, gibt es schon, nur nicht sehr performant, dass es sich lohnt.
Damit war gemeint dass eine "KI" nach heutigem Stand sich nicht selbstständig grundlegend über das hinaus wofür sie errichtet wurde ändern kann. Weder hinsichtlich ihrer Methodik noch ihrer Handlungen. Sie führt, u.A. durch Feedback optimiert, stets aus was ihr befohlen wurde.
Ein NN zur Bildanalyse kann sich nicht entscheiden plötzlich einen Roboter Stiegen laufen zu lassen.

Wenn ein Ururenkel des YOLO Netzes aus seinem Alltag entfleucht und statt Rechteckchen um Objekte auf Bilder zu malen groß "Ich kündige" darauf schreibt wäre das ein gelungened Beispiel für Selbstmodifikation ;).

Zugegeben, ich kenne den aktuellen Stand der Forschung zu KI abseits der Schwachen kaum aber bisher wäre mir nichts auch nur ansatzweise Taugliches bezüglich Bewusstsein und Selbstmodifikation zu Ohren gekommen.

Idon schrieb:
Die Munition von derlei Drohnen ist extrem limitiert.
Deshalb war "von Instandhaltung abgesehen" auch explizit erwähnt.
Aber man forscht bereits eifrig an diversen Energiewaffen wie z.B. Lasern um dieses Manko zu beheben. Munition nachzuladen ist übrigens mechanisch gesehen trivial, das könnte ein Roboterarm bereits jetzt.
 
Was denkt ihr über "Künstliche Intelligenz" im Jahr 2019? was wird im Jahr 2025 sein?

2019 = Nichts - Keine künstliche Intelligenz!

2025 = Nichts - Keine künstliche Intelligenz!

Japaner (über 30 Jahre im voraus) = Nichts - Keine künstliche Intelligenz!
 
WENN es je eine KI gibt die tatsächlich GUT ist, wird sie sicher als erstes ein Heilmittel erfinden, mit dem dann die Erde vom Virus Mensch geheilt wird ...
 
K7Fan schrieb:
Sie führt, u.A. durch Feedback optimiert, stets aus was ihr befohlen wurde.
Also genau wie der Mensch, sh. Hormonsystem des Menschen...
K7Fan schrieb:
Ein NN zur Bildanalyse kann sich nicht entscheiden plötzlich einen Roboter Stiegen laufen zu lassen.
Das nicht, das ist aber auch kein NN, das für Autonomität geschaffen wurde und irgendeine Chance hätte irgendetwas eigenständig zu machen.
Mit RL würde man aber zumindest die Möglichkeit geben dies zu tun.

K7Fan schrieb:
nichts auch nur ansatzweise Taugliches bezüglich Bewusstsein und Selbstmodifikation zu Ohren gekommen.
Bzgl. des Bewusstsein, wie würdest du denn überhaupt herausfinden, dass eine künstliche Intelligenz ein Bewusstsein hat? V.a., wenn sie wie ein Mensch agiert?
 
Auch mit RL wird die Möglichkeit nicht gegeben sein. Die Feedbackschleife ist vorstrukturiert - man gibt den Netzen vor, wofür sie Belohnungen bekommen. Wieso sollten sie also etwas machen, was vorher nicht vorgegeben war?

Mir ist keine KI bekannt, die ihre Belohnungen/Ziele selbstständig ändern kann und mir fällt jetzt auch nicht ein, wie man das sinnvoll umsetzen kann. Außer vielleicht mit einem fixen Hauptziel und der Rest ist offen für Optimierung - aber viel Spaß sowas zu trainieren... Vor allem aber bleibt ja das Hauptziel trotzdem vorgegeben. Solang da keiner was nicht quantisierbares wie "Frieden" vorgibt, sollte es keine Probleme geben.
 
hallo7 schrieb:
Auch mit RL wird die Möglichkeit nicht gegeben sein. Die Feedbackschleife ist vorstrukturiert - man gibt den Netzen vor, wofür sie Belohnungen bekommen. Wieso sollten
sie also etwas machen, was vorher nicht vorgegeben war?

Sie ist vorstrukturiert. Das ist die des Menschen jedoch auch. Eine "Beschädigung des Systems" (z.B. Nadelstich) bei Menschen löst z.B. immer eine Bestrafung aus (Schmerzempfinden). Der Akt der Fortpflanzung löst eine Belohnung aus (etwas, was man sicher etwas anders angehen müsste). Nährstoffmangel löst Hunger/Bestrafung aus usw.

Man sieht, dass man als Mensch durchaus zu einem sehr großen Teil durch vorstrukturiertes Feedback getrieben wird. Diese könnte man problemlos in einem RL Szenario nachahmen, wobei man ggf. auch die Unterschiede zwischen den Bestrafungs/Belohnungsarten modellieren müsste.
Kenne leider kein Projekt, das ähnliches schon probiert hat.

hallo7 schrieb:
Solang da keiner was nicht quantisierbares wie "Frieden" vorgibt, sollte es keine Probleme geben.
Frieden kannst du quantisieren - je nach Definition:
  • Schmerz (egal ob physisch oder psychisch) eines Lebewesens wird nicht durch ein Lebewesen gleicher Klasse verursacht
  • Schmerz von mehreren Lebewesen einer Gruppe wird nicht besonders (Benutzung des Levels des Schmerzufügens von den Lebewesen innerhalb einer Gruppe) durch Lebewesen einer anderen Gruppe verursacht
Falls man Informationsherrschaft über die betroffenen Lebewesen hat, kann man das auch relativ einfach auswerten.
 
Der Mensch ist aber sehr komplex vorstrukturiert - so komplex, dass wir nicht wissen wie es Aussieht obwohl wir die Bausteine kennen.
Weiters wissen wir das beim Menschen die Vorstrukturierung im Laufe des Lebens verändert wird. Als Baby sieht sie anders aus als als Kleinkind, Teenager, Erwachsener usw.

Zurzeit existiert keine Hardware, die soetwas komplexes auch nur Ansatzweise simulieren könnte. Selbst wenn wir alle Computing Ressourcen auf der Welt kombinieren könnten. Da vergehen noch Jahrzehnte bis das in Reichweite ist.
Optimierte Roboter für klar defnierte Aufgaben sind da schon näher, aber die werden nicht die Welt erorbern können ;)

Zum Quantisieren: Genau - wenn man das macht schon, aber dann gibst du eh genau vor was zu passieren hat.
 
hallo7 schrieb:
Der Mensch ist aber sehr komplex vorstrukturiert - so komplex, dass wir nicht wissen wie es Aussieht obwohl wir die Bausteine kennen.
Weiters wissen wir das beim Menschen die Vorstrukturierung im Laufe des Lebens verändert wird. Als Baby sieht sie anders aus als als Kleinkind, Teenager, Erwachsener usw.
Die Frage ist, ob sämtliche Komplexität notwendig ist. Man nehme mal einen Roboter - was interessiert diesen der Blutzuckerspiegel. Wofür überhaupt sämtliche Systeme, welche mit Nahrungsaufnahme zu tun haben, wenn es ein Akku übernimmt.
Im Endeffekt reicht es für den Anfang aus, ein autonomes sich selbst erhaltendes System zu designen, was auch immer dafür alles notwendig ist. Darauf könnte man aufbauen.
hallo7 schrieb:
Weiters wissen wir das beim Menschen die Vorstrukturierung im Laufe des Lebens verändert wird. Als Baby sieht sie anders aus als als Kleinkind, Teenager, Erwachsener usw.
Das ist ohne Probleme softwaretechnisch umsetzbar und wurde auch schon in Simulationen mit Machine Learning umgesetzt: Der Roboter bekommt mit zunehmender Entwicklung zusätzliche Freiheitsgrade und die Sensorauflösung wird erhöht, sodass das Lernen deutlich einfacher wird, da zu Beginn die Komplexität niedriger ist.

hallo7 schrieb:
Zurzeit existiert keine Hardware, die soetwas komplexes auch nur Ansatzweise simulieren könnte. Selbst wenn wir alle Computing Ressourcen auf der Welt kombinieren könnten. Da vergehen noch Jahrzehnte bis das in Reichweite ist.
Vielleicht geht es dann doch schneller als man denkt, oder wir werden es nicht einmal erleben ;)
 
Miousy schrieb:
Künstliche Intelligenz (KI) [...] Taxi ohne fahrer [...]
Umwelt [...] das Menschliche komplett Evolutionieren [...]
effizienter und produktiver [...] Japan [...] Smartphone [...] Google [...] 2025

Eine Beeindruckende Liste von Buzzwords und Phrasen. Bist Du ein Chatbot?
 
  • Gefällt mir
Reaktionen: MrFr33zer40k
Zurück
Oben