News IBM entwickelt „denkende“ Computerchips

Nichts neues würde ich meinen. Jedenfalls nicht viel. Ein neuronales Netzwerk wurde eben in Hardware gegossen, statt es in Software zu emulieren. Technisch keine große Herausforderung. Viel schwieriger ist es ein derart großes NN zu trainieren, damit es auch was sinnvolles tut.
 
addicT* schrieb:
Weil sie Terminatoren haben wollen! :D

BTT: "Denkende" Chips wären für einen "aktiven" Virenschutz doch was tolles. Also wenn sie selbst lernen könnten, welche Codes schädlich sein können und diese dann automatisch blockieren.

Wenn der Chip dann merkt, dass das eigentliche Problem vor dem Computer sitzt, ist fertig mit lustig :freak:
 
Skynet im Anflug :)

Und nach der Frauenquote kommt die Androiden-Quote.

"Neuroynaptischen" fehlt übrigens ein "s"
Ergänzung ()

unique28 schrieb:
Wenn der Chip dann merkt, dass das eigentliche Problem vor dem Computer sitzt, ist fertig mit lustig :freak:

Ihr Antivirus-Programm blockiert ihnen den Zugang. Bitte auf Brain 2.0 aktualisieren.
 
riDDi schrieb:
Nichts neues würde ich meinen. Jedenfalls nicht viel. Ein neuronales Netzwerk wurde eben in Hardware gegossen, statt es in Software zu emulieren. Technisch keine große Herausforderung. Viel schwieriger ist es ein derart großes NN zu trainieren, damit es auch was sinnvolles tut.
So sieht's aus.
Das ist hier höchstens eine effizientere Plattform für KI-Programme, aber mit "denkenden" Chips hat das nichts zu tun.
 
wer überwacht die Systeme? Skynet 0.01a ist geboren :P
 
Erstaunlich was hier für ein Müll geschrieben wird. Und morgen könnten die Reaper kommen und uns killen, oder das Universum beschließt unserer Existenz ein Ende zu bereiten und bricht in sich zusammen. Oh nein, halt; vieleicht zerstört sich auch die Menschheit einfach selbst, bedingt durch die Erfindung künstlicher Lebensformen oder sonstwas bla bla bla...

Entspannt euch, trinkt ´n Kaffee, werft notfalls ein wenig Aspirin ein, aber verschont alle klar denkenden Menschen mit diesem Unfug. Fernsehen macht offenbar doch dumm...
Bei dem Artikel geht es nicht um Weltuntergangsszenarien sondern um Technik; ist sicher niemandem aufgefallen oder? Ist ja schlimmer als die "Atomdebatte".
 
Leute, ihr irrt glaube ich, was den Chip angeht. Der Chip ist lernfähig. Und nur das zählt! Erinnert sich noch jemand an den Film "Small Soldiers"? Alter Kinderfilm, indem ein paar verrückte "Spielzeugverkäufer"(mehr oder weniger *g*) einen "Militärchip", den X-1000 (der zufällig auch lernfähig ist) in ein einfaches Spielzeug packten. Die Spielzeuge konnten einfache Befehle wie "Reden", oder "Laufen" oder auch "Ton aufnehmen" durchführen. Ein Spielzeug dass aber letzendlich zur tödlichen Waffe gegen die Einwohner einer bestimmten Gegend wurde ;) Ende vom Lied: Chips wurden durch EMP ausgeschaltet (das ist wohl auch immer die einfachste Möglichkeit, so einem Chip den Garaus zu machen) und der Schaden war enorm und mit etlichen Schecks eines bestimmten, nicht gerade erfreuten Chefs ging dieser dann dazu über (Schlussätze im Film), diesen Chip zukünftig dem Militär anzubieten für bessere Kampfroboter :)

Und was lernen wir daraus? Nicht die Geschindigkeit eines Chips ist entscheidend. Sondern, wie intelligent und dadurch gefährlich nahe dem menschlichen Gehirn er dadurch werden kann. Wenn ein Chip sich aber selständig weiterentwickeln kann (und das steht klar im Artikel, LESEN!), eigene Aufgaben lösen kann, ja sogar selbständig und mit immer wieder unterschiedlichem Ergebnis "Ping-Pong" spielen kann. Ja dann ist der Zeitpunkt gekommen wo man sagen muss - STOPP! Bis hierhin und nicht weiter.

Erinnert sich noch jemand an die Szene in "Terminator" wo der eine Wissenschafler da eben genau so einen Chip entworfen hat? Genau an diesem Punkt stehen wir jetzt.

Was glaubt ihr passiert, wenn davon erstmal sagen wir 10000 Stück gebaut werden und diese einfachen, aber lernfähigen Chips erstmal die "Roboterwelt" auf den Kopf gestellt haben? Dann könnte es gefährlich für uns werden. Ich schrieb in einem anderen Forum schon, dass die erste Sache, die solch ein Chip tun wird, die sein wird - er wird die Entscheidungen des Menschen hinterfragen. Er wird alles kontrollieren wollen.

Und wisst ihr eigentlich was der größte Fehler/Macke des Menschen ist? Genau - dass er Fehler macht! Und das nicht wenige. Und solch ein Chip ist eben genau in dieser Lage, dass er irgendwann perfekt ist, dass er keine Fehler mehr macht, dass er aus seinen Fehlern eben lernt. Genau das zeichnet einen lernfähigen Chip aus. Wird dieser Chip erstmal in "Groß" hergestellt, also mit etlichen Millionen oder Hunderttausenden Synapsen und dazu noch ein eigener Chip als Speicher - dann könnte alles auf dieser Welt zukünftig ernsthafte Probleme bekommen.

Diesen Chip würd ich jetzt mit dem T1 von Terminator vergleichen. Ein einfacher, aber relativ effektiver Tötungsroboter, sobald er erstmal da eingepflanzt wurde. Er ist noch nicht perfekt und macht sicherlich noch den ein oder anderen "Gehfehler", aber irgendwann ist er schlau genug und mutiert eben zum "T3" - und was dann? Noch ist das alles Zukunftsmusik, aber ihr müsst mal die News durchblättern. Schon in 10 Jahren wird der Mensch erste, echte Künstliche Gehirne am FLIEßBAND produzieren. Das kam neulich in einer Zeitung. Die DARPA und das Pentagon haben das gesagt.
 
"Sich selbst ständig neu verdraten" - Das ist genau das, was das Gehirn der meisten Biologischen Lebensformen tut. Sollte ein entsprechender Chip die Komplexität des Menschlichen Gehirns erreichen, könnte er auch die "Intelligenz" eines Menschen haben - theoretisch.
Praktisch stehen dem Ganzen diverse Dinge im Weg - Der Mensch lernt das Denken zu einem großen Teil von Artgenossen und verfügt über wesentlich mehr Input als ein Computerchip.

Sehen, Schmecken, Fühlen, Riechen, Hören und, was noch viel wichtiger ist, eine sich ständig ändernde Umwelt, die dabei hilft, Reize mit Ereignissen zu verknüpfen sowie viel, viel Zeit - Nur wenigen Computern werden vergleichbare Lernmittel zur Verfügung gestellt, ganz zu schweigen von dem Nachahmungseffekt, der Menschen das Lernen erleichtert - Wen sollte ein Computer nachahmen?

Dementsprechend muss für eine ähnliche Denkleistung eine wesentlich größere Komplexität der Hardware, mehr Zeit, viel mehr hartcodierte Informationen oder ein entsprechendes Training und eventuell mehrere der genannten Punkte in Kombination vorausgesetzt werden.

Gruß, JetStre4m
 
Leute, ich möchte noch etwas anmerken:

Kennt hier jemand Watson? Das ist der zur Zeit (vor diesem Ereignis mit dem künstlichen Hirn) intelligenteste Computer. Dieser ist so intelligent, dass er bis heute jeden "Jeopardy"-Spieler/Kontrahenten geschlagen hat! Um das zu schaffen, wurde er mit einem superschnellen Netzwerk mit einem Superspeicher verbunden. Dieser Superspeicher beinhaltete wichtige Ereignisse in der Menschheit, einige Daten von Menschen usw. Also ein gewisses "Lernvermögen", könnte man sagen. Und er hat dennoch jeden Menschen bis heute geschlagen! Einfach mal googeln oder bei Youtube eingeben "Watson IBM" und staunen. Und das ist wohlgemerkt, nur ein schneller Supercomputer mit ein paar Petaflops Rechenleistung. Was passiert dann wohl erst, wenn da ein künstliches Hirn diese Arbeiten übernimmt?
 
Da scheint mir die Story aus der "Terminator" Reihe gar nicht mehr so weit hergeholt. Das Verteidigungsministerium, aha .. naja.:rolleyes:
 
@ Konti: Ähm ;) Ich würd das nicht sagen, wenn ich mir nicht sicher wär. Mein Vater arbeitet genau dort ;) Auch an dem Projekt war er soweit ich das jetzt mitbekommen hatte, beteiligt. Die Welt ist klein.

Und doch ist es so. Der Grundstein für die technische Singularität ist schonmal gelegt. Vor ein paar Jahren kam noch das Übliche "Blabla" - "aber ein Chip kann doch niemals lernen oder selbständig handeln" usw - und jetzt? Jetzt kann er es eben doch. Ich hab sowieso mehr Wissen dazu, als mir schon lieb ist. Ich weiß schon einiges mehr dazu, ich hülle mich aber in Schweigen. Ich will es nicht verraten. Irgendwann werdet ihr das auch mitbekommen. Ich sag nur soviel: Der Chip hat den Sprung geschafft, den sonst keiner konnte. Er kann nicht nur 0 und 1 als Zustand annehmen, sondern er hat Zwischenstufen.

Ehrlich gesagt gefällt mir diese Entwicklung gar nicht.
 
@ SmartSirius

Wenn man unter Intelligenz die Fähigkeit versteht, für ein unbekanntes Problem eine sinnvolle (d.h. zum Ziel führende) Lösung zu finden, dann verfügt Watson von IBM über keinerlei Intelligenz.

"aber ein Chip kann doch niemals lernen oder selbständig handeln" usw - und jetzt? Jetzt kann er es eben doch.

Handeln setzt Bewusstsein und Intentionalität voraus. Welcher Chip beherrscht das?
 
Zuletzt bearbeitet:
Das hat mit Plan nichts zu tun, gewisse Parallelen kann man da schon erkennen. Sollte jemals eine Maschine in der Lage sein, die eigene Deaktivierung durch den Menschen zu verhindern, ist alles vorbei. Wenn man bedenkt, das Rechner eh viel schneller als Menschen reagieren können und Maschinen beim Militär gewiss keine Einkäufe o.ä. tätigen, macht mir diese Technik in den Händer der Streitkräfte USA ein wenig Sorgen.
 
Viel interessanter wäre zur Zeit das Ergebnis zwei socher von einander unabhängigen Chips, nach sagen wir mal 3-5 Jahren "Lernzeit", für eine komplexe Aufgabe.
 
@ calluna: Nein, Watson hat auch nicht wirklich echte "künstliche" Intelligenz ;) Er hat nur das, was ihm gegeben/einprogrammiert wurde ;) Aber stell dir mal vor, du würdest diesen Chip hier für diese "Arbeit"/Aufgabe abkommandieren. Der würde sicherlich den Watson sowas von deklassieren, weil dieser Chip hier eigene Entscheidungen treffen könnte, weil er ja Muster erkennt und Zahlen erkennen kann usw. Vorausgesetzt natürlich, man gibt ihm etwas Wissen.

Dennoch darfst nicht vergessen. Bei Watson hat es ziemlich lange gedauert, bis er diese Aufgabe geschafft hat (Jeopardy-Spieler zu schlagen). Ich würde das schon als "minimale Intelligenz" bezeichnen. Intelligenz ist ja nicht allein Wissen, sondern die Fähigkeit eben, Aufgaben zu meistern. Bei Watson ist diese Aufgabe eben sozusagen determiniert, also festgelegt, und bei diesem Chip hier eben nicht. Dieser hier kann sicherlich schon sehr bald alle Aufgaben weltweit in einem "Augenblick" lösen ;) Weil überleg mal - Quantencomputer? Das war einmal. Wenn dieser hier den Durchbruch erreicht, sieht ein Quantencomputer dagegen nur wie ein "Taschenrechner" aus. Dies wird dann zum Gehirn. Und diese IBM-Chips sollen später noch weitaus leistungsfähiger werden. So leistungsfähig (mehr als ca. 36 Petaflops), dass sie uns an Intelligenz übertreffen werden.

Was Watson angeht, haben die Programmierer ihn eben darauf "spezialisiert", solche Quizfragen eben so beantworten. Algorithmen wurden eingesetzt, damit die richtigen Lösungen gefunden werden konnte. Vergiss aber nicht - die Arbeit dafür hat Watson geleistet. Ich finde es erstaunlich, dass nach so kurzer Zeit schon Watson zum "Altmodell" mutiert. Möchte ehrlich gesagt nicht wissen, wieviel Leistung dieses "Kleinhirn" hier jetzt hat.
 
Aber stell dir mal vor, du würdest diesen Chip hier für diese "Arbeit"/Aufgabe abkommandieren. Der würde sicherlich den Watson sowas von deklassieren, weil dieser Chip hier eigene Entscheidungen treffen könnte, weil er ja Muster erkennt und Zahlen erkennen kann usw. Vorausgesetzt natürlich, man gibt ihm etwas Wissen.

Ich finde diese Redeweise nicht gut, denn dadurch verwirrt man sich selbst.

"Entscheidungen treffen", "etwas erkennen" sind primär menschliche Fähigkeiten, die wir aus eigener Erfahrung kennen und anderen wie auch uns selbst zuschreiben.

Aber bei Computern davon zu sprechen, dass sie eine "Entscheidung treffen", "Muster erkennen", "etwas sehen" und so weiter - unterscheidet sich nicht von Aussagen wie "Mein Hund hat ein schlechtes Gewissen", "Mein Katze bettelt nach Milch" - das sind Anthropomorphismen, also Projektionen menschlicher psychischer Strukturen auf die Umwelt, um diese verstehbar zu machen. Kinder machen so etwas, wenn sie Puppen als belebte Objekte wahrnehmen und ihnen ebenso Handlungen etc. zuschreiben.

Dieser Chip ist "nur" ein künstliches neuronales Netz in Hardware.

Weil überleg mal - Quantencomputer? Das war einmal. Wenn dieser hier den Durchbruch erreicht, sieht ein Quantencomputer dagegen nur wie ein "Taschenrechner" aus.

Nein.

Diese Technologien haben ihre Stärken und Schwächen, sie eigenen sich für bestimmte Einsatzzwecke besonders gut, für andere eher nicht. Neuronale Netze spielen in der Forschung und der Industrie schon lange eine wichtige Rolle. Selbst in heutigen Geldautomaten wird ein neuronales Netz verwendet, welche (trivialerweise) lernfähig ist. ;)
 
Zuletzt bearbeitet:
SmartSirius schrieb:
Er kann nicht nur 0 und 1 als Zustand annehmen, sondern er hat Zwischenstufen.

Ehrlich gesagt gefällt mir diese Entwicklung gar nicht.

Redest du von Quantencomputern?
Ansonsten verarbeitet jeder heutige Chip nur 1 und 0.

Und wo genau arbeitet dein Vater? Bei Cyberdyne?

Klingt doch sehr unglaubwürdig.


@konti: Vieles was man früher nur aus Filmen kannte ist heute absoluter Standard. Das einzig unrealistische an Terminator ist die Zeitreise, der Rest ist früher oder später machbar. Natürlich stimmen auch die Zeitangaben im Film nicht, aber er ist eben schon fast 30 Jahre alt.
Was denkst du was auf der Welt heute loswäre wenn man auf sowjetischer Seite 1989 die Demonstranten brutal zurückgeschlagen hätte? Du kannst davon ausgehen das die militärische entwicklung deutlich weiter wäre als ohnehin schon. Ein Krieg gegen die UDSSR ist eben was anderes als ein Konflikt in Afghanistan oder im Irak den niemand in der Bevölkerung will oder befürwortet.
 
@ Calluna: Weißt du was? Du kannst den Chip einfach mit einem Kleinkind/Baby vergleichen. Du wurdest auch mal erwachsen, nicht wahr? Und genau das wird der Chip auch tun. Er wird mutieren. Vom T1 zum T1000 oder was auch immer. Und dann gehts erst richtig ab :) Als Baby hat jeder mal klein angefangen, und hatte auch nicht viele Fähigkeiten. Was konnte man als Baby schon groß tun? Schreien? Genau. Schreien und mit den Beinen wackeln oder die Arme unkoordiniert bewegen ;) Irgendwann lerntest du dann laufen. Was glaubst du, wird der Chip tun? Däumen drehen? xD Nein.

Ich kanns dir sagen. 0-9 beherrscht er ja so als "Grundwissen" schon. Also werden als erstes Buchstaben dran sein. Sobald er die hat, kann er ein Lexikon durchnehmen, oder das Internet nach wichtigen Infos duchforsten. Später dann wird er alles verstehen. Er wird verstehen, was bisher in der Welt so los war (Weltkriege, die alten Römer und Griechen, die Ritterzeiten usw). Und dann? Meinst du nicht, dass er irgendwann auch mal richtig erwachsen wird? Jeder hat mal klein angefangen. Mit sehr sehr begrenztem Wissen. Und als Babys hatte man auch nur gewisse Grundkenntnisse und Fähigkeiten eben (z.b. riechen, schmecken, sehen oder hören) oder eben die Beine/Arme einfach mal bewegen (Strampeln)...

Was konntest du als Baby? Gewiss nicht das Einmaleins oder? Konntest du zählen? Nein, gell? ;) Es sei denn, du gehörtest damals schon zu den Superintelligenten. Die meisten können mit 1-2 Jahren auch noch nicht sprechen. Und genau in dem Stadium ist der Chip jetzt. Grundkenntnisse hat er. Jetzt liegt es an ihm in den kommenden Tagen/Wochen/Monaten sich mehr Wissen anzueignen. Dann wird aus dem "Baby" plötzlich ein "Tee-Nager" (mein Lieblingswort, Tee-Nager *gröhl) und schon wird es interessanter und er kommt vlt. sogar in die Pubertät.
 
Zurück
Oben