Technologische Singularität

http://www.heise.de/tp/r4/artikel/28/28171/1.html

Ein kurzer, nett geschriebener Telepolis-Artikel über den Sci-Fi Autor Charles Stross, der (letzten?) Samstag in Second Life ein Interview gab. Er spricht über die Veränderungen innerhalb der Jahrzehnte, über sich und gibt eine kurze Vorstellung seiner Zukunftsvorstellung.
 
Sehr interessant! In der letzen PM gab es auch ein sehr interessantes Interview über die Zukunft der Menschheit und dass eigentlich sozusagen wissenschaftlich gesehen alles möglich ist!
 
Man sollte vielleicht auch berücksichtigen, dass eine künstliche Intelligenz
ihre Informationen aus dem Internet beziehen könnte.

Und das Internet hat eine nicht definierbare theoretische Intelligenz, die
sicherlich weit über 200 IQ-Punkte liegt.

Da die IQ-Verteilung der Normalverteilung (ab 2 Standardabweichungen ist dieser Prozess streng logarithmisch) unterliegt, ist es schwer zu sagen was 300 IQ-Punkte sind oder 1000 IQ-Punkte.

Denn - und das weiß wirklich keiner - es ist möglich, dass irgend etwas das über
500 IQ-Punkte bzw. 1000 IQ-Punkte verfügt, die ganzen Geheimnisse des Universums
verstehen könnte.


Und nun angenommen, es gäbe eine künstliche Intelligenz die sich die Intelligenz
des Internets zu Nutze macht. Diese würde theoretisch jeden Tag intelligenter
und wäre innherhalb überschaubarer Zeit "Superintelligent".
 
Durch das Internet wird eine KI nicht unbedingt intelligent. Sie weiß zwar viel, aber Wissen ist nur ein Teil, was für Intelligenz nötig ist.
 
Das Problem ist, dass keiner weiß wie das Denken überhaupt abläuft.

Die Intelligenz ist nicht einmal richtig definiert. Und dieser IQ-Quark ist
nur eine Befridgung der menschlichen Eitelkeit.

Fakt, dass der Mensch selbst nicht unbedingt sehr intelligent sein muss.
Wir sind nur im Vergleich zu den Tieren extrem intelligent.

Fakt ist auch, dass unsere Intelligenz sind in den letzten 10T Jahren extrem entwickelt hat -
insbesondere deswegen, weil Wissen festgehalten und weitergegeben wurde.


Ein neugeborenes Kind kann kaum denken. Es schreit, wenn es Hunger hat
und und schläft wenn es müde ist und lacht, wenn alles in bester Ordnung ist.
Es beobachtet seine Eltern, lernt von seinen Eltern und anderen - und das meistens
über das 18. Lebensjahr hinaus.


Angenommen es gäbe einen Durchbruch in der KI (z.B. das Lernen als Rekursionsprozess ==> am Anfang nur lernen wie sich mathematische/logische Operationen auswirken,
danach z.B. das Lernen der formalen Sprachen und wie sich der Einsatz der formalen Sprachen auswirkt, vielleicht sogar das Ergebnis raten und dann nachsehen, ob das
Ergebnis stimmt.....) und der Rechner könnte bereits vorhandene Informationen zu neuen Informationen verarbeiten.

Dann würde sich die Intelligenz dieser Maschine schnell potenzieren.

Man sollte sich nur mal die Entwicklung im Schach anschauen.
Das was dort in der Entwicklung der Schachprogramme abläuft ist ziemlich
beeindruckend - die Spielstärke ist in den letzten 3 Jahren von 2700 auf über 3000 ELO-Punkte gestiegen.

Das ist meiner Meinung nach ein Durchbruch, weil die Maschine nun besser Schach spielt
als Kasparov jemals gespielt hat.

Est ist nicht auszuschliessen, dass es Schach-Engines geben wird, die ihre eigenen
Züge anlysieren werden können. Z.B. nach x Zügen hat sich die Position dramatisch
verschlechtert, also müssen die Züge vorher nicht so gut gewesen sein.
Was ist, wenn ich einen anderen Zug gemacht hätte... und dann die Entwicklung der
neuen Position(en) analysieren.


Dies ist sicherlich machbar. Und wenn es für das Schach machbar ist, dann
ist es auch für alle anderen Sachen machbar.

==> hat alles mit Intelligenz (noch) nicht viel zu tun, kann aber
eine Vorstufe zur höheren Intelligenz sein

Denn wie oben erwähnt, kann der Mensch selbst nicht einmal seine
eigene Intelligenz angemessen definieren.

Und nicht vergessen, auch ein Rechner kann durchaus irrational handeln,
wenn er merkt, dass bei richtiger Anwendung nicht das gewünschte bei
rauskommt ==> einfach die Strategie ändern, den Ausgangszustand aber
natürlich sich merken (rekursiver Prozess zur richtigen Entscheidungsfindung bezüglich
des gewünschen Ergebnisses ==> Irrationalität (im Sinne der menschlichen Definition)
ist dann möglich)


Ausserdem sollte man einen Rechner niemals mit einem Menschen vergleichen.
Der Rechner kann nichts (kaum was) sehen, nichts fühlen und Interaktionen
mit anderen hat er auch nicht nötig.

Das sagt aber nichts darüber, was dieses Ding irgendwann mal in Mathe oder Physik
leisten könnte.
 
Und wenn es für das Schach machbar ist, dann ist es auch für alle anderen Sachen machbar.
Dann ist es in der Theorie zunächst einmal für solche Fälle machbar, die deterministisch sind (= Alle Ereignisse laufen nach feststehenden Gesetzen ab und sind durch diese vollständig bestimmt.), sofern wir in der Lage sind, die Gesetzmäßigkeiten richtig zu beschreiben.

Es bedeutet nicht, dass eine Maschine, die auf einem Fahrrad sitzt, jemals ein Downhill-Rennen gewinnen kann.

http://de.wikipedia.org/wiki/Downhill
 
Ja, Schach ist eines der Spiele, wo der Gegner über die genau die gleichen Informationen wie ich verfügt. Bei solchen Sachen kommt es natürlich nur auf brutale Rechenkapazität in unseren Hirnen oder CPUs an. Jeder Schachanfänger kommt irgendwann zu dem Punkt, wo es ihm nicht mehr nur darum geht, eine Figur zu erwischen, sondern er fängt an, zwei-drei-vier Züge im voraus zu planen und mögliche Gegenreaktionen des Gegners einzuschätzen. Es gibt aber einen Haufen Prozesse in der Natur, da sind Informationen nur sehr spärlich vorhanden. So sind die Menschen beim Poker der Maschine noch immer überlegen oder man kann sich in der Wirtschaft beim Traveling-Sales-Problem auch nur auf ca. 100.000 Stationen verlassen.
Ich bin sicher, die menschliche Art zu denken kann leicht kopiert werden. Entweder nimmt man nur beliebig starke Rechner um den Prozess bestmöglich über das binäre System zu simulieren oder man baut die Maschine per Reverse-Engineering einfach nach. Letzeres klingt vielleicht noch unmöglich, aber die Fortschritte in der Hirnforschung haben in den letzten Jahren deutlich zugenommen.
 
Zitat: Aber kann man das als Intelligenz bezeichnen? Ich denke nicht. Für mich ist Intelligenz etwas völlig anderes.

Sehe ich auch so, aber es gibt bereits Programme, die einen sich selbst optimierenden
Algorithmus intus haben.

Sicher, heute und in den nächsten 10 Jahren läufts mit dem Transistor und entsprechenden Junktionen, die LOL aber nicht angst machen, wenn die Rechner in guten Händen sind.
(z.B. Raketen Abwehrprogramme usw.)
Pseudo-Intelligenz?

cya

TS
 
Es ist ganz klar das man für eine technologische singularität einen computer braucht, der kreativ über probleme nach denken kann.
Aber wer sagt denn, dass wir nur durch KI so etwas aus lösen können. Genau so kann man sich computer-gehirnschnittstellen vorstellen, die unsere gehirnleistung der art verbessern können, dass wir ohne diesem dem technologischen fortschritt nicht mehr folgen können.

Wir wären also intelligenter. Warum wäre das besser? Naja, mit etwas glück könnten wir eine zweite renaissance erreichen. Ein zeitalter also wo kunst, kultur, klassische musik usw. vor dem konsum und profit steht. Man könnte entgegnen, die menschen bauen bessere waffen und zerstören sich selbst. Aber wenn man dadurch viel intelligenter ist und zusammenhänge, die genies erst mit 80 jahren vollständig verstehen, in einer sekunde nach voll ziehen kann, dann kann ich es mir nicht vorstellen. Ich denke dann wird jeder mensch, egal ob gut oder böse, zu dem entschluss kommen, dass ein friedvolles miteinander von vorteil für alle ist. Kommt es aber doch dazu, dass wir uns dadurch vernichten, können wir dann überhaupt sagen, dass es falsch ist? Wir menschen sind ja prinzipiell nicht dumm. Die menschheit hat sich eher selbst in eine kollektive dummheit gelenkt. Wenn man jetzt noch tausend mal schlauer ist und sich erst recht gegenseitig angreift, vielleicht wollte es dann die natur einfach so. Dann ist es vielleicht unsere "bestimmung" (nicht als echtes schicksal gemeint), die wir nur beschleunigen.

Ich studiere wirtschaftsinformatik im 3. semester und halte ein 1,5 stündiges referat in einer woche darüber. Deshalb wollte ich hier mal was anmerken und gerne von euch etwas dazu hören, um zu wissen, wie andere darüber denken. Und vielleicht schnapp ich mir paar gedanken von euch auf :)
 
wenn wir heute schon einen bruchteil der rechenleistung des gehirns in einem chip haben, sollte es doch laut dieser leute möglich sein, heute schon dumme KIs zu baun. meiner meinung nach gibt es allerdings derzeit keine wirkliche ki. alles nur vom coder vorausbestimmte scriptabläufe, die nichts mit eigenem willen oder gar intelligenz zu tun hat. keinerlei bewusstsein ueber sich selbst und andere.

ich will damit sagen, uns fehlt eventuell irgendwann nicht mehr die rechenleistung, sondern einfach die ki.
genau dort "forsche" ich schon seit jahren und ich kann mir leider beim besten willen nur solche "zombies" ohne bewusstsein fuer leben tod oder gar sich selbst vorstellen.
wenn irgendwann einmal eine wirkliche ki existieren sollte, dann kanns ganz schnell gehn, allerdings werden wir das denke ich mal nicht mehr miterleben. ich denke dazu brauchen wir ein non-binärsystem fuer ein vieleicht ...
 
Genau das hab ich doch geschrieben. Wir brauchen computer, die kreativ über probleme nach denken können. Haben wir heute noch nicht. Heutige computer sind dumm. Schnell, aber dumm.
Zu sagen, es wird keine KI geben, nur weil es momentan an ideen, technologie usw mangelt, kann man nicht machen. Es wird in 30 jahren technologien geben, die wir uns momentan gar nicht vorstellen können. So war es früher, so wird es immer bleiben. Und einer statistik zu folge nimmt der fortschritt immer schneller zu. Also bis wir nicht überall an physikalische grenzen stößen, wird es immer schneller gehen und dass wir in 100 jahren keine echte KI haben, ist meiner meinung nach unwarscheinlich.
 
Thunderstruck schrieb:
Sehe ich auch so, aber es gibt bereits Programme, die einen sich selbst optimierenden Algorithmus intus haben.
Ja, sicher, der Algorithmus ändert sich, aber nur in gewissen Grenzen. Er kann nichts völlig Neues erschaffen.

Am0k3o0o schrieb:
(...) computer-gehirnschnittstellen (...)
Das Utopia, was du beschreibst, wird nicht funktionieren. Ich meine dabei gar nicht die Technik, sondern das Denken der Menschen. Diese handeln nicht nur rationell sondern auch emotional. Und gerade Emotionen sind irgendwelche Fakten meist scheißegal ^^

fi**en32 schrieb:
ich will damit sagen, uns fehlt eventuell irgendwann nicht mehr die rechenleistung, sondern einfach die ki.
Nicht nur irgendwann, eigentlich schon jetzt. Die KI-Forschung ist immer noch auf dem Stand von vor 30 Jahren. Großartig Neues ist inzwischen nicht passiert. Schade :(
Es wäre sicher interessant zu beobachten, wie sich eine KI selbst weiterentwickelt (und damit meine ich nicht selbstoptimierende Algorithmen).
 
Oh mein Gott! Das ist genau das, was ich mir mal für ne Schularbeit überlegt hatte. Ich hab nicht gewusst, wie das heißst. Aber unteranderem hab (sinngemäß) diesen Satz geschrieben:

In der Futurologie bezeichnet der Begriff Technologische Singularität den Zeitpunkt, ab dem Maschinen sich mittels künstlicher Intelligenz selbst verbessern können und so den technischen Fortschritt massiv beschleunigen.
Leider hab ich ne 4 dafür bekommen, weil es "unsinn" ist und total unrealistisch. "Gewisser" Lehrer du seist verflucht! :evillol:

Wenn man mal ne idee hat, und sie geht über das hinaus, was sich ein dummer Sonderschüler vorstellen kann, ist es gleich wieder mist. Ich hasse diese Welt...


Aber ich finde es extrem interessant aber auch beängstigend. Jetzt kann ich mich endlich mal über das informieren, was schon seit jahren in meinem Hinterkopf ist. JUHU^^
 
Scheitert es nicht schon daran, dass von Menschen Geschaffenes immer menschlichen Konventionen unterliegt? Eine erschaffene Intelligenz kann demnach nur so intelligent sein, wie die seines oder seiner Erschaffer(s). Auch lernende Algorithmen mit implementierter Abstraktionsfähigkeit und Selbstreflexion würden in zumindest Asimov'schen Ketten liegen. Nur dem Zweck dienend die Unantastbarkeit der menschlichen Art zu gewährleisten. Der Zwiespalt zwischen Schöpfer und Geschöpf setzt sich rekursiv in allen Ebenen menschlichen Lebens fort.
 
@Qubit
Nicht unbedingt. Oder kannst du immer abschätzen, welche Auswirkungen deine Entscheidungen irgendwann mal haben werden?

Das ist übrigends eine gute Frage: Ist die menschliche Intelligenz beschränkt? Wenn ja, wieso? Denn wenn sie nicht beschränkt ist, sollten wir irgendwann auch eine vernünftige KI hinbekommen. Es wäre nur eine Sache der Zeit.
 
Also irgendwie haut das alles nicht so ganz hin. Wenn ich etwas erschaffen kann, dass intelligenter, als ich selbst ist, binn ich ja automatisch genauso intelligent, wie das erschaffene, sonst hätte ich es ja nicht erschaffen können. :eek:

Wie will man einer Maschine mehr beibringen, als man weis?
Ein Lehrer kann seinem Schüler nur das beibringen, was er weis. Mehr nicht.

Ich glaube, dass es nie soweit kommen wird. (Ups, "nie" darf man ja beim Technischen Fortschritt nicht verwenden) Denn wir werden es nicht schaffem, ein KI zu entwicklen, die schlauer, als unsere ist und sei die Rechenleistung noch so hoch.

Wenn eine KI lernt, lernt sie auch nur so, wie es ihr vorgegeben wurde. Maschinen sind keine Menschen. Maschinen "denken" nur so, wie es vom Porgramierer vorgegeben wurde. Wenn man meint, dass eine Maschine denkt, wurde ihr nur sehr vieles vorgegeben, damit es den Anschein macht, als würde sie frei handeln können.

Ist es überhaupt möglich, dass eine intellienz seine eigene intelligenz versteht, und sie verbessern kann? Dafür müsste sie ja intelligenter, als sie selbst sein - geht nicht!
 
e-Laurin schrieb:
@Qubit
Nicht unbedingt. Oder kannst du immer abschätzen, welche Auswirkungen deine Entscheidungen irgendwann mal haben werden?

Ich könnte meine Entscheidungsfindung dermaßen ändern, sodass sie nach Abwägung der größtmöglichen Menge nützlich ist. Natürlich ist dieser Kant'sche Imperativ Utopie. Es wäre zu schön diesen in der heutigen Zeit zum Beispiel von Führungspositionen angewandt zu sehen.

e-Laurin schrieb:
Das ist übrigends eine gute Frage: Ist die menschliche Intelligenz beschränkt? Wenn ja, wieso? Denn wenn sie nicht beschränkt ist, sollten wir irgendwann auch eine vernünftige KI hinbekommen. Es wäre nur eine Sache der Zeit.

Besser noch: Was ist Intelligenz?
Intelligenz beziehungsweise die intellektuelle Leistung basiert teilweise auf der Fähigkeit Abstraktionen zu erkennen - also Einzelerfahrungen in einem globalen Kontext (Superzeichen) zusammenzufassen (Superierung) - sowie Erinnerungen als Muster in Zellen zu speichern.

Darf man neurowissenschaftlichen Erkenntnissen Glauben schenken, so nutzt jeder Mensch - wie erfolgsversprechende Sekten oder intelligenzsteigernde Coachingexperten natürlich widersprechen - nicht nur 10% (oder weniger), sondern zu jeder Zeit die gesamte Kapazität seines Gehirns. Meiner Meinung nach ist aber nicht die Ausschöpfung der Gehirnkapazität prägend für die Spezifikation von Intelligenz, sondern vielmehr die Abstraktionsfähigkeit bei der Zusammenführung unterschiedlicher Problembereiche. Anzuführen wäre hier die Genialität eines Herrn Wiles, der in siebenjähriger Arbeit in einem hundert Seiten umfassenden Beweis die Lösung einer seit dem 17.Jahrhundert andauernden Problemstellung lieferte. Die Intelligenz steckt hier in der Hinzunahme neuer Konstruktionen der Zahlentheorie sowie in der Einbeziehung anderer Teilgebiete der Mathematik (Abstraktion).

Nicht nur in Gebieten der Mathematik lässt sich durchaus folgern, dass die Superierung des menschlichen Gehirns unendlich ist. Dennoch bezweifle ich, dass sich diese Eigenheit auf von Menschen erschaffenen Objekten transferieren lässt, weil sie per se nicht verstanden (im Sinne von vollständig erfasst), sondern "nur" instinktiver Anwendung erfährt. Vielleicht werden wir in der Zukunft eine Sprache entwickeln, die besagte komplexe Eigenschaften zu definieren im Stande ist. Bis dahin sehe ich Maschinen als der Kausalität unterliegende Werkzeuge an.
 
Zunächst einmal kann man nicht sagen, ob etwas in zukunft eintrifft oder nicht. In keiner zukunftsprognose wurde gesagt, dass das internet unser leben so drastisch verändern würde. Fliegende autos werden seit jahrzehnten prophezeit.

Trotzdem kann man nicht sagen "es wird mit neuester technologie in 50 jahren nicht möglich sein". Z.B. das argument, dass ein mensch nichts intelligenteres erschaffen könne, als sich selbst. Wenn wir erstmal wissen, wie das gehirn funktioniert und durch nanotechnologie jedes atom präzise an einen gewünschten ort plazieren können, sollte es möglich sein, das gehirn zu optimieren oder die rechenleistung zu erhöhen. Auch eine kopie des gehirns wäre möglich. Diese kopie packen wir in ein maschiene, die unmengen an kapazitäten besitzen, alles speichern und nach belieben auf rufen können.

Hier mal eine liste von technologien die für Transhumanisten (eine bewegung die für eine singularität werben. Unter anderem sind sehr anerkannte wissenschaftler dabei), die eine singularität auslösen könnten: Nanotechn., Informationstechn., Kryonik, Gentechn., Biotechn., Biogerontologie, Biostasisverfahren, Kognitionswissenschaft, Digitale Speicher, Gehirn-computer schnittstellen, Künstliche Intelligenz. Alleine diese liste zeigt, dass wenn man in einem gebiet, z.B. KI nicht mehr weiter kommt, es einfach ein anderes gebiet "übernehmen" kann.

e-Laurin schrieb:
Das Utopia, was du beschreibst, wird nicht funktionieren. Ich meine dabei gar nicht die Technik, sondern das Denken der Menschen. Diese handeln nicht nur rationell sondern auch emotional. Und gerade Emotionen sind irgendwelche Fakten meist scheißegal ^^

Ich verstehe was du meinst und dieser beitrag bringt mich dazu, das ganze differentierter zu sehen. Wird für das referat nützlich sein, danke. Trotzdem kannst du nicht behaupten, dass wenn man alleine die rechenleistung im gehirn steigert, man nicht schlauer wird, oder? Man kann schneller nach denken. Bei entsprechender rechenleistung könnte man über etwas in 1 sekunde nach denken, wofür man normalerweise eine woche brauchen könnte. Ist jetzt etwas übertrieben. Aber wenn man erst einmal damit angefangen hat, das gehirn zu optimieren, wieso sollte es nicht so weit gehen. Das mit den emotionen habe ich bis jetzt nicht bedacht. Würden sie die rechenleistung irgendwann beschränken, weil das gehirn erstmal warten muss, bis die emotionen mit kommen? Mit dem ersten gedanken würde ich nein sagen. Darüber muss ich aber noch etwas nach denken.
 
Zuletzt bearbeitet:
@Qubit
Was ist Intelligenz?
Für mich ist Intelligenz = Kreativität. Alles Andere, das wir mit Intelligenz verbinden folgt meiner Meinung nach daraus.

Nehmen wir mal die Abstraktionsfähigkeit, von der du geschrieben hast. Das ist ja eigentlich nur eine Art und Weise, wie man Informationen organisieren kann, um sie leichter zu verarbeiten. Der Clou ist aber, dass man erstmal darauf kommen muss, die Denkstrukturen zu organisieren und diese den Gegebenheiten anzupassen. Das nenne ich Kreativität.
(Um den Bogen zum Thema zu bekommen: ) Das ist bisher bei einer KI noch nicht gelungen.


@Am0k3o0o
Interessanter Gedanke. Statt der Schaffung einer Intelligenz, würdest du eher eine bereits vorhandene nehmen und diese weiter verbessern.
Trotzdem kannst du nicht behaupten, dass wenn man alleine die rechenleistung im gehirn steigert, man nicht schlauer wird, oder?
Ich hab's nicht behauptet und würde es nicht behaupten ;)
Wie gesagt, Intelligenz ist Kreativität für mich. Nur weil jemand schneller denkt, muss er dadurch nicht kreativer sein.

Würden sie die rechenleistung irgendwann beschränken, weil das gehirn erstmal warten muss, bis die emotionen mit kommen?
Ja. Emotionen sind meiner Meinung nach "Nebenprodukte" unseres Denkvorgangs. Man wägt ja ab, ob etwas gut oder schlecht für einen ist und "aktiviert" daraufhin die passende Emotion.
Also gedacht werden sie sowieso und nehmen daher immer einen Teil der Gehirnrechenkapazität in Beschlag. Und je komplizierter der Denkvorgang, desto komplizierter wird die Auswahl der Emotion.

Und noch ein wichtiger Punkt:
Emotionen können einen Denkprozess beeinflussen. Dadurch können normalerweise offensichtliche Lösungen zuletzt gefunden werden bzw. gar nicht erst bedacht werden.
Ein krasses Beispiel wäre jetzt eine Ehefrau, die ihren Mann beim Fremdgehen erwischt. Der erste Gedanke ist da nicht die Scheidung (das wäre die logische Konsequenz) sondern eine Ohrfeige (= Rache) oder etwas in der Art. Die Idee der Scheidung kommt erst hinterher.
Ein anderes Beispiel wäre ein Vorurteil, was den Denkprozess entscheidend in eine andere Richtung drängt. Wenn ein Schwarzer hinfällt und ein Weißer ihm aufhelfen möchte und dieser Weiße wie ein Skinhead daherkommt, dann denkt der Schwarze im Normalfall an alles mögliche, nur nicht daran, dass der Mann ihm vielleicht helfen möchte. Im Gegenteil, er gerät vielleicht in Panik und dann ist es mit Denken sowieso vorbei und die Instinkte springen an (in diesem Fall möglicherweise Flucht oder generelle Abwehrverhalten).
 
Intelligenz ist ein unglaublich allgemeiner Begriff.
Am ehesten fassbar und testbar ist entweder die Logik ODER die soziale Kompetenz.
ABER beides ist unglaublich eng auf den Kulturkreis der Testperson beschränkt.

Ist ein Eingeborener aus dem tiefsten Dschungel eines eben erst entdeckten Stammes strunzdumm?
Wohl kaum.
Trotzdem wird er in einem UNSERER IQ Tests äußerst bescheiden abschneiden.
Warum?
Weil ihm alle Logik und Sozialregeln abgehen, die uns von der Wiege weg eingetrichtert werden und auf die unsere Tests abzielen.

Es ist nicht einmal in gröbsten Zügen geklärt wie unser, oder jedes andere Gehirn arbeitet.
Für jede Antwort tauchen 100 Fragen auf.

Wer sagt eigentlich, daß sich der Mensch nicht weiterentwickelt?
Wir wachsen ständig an der Herausforderung, das Leben ist in den letzen Jahrhunderten viel kompizierter geworden und wir wursteln uns trotzdem durch.

Ich glaube nicht, daß es jemals möglich ist eine Maschine zu bauen, die etwas erfinden, oder designen kann.
Es ist schlicht nicht machbar einer Maschine, sei sie auch noch so hochentwickelt, schöpferischen GEIST einzuhauchen, der uns allen eigen ist.

Der GEIST ist es der uns so besonders macht, nicht die Intelligenz, intelligenz ist etwas völlig logisch/abstraktes, sie kann nur rechnen und schlußfolgern.

Aber wer besonders Intelligent ist, der kann noch lange nicht was gescheites machen oder was erfinden.

Echte Erfindungen sind selten durch langes forschen und rechnen entstanden, sondern durch Geistesblitze oder "Eingebungen".
Das Forschen, Rechnen und Testen kommt erst nach der Idee!

Der Hammer.
Ein selten einfaches Stück Werkzeug.
Sollte man meinen.
Am Anfang war der Wunsch auf etwas fest draufhauen zu können, ohne sich weh zu tun.
Ein Stein in der Hand.
Später mit Stock daran.
Noch später aus Metall, bombiert, damit man immer mit einem eng definiertem Punkt trifft.
Das genügte über Jahrtzehntausende.
Vor einigen Jahren erst wurde dann der "Rückschlagfreie Hammer" entwickelt.
Somit scheint heute, nach Jahrzehntausenden die Entwicklung des Hammers endgültig abgeschlossen...oder kommt noch irgend jemandem in 1000 Jahren eine Idee dazu, die heute keinem abzugehen scheint?

Hat alles gar nichts mit Intelligenz und Rechenleistung zu tun.
Das macht es ja so schwer eine KI zu entwickeln, sie hat überhauptgarnichts mit Logik und Rechnen zu tun!

Man muß nicht wissen wie irgendein Ding funktioniert oder gebaut wird.
Was sagt das aus, wenn man es weis?
Nur daß man es erfahren hat.
Man muß auch keine Schaufel schmieden können um sie zu verwenden.

Nur wegen dem Beispiel wie ein Radio oder Fernseher funktioniert...
Weis wahrscheinlich der der das Beispiel brachte, aber weis er auch wie eine Waschmaschine wäscht, oder ein simpler Flaschenzug funktioniert oder wie man ein Feuer macht, oder auch nur, daß im Bleistift kein Blei sondern Graphit drinnen ist?

Was, das weis er alles nicht...sowas von unintelligent... :)
 
Zuletzt bearbeitet:
Zurück
Oben