News Googles „Self Driving Car“ lernt Städtefahrten

Der Traum das der Mensch immer fauler bequemer und dümmer wird ,ist schon Realität . Was das für Katastrophe mit sich bringen lässt , Mensch verlässt sich 100% ig auf die Technik . Das kann nicht gut gehen . Davon träumen die schon zu lang .
 
xxMuahdibxx schrieb:
Jup du bist geistig auch nicht aktiv ansonsten wüsstest du wie du Zustände auf dem Dorf sind ...
was ist mit dir los? was willst du hier angehen? auf streitigkeiten aus, nur weil ich deinen lustig anmutenden satzteil "aktiv am leben teilnehmen" mal richtig gedeuted habe?
schonmal was von bus&bahn gehört? gibts bei uns im dorf. und achtung: ganz neue erfindung: taxi (falls zb am wochenende nachts ein ründchen gedreht werden soll)
ChronosX schrieb:
Mal an Blinde gedacht oder solche die Abends nicht fahren dürfen weil ihre Augen zu schlecht sind? So einen Freund habe ich nämlich, für ihn wäre das eine riesen Erleichterung wenn er auch in der Dämmerung einkaufen fahren könnte oder wir (meine Freunde) ihn nicht immer abholen müssten.
sorry, aber blinden würde ich es trotzdem nicht erlauben, so ein fahrzeug zu "lenken". wie sollte er im notfall (zb systemversagen) eingreifen? wenn man schon weiß, dass man eine sehschwäche hat, zb das von dir angesprochene problem bei dämmerung, warum steigt man dann zu dieser zeit in ein auto?

@atb2006
walle-e-humans-in-the-spaceship.jpg ;)
 
lel old news !

google muss hier richtig reinklotzen, denn die ganzen hier vorgestellten systeme sind in der aktuellen S-Klasse bereits standard !

schildererkennung, autobremssysteme (auch nachts!), fußgängererkennung usw. ist in den aktuellen modellen deutscher hersteller fast überall schon enthalten.

(neue) daimler autos, allen vorran die s-klasse, könnten bereits schon autonom fahren - nur dürfen sie nicht ;)

edit: http://www.mercedes-benz.de/content...ass/w222/facts_/comfort/intelligentdrive.html
Ergänzung ()

e-Laurin schrieb:
Die große KI-Revolution bleibt bisher aus und wird es auch noch für eine ganze Weile bleiben. Computer können viele einzelne Dinge ziemlich perfekt. Aber keiner hat es bisher geschafft, die ganzen perfekten Ausführungen sinnvoll miteinander zu kombinieren, um so eine universelle Intelligenz zu erschaffen.
weil die abläufe im gehirn zu komplex sind um von menschen verstanden werden zu können.

wenn immer noch die gehirne von serienmördern zerschnitten werden um ein "serienmörder-gen" zu suchen... loooool

man weiss nichtmal ansatzweise wie informationen gespeichert werden, wie will man dann das system übertragen können ?
wie willst du etwas kopieren ohne zu wissen was ?
solange die forscher nur spezialisten sind, solange wird es keine fortschritte geben.
man muss in vielen bereichen fit sein, denn nur dann kann man sein wissen kombinieren um auf neues zu kommen.
 
Zuletzt bearbeitet:
Cr4y schrieb:
Das ist mein Traum! Wenn ich mich nicht schon an die Dummheit der meisten Autofahrer gewäöhnt hätte, würde ich regelmäßig einen Anfall bekommen.

Vorallem im Stau: Jeder hält 50cm Abstand zum Vordermann bei stockendem Verkehr -> Bremse -> Stehen -> Gasgeben -> Bremsen -> Stehen-> usw. usw usw. Hält man dann mal 100 meter abstand zum Vordermann um eben flüssiger rollen zu können, stürmen alle gleich auf die eigene Spur, weil warum weiß ich auch nicht.
Jeden Morgen bei Auffharten mit starkem Verkehr das gleiche: Es wird viel zu wenig Abstand gehalten. Für auffahrende Autos wird dann entweder auf die anderen Spuren ausgewichen (und die Hinterleute müssen bremsen) oder es wird selber hart auf die Bremse getreten und nach 5 Minuten hast du n riesen Rückstau weil jeder etwas stärker bremst als der Vordermann und der Verkehr dann gezwungenermaßen zum Stillstand kommt. Und 100 Meter nach der Auffahrt hst du plötzlich Frei fließenden Verkehr.
GOTT wie viel Stau und stockender Verkehr vermieden werden könnte, wenn man einfach Abstand halten würde.... AHHHHHHHHHHH

Autobahnen sind echt der Anti-Beweis für Schwarmintelligenz.

Das ist halt das vermächniss von Millionen Jahre aufbauende Evolution (Gehirn/Struktur/...), Computer und Algorithmen haben dieses Problem (noch) nicht, was gut ist :) .

tree-snake schrieb:
Zudem kann kein PC jemals Gespür eines guten Fahrers bekommen. Man erkennt ja oft schon an der Fahrweise von anderen, dass sie bald irgend ne Aktion machen wo man bremsen muss und bereitet sich drauf vor.

Es gibt Systeme die selbstlernend sind, mir fallen z.b. NARS, Novamentum und ggf. OpenCog ein, es gibt sichr aber noch viel mehr.

Meine Persöhnliche Meinung zu selbstfahrenden Autos/Zügen, ist ne coole Sache.
Aber die Forscher sollten lieber in richtung AGI forschen und nicht son narrow-AI schwachsinn.

Laggy.NET schrieb:
Fakt ist doch, Menschen machen fehler. Immer! Fehler von Maschinen können dagegen ausgemerzt werden.

Jein, wenn du narrow AI Systeme hast (reaktive systeme die nicht klar denken können und dumpfbackig sind) dann stimmt das, bei strong AI / AGI Systemen (welche adaptive systeme sind) gilt das _NICHT_, weil Sie lernen (können). Zum lernen gehört auch dass die Systeme (Menschen sind auch nur Systeme/Maschinen) Fehler machen.

22428216 schrieb:
Das würde zwangsweise auch dazu führen, dass die Leute es verlernen sich zu orientieren... :freak:

Ist das heute dank navi nicht schon der Fall ;) .

Scythe1988 schrieb:
Roboter, Drohnen, selbst fahrende Autos..... das kann man doch 1:1 aufs Militär übertragen. So langsam nimmt das merkwürdige Außmaße an.

Das ist nur der Anfang, ich warte noch bis AGI Systeme verboten werden und nur vom Militär genutzt werden dürfen. (Währ der Supergau)

e-Laurin schrieb:
Er versucht aktiv seine Ziele zu erreichen und plant entsprechend. Beim Computer ist man noch nicht so weit. Er geht von einer perfekten Welt aus und ist deshalb passiv. Er reagiert erst dann, wenn sie doch nicht als so perfekt erkannt wird. Dieses unterschiedliche "Denken" wird zu Konflikten und damit am Ende auch zu Unfällen führen.

Wie gesagt, es gibt schon (zugegeben primitive da die Forschung am Anfang steht) Systeme welche auch planen und dazulernen können.

Zum thema unterschiedliches denken, das wird noch ne ganze weile so bleiben. Wir (Informatiker) haben keinen Schimmer wie das Gehirn funktioniert, also können wir auch keine Maschinen bauen welche so denken wie wir(die Neurologen/Psychologen/Verhaltensforscher sollen sich mal auskäsen und nicht immer stumpfsinnige nicht realisierbare vermutungen als Theorien darlegen, kommt mir der Wut hoch >:D). Das Verständniss des Gehirns wird das letzte Rätsel der Menschheit sein (das letzte Bollwerk wenn man so will).
Was danach passiert will ich garnicht wissen. Und ob es so schlau ist Menschen zu duplizieren ist auch fraglich (ich komme mit Menschen z.b. nicht klar, mit Maschinen hingegen schon, man muss nur 5 Kontrollkonstrukte berherschen und alles ergibt sich von alleine, beim Menschen ist das "komplizierter"[Gänsefüßchen weil eh alles auf paarung hinausläuft]).

Ach ich lass mich wieder aus :D

Laggy.NET schrieb:

Ich glaube er meinte generelle Mustererkennung und nicht EINE instanz einer Mustererkennung (für Textzeichen).
Zeig mir doch mal bitte den Algorithmus der UNIVERSELL muster erkennt (Sprich Muster in Texten, Bildern, Tönen, etc. pp.).
Es gibt nicht einen (weak AI) Algorithmus welcher dies bewerkstelligen kann und das wird auch noch ne weile so bleiben.
Speziallösungen zählen nicht.

(Man könnte das auch mit [nicht klassischen] Neuronalen Netzen realisieren aber der Rechen und Speicheraufwand ist exorbitant).

Alienate.Me schrieb:
Autofahren macht einfach zu viel spaß, um die kontrolle immer abgeben zu wollen.

Rechnen macht auch manchen Menschen spaß, trotzdem sind Sie froh dass es von Algorithmen abgenommen wird (nur als Beispiel).

e-Laurin schrieb:
Wenn da ein dunkler Fleck auf der Straße ist, muss der Computer blitzschnell entscheiden, ob er reagieren muss oder nicht. Und jetzt versuch dem Computer mal klar zu erklären, was das für ein Fleck ist. Es kann sich ja immerhin um eine Katze, Schlagloch, Backstein oder nur eine Flickstelle handeln. Bei der Katze muss der Computer weiter drauf halten, beim Schlagloch die Gefährlichkeit bestimmen, beim Backstein ausweichen oder abbremsen und beim Flicken unbeeindruckt weiterfahren.
Das kann man machen, aber es gibt so viele unvorhersehbare Dinge, die man einem Computer auf diese Art nicht beibringen kann - es sind einfach zu viele.

Wieder das gleiche wie oben, AGI systeme können lernen... so ähnlich wie Menschen.
Das System muss "nur" die korrelation zwischen dingen finden.
Das kann man klassisch (weak AI) realisieren (SVM, Klasische Neuronale Netze fallen mir hier ein) oder halt mit einem AGI system... wobei letzteres besser abschneidet.

Das ist ja das tolle an etwas mehr Rechenleistung, man kann heute "einfach" viele Szenarien durchgehen und die Algorithmen passen sich an (als Beispiel nehm ich mal Watson, auch wenn es mal wieder ein weak-AI system ist).

Laggy.NET schrieb:
Der Fehler ist eben der Pessimismus. Wenn man darüber nachdenkt, zu dem Ergebnis kommt, dass man die Technik nicht besser hinbekommen würde, als den Menschen, würde man es erst gar nicht versuchen.
Versucht man es aber trotzdem, wird das Ergebnis zwangsläufig immer besser, je länger man daran arbeitet und optimiert. Da in dieser Zeit auch allgemein die Technik voranschreitet (in welchem Maße kann man vorher nicht wissen) wird das tatsächliche Endergebnis höchstwahrscheinlich komplett anders aussehen, als man es sich zum Start vorgestellt hat.

Hat etwas wahres an sich, allerdings kann es auch sein dass wir in x Jahren die 1000/millionen Fache Rechenleistung von der equivalenten Rechenleistung des Gehirnes haben und es trotzdem nicht gebacken bekommen das Gehirn zu erforschen oder Algorithmen / Simulationen zu bauen welche so intelligent/intelligenter sind als wir. Falls allerdings der Punkt erreicht ist wird sich die KI in welcher Form auch immer selbst modifizieren und optimieren sodass Sie nochmal millionenfach schneller "denkt" als Menschen, was das bedeutet kann sich jeder ausmahlen. Das ist alles Fiktion und purer Unsinn ;)

e-Laurin schrieb:
Ich gar nix. Aber die Statistik sagt, dass es weniger Tote und Verletzte gibt, wenn man bei kleinen Tieren kein Ausweichmanöver macht (und damit nicht versehentlich im Gegenverkehr oder am Baum landet). Die Kollision mit einer Katze wirft die meisten Fahrzeuge nicht aus der Spur und der Schaden ist oftmals recht gering. Schade um das Tier ist es aber trotzdem. :(

Mustererkennung fällt in den Bereich der KI und da gibt es schon länger keine großen Fortschritte mehr. Der Teil der KI, der gerade groß im Kommen ist, ist das semantische Netz. Google ist da aktuell an der vordersten Front. Auch die Schwarmintelligenz wird gerade forciert. Mustererkennung und Pfadplanung (das ist nicht Pfadsuche a la Navigationsgerät!) sind aber quasi noch auf dem Stand von vor 30 Jahren. Die Captcha-Erkennung ist nur eine gelungene Anwendung der Algorithmen, die es schon seit über 30 Jahren gibt!

Die große KI-Revolution bleibt bisher aus und wird es auch noch für eine ganze Weile bleiben. Computer können viele einzelne Dinge ziemlich perfekt. Aber keiner hat es bisher geschafft, die ganzen perfekten Ausführungen sinnvoll miteinander zu kombinieren, um so eine universelle Intelligenz zu erschaffen.

Alles weak-AI, wie 99.99999% der Ki Forschung. Die leute welche die Forschunggelder ausgeben interessieren sich nur für Profite/Resultate welche in 3 bis 5 Jahren resultate bringen. Ich finde das persönlich schlecht/trauchig/whatever.

Imho bringt es auch nichts viele narrow-AI Algorithmen zu einer Strong-AI zu kombinieren, da du zwischen den Systemen IMMER grenzen hast. Diese vermutung kann ich aber nicht belegen oder wiederlegen, bin ja nicht Gott :D .

Wir haben schon eine Universe Intelligenz, AIXI, das ist der Goldstandard für alle AGI Systeme. Allerdings schluckt die dezeitige monte-carlo implementation viel viel Rechenleistung und speicher, weshalb Skynet in der Form unpraktisch ist ;) .

Und nochmal

e-Laurin schrieb:
Du scheinst den Aufwand zu unterschätzen.

  1. Zuerst muss der Computer aus den Daten in Echtzeit ein 3D-Modell der Umgebung fertigen (gute Visualisierung hier).
  2. Dann muss er diese Daten nehmen, und schauen, welche Bereiche befahrbar sind und welche nicht. Im Prinzip ist das eine einfache Hinderniserkennung. Schwieriger wird es dadurch, dass den Daten nicht absolut vertraut werden kann. Es kann ja immer Messfehler, Ungenauigkeiten und Störungen geben.
  3. Jetzt müssen die aktuellen Daten mit älteren verglichen werden, um sich bewegende Objekte zu erkennen. Auch hier müssen Ungenauigkeiten mit einbezogen werden.
  4. Anschließend muss das Objekt selber bewertet werden, ob es überhaupt beachtenswert ist (Plastiktüte vs. Stein). Das ist aktuell nicht möglich. Ein Computer versteht nicht, was ein Objekt ist. Es kennt seine äußerlichen Eigenschaften, aber es weiß nicht, was es ist. Daraus ergibt sich, dass es auch nicht weiß, ob es in der nächsten Sekunde von der Straße springen oder vom Wind weggeweht wird.*
  5. Die Bewegungen der Objekte müssen dann extrapoliert werden, um eine Einschätzung zu geben, ob sie den Pfad des Fahrzeugs kreuzen werden.
  6. Daraus wird errechnet, ob und in welchem Umfang das Fahrzeug seine Fahrtrichtung und Geschwindigkeit ändern muss.
  7. Usw. Die Liste ist quasi endlos.
Und das alles mindestens 100fach pro Sekunde. Garantiert! Du willst in keinem KI-gesteuertem Auto sitzen, dass bei jedem Hindernis erst mal eine Bedenksekunde einlegt.
Des Weiteren willst du, dass sich das System kontinuierlich selbst kalibriert. Gerade LIDAR-Systeme sind anfällig für Temperatur-, Feuchtigkeits- und Lichtänderungen.

Jeder dieser Punkte benötigt Jahre an Forschung. Wie lange bastelt man jetzt schon an autonomen Autos? 10 Jahre? 15 Jahre? Länger? Und nach all der Zeit, ist man bis jetzt "nur" an dem Punkt gekommen, dass Kegel auf der Fahrbahn berücksichtigt werden.


Zusatz:
* Stell dir einen Ball vor. Wenn ein Computer das Ding sieht, wartet er, bis er von der Straße gerollt ist und fährt dann los. Jeder Mensch weiß aber, dass nach einem Ball normalerweise gleich auch ein Kind auf die Straße laufen kann.
Darum sage ich, dass ein Computer nicht weiß, was ein Objekt ist. Er sieht nur 1en und 0en, aber nicht die Semantik, Kausalität und Implikation.

Als Beispiel kann Novamentum und ich glaube auch open-Cog Kausalität modellieren, mit NARS kann man auch kausale Zusammenhänge modellieren (und das System kann kausale Zusammenhänge lernen). Man kann bei NARS auch die Kausalen Zusammenhänge für Mustererkennung und andere Spielereien missbrauchen aber ich schweife ab.

Es ist ganz klar dass Algorithmen welche nicht lernen (angesprochene Partikelfilter und Raketengleichungen[name vergessen, dummes Matrix gemache]) und immer fest einen Schema folgen NIE die leistungen vollbringen können welche andere Systeme (Menschen ua.) vollbringen.

Das mit der bedenksekunde stimmt, aber was heute 1 Sekunde benötigt benötigt in Jahren nur bruchteile, und das in Software.
Wenn man die Algorithmen in Hardware gießt geht schmitz Katze 10000 mal so schnell ab, ist ein riesen unterschied.

Man sollte lieber an Systeme basteln welche Systeme designen können, es gibt schon experimente dergleichen (war irgend was mit Genetischen Algorithmen, finde den link jetzt nicht). Die Experimente sind noch simpel aber die Technik ist am wachsen. Dazu dann noch Betriebssysteme/Softwaresysteme welche sich selber heilen und entwickeln (gibts den Darpa Preis für ab 2015). Wie das weitergeht ist nicht auszumahlen.


Laggy.NET schrieb:
Eine aktuelle Intel CPU kommt auf ~100 GFLOPS Rechenleistung. Das sind mal eben 100 Milliarden Rechenoperationen pro Sekunde. Eine GPU wie die R9 295X2 auf 10 TFLOPS was 10 Billionen Rechenoperationen pro Sekunde sind. Du glaubst ernsthaft, dass wir nicht genügend Rechenleistung haben?
Schonmal ein Video Encodiert? Was meinst du, was da alles an Bildinhalt und Bewegungsvektoren analysiert wird und das je nach Einstellung bei weit mehr als 100 FPS...
10 TFLOPS Rohleistung. Dazu kommt das du nicht alle Algorithmen parallelisieren kannst. Ein weiterer Punkt dagegen ist das bei solchen Betrachtungen die Speicherbandbreite nicht beachtet wird welche für Ki Systeme entscheidend ist (vorallendingen für Neuronale und neuronal ähnliche Modelle).

Kurz gesagt hat deine GPU eine Warteschlange für die Speicheranfragen welche von den Kernen gefüllt werden.
Die Speichertechnolgie ist auf lineare Zugriffe ausgelegt (weil das wechseln der Bänke des DRAM kontrollers zeit kostet und wartezeiten einbringt). Nützliche Algorithmen lieferen fast immer zufällige Speicheranfragen die entsprechend lange dauern. Da nützt es auch nicht dass du 100 GByte/s Speicherrohleistung hast wenn nur 10% durchkommen.
Dazu kommt das die Speicheranfragen bestimmten Alignment/Überlappungskriterien genügen müssen sonst bringt die Performance wieder ein.
Zusätzlich hat man das problem dass die Ausführungfäden den gleichen codepfad durchlaufen müssen um 100% effizient zu sein (sonst werden Sie bei der Bedingung entsprechend gespalten und entsprechend ausgeführt).
Es gibt noch Zehnmillionen dinge welche bei GPU's hinderlich sind.

Um eine (persönliche) Abschätzung der Nötigen Rechenleistung für die Simulation einer Menschlichen Gehirnes auf Neuronaler Ebene abzugeben (Rechenleistung für neuordnung/Verknüpfung/Lösen von Verbindungen und anderes mal weggelassen).

200'000'000'000 Neuronen * 100 Takte pro sekunde * 1000 Takte für das Zusammenrechnen des Reizes sowie die Signalweitergabe
= 2 * 10 hoch 16

Jetzt teilen wir das durch 2 Gigaherz
= 1 * 10 hoch 7

Kann man gerne noch durch die Anzahl der Kerne teilen, es bleibt eine große Zahl.

Den Benötigten Speicher für die Synapsen kann sich jeder selber ausrechnen, ausgehend von (nur) 1000 Synapsen pro Zelle (sind eig 2000 bis 10000).
Wir sind heute weit weit von diesen Enormen dimensionen entfernt.

Dazu kommt noch das viele Neuronen über paar (reelle) Sekundenbruchteile miteinander kommunizieren müssen.
und außerdem das sich das Netzwerk auch neu ordnen muss etc pp.

Autokiller677 schrieb:
Dafür, dass man angeblich einen Supercomputer braucht, fahren die Autos diverser Hersteller aber schon ziemlich gut.
Weil ihr Äpfel (heutige reakive Algorithmen, narrow-AI) mit Birnen (strong-AI, AGI, brain simulation) vergleicht.

Autokiller677 schrieb:
Ich habe erst letztens ein beeindruckendes Beispiel für Optimierung gesehen. Ein Freund von mir arbeitet als Programmierer mit an einer Texterkennung. Mittlerweile ist das (dank echt guten Lookup Tables und was weiß ich für mathematischen und progammiertechnischen Tricks) so schnell, dass sämtliche frei verfügbaren Google Books (einige Millionen Seiten) auf einem i7 in einer halben Stunde erkennen kann. Wenn ich daran denke, wie lang Acrobat bei mir für 30 Seiten braucht...

Wieder narrow-AI, die KI "versteht" nichts, ist kein wunder dass es auf Heutigen Tisch-Taschenrechner Systemen schnell ist.

Autokiller677 schrieb:
Reine Schaltzylken sind hier einfach nicht ausschlaggebend.

Dienen aber als größenabschätzung für die Rechenleistung einer Brain-Simulation :)

Autokiller677 schrieb:
Zudem gibt es ja mehr als genug Beispiele für Automatisierungen in komplexen Systemen - Flugzeuge, Raketen, diverse Roboterwettbewerbe etc. Wenn sich eine Sonde auf dem Mars von einer schwebenden Plattform abseilen kann und dabei alte Rover als rudimentäres Leitsystem benutzt, kann man es auch hinbekommen in den nächsten 20 Jahren Autos zu bauen, die wenigstens auf dem Niveau eines Menschen fahren.

Wieder mal narrow AI systeme. Du kannst nicht von "etwas" Matrizen Rechnung auf solche komplexe dinge wie Autofahren schließen...klar ist es möglich aber die Zeitabschätzungen liegen bei sowas traditionell weeeit daneben.

cruse schrieb:
weil die abläufe im gehirn zu komplex sind um von menschen verstanden werden zu können.

Würde ich so generell nicht sagen. Zumahl wir auch (ironischer weise) theoretisch klassische Maschine "learning" algorithmen ausnutzen können um zukünftige detailierte Daten aller Neuronenaktivitäten auswerten zu können.
 
jud4s schrieb:
wer nicht in der lage ist ein fahrzeug zu lenken (geistig, körperlich...), sollte das weder heute dürfen noch in zukunft wenn der "computer" fährt. frei nach dem sprichwort: vertrauen ist gut, kontrolle ist besser.
Muss man also jetzt als Fahrgast im Bus den Busfahrer beobachten und bewachen, sonst darf man nicht mehr Bus fahren?
Verifikation, Tests, Qualitätsstandards, meinetwegen Leute die aus der Ferne das Fahren überwachen, aber Leuten verbieten im Computer-Auto zu fahren die es nicht selbst können finde ich seltsam.
Leute vereinsamen mit Abnahme der Mobilität. Ihnen sowas zu verbieten ist armselig und egoistisch.

jud4s schrieb:
gibt es heute schon: nennt sich öffentliche verkehrsmittel
Wenn du Gehprobleme hast natürlich eine tolle Idee! Auch für ältere Leute keine wirkliche Alternative.
 
denglisch schrieb:
Muss man also jetzt als Fahrgast im Bus den Busfahrer beobachten und bewachen, sonst darf man nicht mehr Bus fahren?

nein, denn als fahrgast steuere ich ja nicht das fahrzeug, das macht der lenker, und der hat auch dafür sorge zutragen das fahrzeug ordnungsgemäß zu lenken; bzw zu überwachen bei "self driving".
aber klar vergleichen wir äpfel mit birnen :rolleyes:

was ist egoistisch daran, leuten, die nicht in der lage sind fahrzeug xy zu steuern, das zu verbieten? das steigert nur die sicherheit auf der straße.

und zum thema "gehproblem". was bringt dir da ein auto?
muss man zb beim einkaufen nicht mehr aussteigen? mit dem fahrzeug ins cafe?

öffentliche verkehrsmittel sind kein thema für dich scheinbar.
 
Zuletzt bearbeitet:
Quonux schrieb:
Würde ich so generell nicht sagen. Zumahl wir auch (ironischer weise) theoretisch klassische Maschine "learning" algorithmen ausnutzen können um zukünftige detailierte Daten aller Neuronenaktivitäten auswerten zu können.
ich spreche von grundlagenforschung. das WIE etwas funktioniert. Und du laberst etwas von ableitungen - die dir das aber kaum erklären können, da es nichts in der elektronik gibt, was eine ähnliche funktionsweise hat.
WIE speichert das gehirn erinnerungen - und vor allem WO? usw.
WIE wird ein muskel bewegt?
und zwar nur der.

Du scheinst den Aufwand zu unterschätzen.


1.Zuerst muss der Computer aus den Daten in Echtzeit ein 3D-Modell der Umgebung fertigen (gute Visualisierung hier).
2.Dann muss er diese Daten nehmen, und schauen, welche Bereiche befahrbar sind und welche nicht. Im Prinzip ist das eine einfache Hinderniserkennung. Schwieriger wird es dadurch, dass den Daten nicht absolut vertraut werden kann. Es kann ja immer Messfehler, Ungenauigkeiten und Störungen geben.
3.Jetzt müssen die aktuellen Daten mit älteren verglichen werden, um sich bewegende Objekte zu erkennen. Auch hier müssen Ungenauigkeiten mit einbezogen werden.
4.Anschließend muss das Objekt selber bewertet werden, ob es überhaupt beachtenswert ist (Plastiktüte vs. Stein). Das ist aktuell nicht möglich. Ein Computer versteht nicht, was ein Objekt ist. Es kennt seine äußerlichen Eigenschaften, aber es weiß nicht, was es ist. Daraus ergibt sich, dass es auch nicht weiß, ob es in der nächsten Sekunde von der Straße springen oder vom Wind weggeweht wird.*
5.Die Bewegungen der Objekte müssen dann extrapoliert werden, um eine Einschätzung zu geben, ob sie den Pfad des Fahrzeugs kreuzen werden.
6.Daraus wird errechnet, ob und in welchem Umfang das Fahrzeug seine Fahrtrichtung und Geschwindigkeit ändern muss.
7.Usw. Die Liste ist quasi endlos.
und du unterschätzt die technik...
du gehst in jedem deiner posts von visueller erkennung aus. die existiert aber nur am rand. sie ist EINE von viele sensoren.
die objekte werden mit radar erfasst, dazu gibt es infrarot und und und.
gibt inzwischen ne menge doku dazu.

der wichtigste punkt ist aber:
das system fährt bereits auf deutschen straßen - d.h. es funktioniert

4.Anschließend muss das Objekt selber bewertet werden, ob es überhaupt beachtenswert ist (Plastiktüte vs. Stein). Das ist aktuell nicht möglich. Ein Computer versteht nicht, was ein Objekt ist. Es kennt seine äußerlichen Eigenschaften, aber es weiß nicht, was es ist. Daraus ergibt sich, dass es auch nicht weiß, ob es in der nächsten Sekunde von der Straße springen oder vom Wind weggeweht wird.*
ich hab das ganze schon vor bestimmt 4 jahren in aktion gesehn. gesehn wie die objekte erfasst werden (wurden vom rechner markiert) und das in millisekunden - soviel zu unmöglich. er hat instant gecheckt was sich bewegt und was nicht.
die dahinterstehende technik kenne ich natürlich nicht im detail ^^


Hat etwas wahres an sich, allerdings kann es auch sein dass wir in x Jahren die 1000/millionen Fache Rechenleistung von der equivalenten Rechenleistung des Gehirnes haben und es trotzdem nicht gebacken bekommen das Gehirn zu erforschen oder Algorithmen / Simulationen zu bauen welche so intelligent/intelligenter sind als wir
der mensch ist von haus aus dumm. erst erfahrung und später wissen machen es möglich gut zu kombinieren(intelligenz). dieses system muss man einer maschine beibringen -> ich hoffe es wird nie passieren.



fazit für mich:
lieber autonome autos als weiter 80 jährige rentner, die keine kontrolle mehr über's auto haben.
 
Four2Seven schrieb:
Ich sehe das eher erschreckend. Fortschritt ist gut, keine Frage, aber der Mensch entwickelt sich nach und nach zurück. Ist meine persönliche Meinung.
Mal abgesehen davon dass Beherrschung von Grammatikdetails nichts mit Intelligenz, sondern Schulwissen und Reproduzieren zu tun hat, bin ich auch nicht der Meinung dass Fortschritt eine Rückentwicklung des Menschen bedeutet.

Das Problem ist nicht Annehmlichkeit, sondern Konsum. Wenn man nur konsumiert, dann wird man dumm und unflexibel, körperlich wie geistig. Das ist heute auch schon möglich und passiert.

Wer Interessen hat und diese pflegt und selbst etwas macht dem passiert das nicht.

Mir missfällt eher dass man mehr und mehr zum Konsumenten erzogen wird, der zu tun hat was die Gesellschaft für richtig hält. Eigenes Denken und Handeln wird mehr und mehr sanktioniert. Direkt oder indirekt.

Das Problem sind nicht Annehmlichkeiten, es ist der Zwang Autonomie aufzugeben, und selbst eine Drohne zu werden.
 
@Quonux
Das ist ein laaanger Post von dir. ;)
Das macht es schwierig, dir zu antworten, ohne selber einen Wall of text zu produzieren.


Im Wesentlichen schlägst du vor, eine universelle KI (wie zB AIXI) als Autofahrer zu verwenden. Hm, ich überlege gerade, ob das nicht zu viel des Guten ist. Immerhin schießt du mit Kanonen auf Spatzen. ^^
Braucht es wirklich eine KI mit diesen Fähigkeiten? Eine "niedere" Intelligenz, modelliert nach den Fluchtreflex und den Instinkten von Tieren, könnte eventuell dasselbe mit weniger Aufwand erreichen. Das hätte auch den Vorteil, dass man damit die Grundlage für eine "höhere" Intelligenz geschaffen hat, die man dann für andere Zwecke verwenden kann.


Wir (Informatiker) haben keinen Schimmer wie das Gehirn funktioniert, also können wir auch keine Maschinen bauen welche so denken wie wir(die Neurologen/Psychologen/Verhaltensforscher sollen sich mal auskäsen und nicht immer stumpfsinnige nicht realisierbare vermutungen als Theorien darlegen, kommt mir der Wut hoch >:D). Das Verständniss des Gehirns wird das letzte Rätsel der Menschheit sein (das letzte Bollwerk wenn man so will).
Du hast so recht. Immer dieses Rumgeeier mit unscharfen Begriffen. Vielleicht sollte man den interdisziplinären Austausch nicht nur auf Wissen sondern auch auf Definitions- und Beschreibungsstandards ausweiten.


Edit:
cruse schrieb:
der wichtigste punkt ist aber:
das system fährt bereits auf deutschen straßen - d.h. es funktioniert
Wenn es so gut funktioniert, wie von dir behauptet, dann würde Google nicht daran weiterentwickeln. Sie zeigen nur die Dinge, die funktionieren. Was nicht funktioniert, zeigen sie nicht.

cruse schrieb:
ich hab das ganze schon vor bestimmt 4 jahren in aktion gesehn. gesehn wie die objekte erfasst werden (wurden vom rechner markiert) und das in millisekunden - soviel zu unmöglich. er hat instant gecheckt was sich bewegt und was nicht.
Ich meinte hier nicht visuelle Erkennung, sondern das Verstehen, was das für ein Objekt ist. Darum auch das Beispiel mit dem Ball.
Klar, der Rechner kann per RADAR, LIDAR usw. die Abmessungen, Bewegung usw. erfassen. Damit weiß er aber noch nicht, dass eventuell gleich ein Kind auf die Straße stolpert. Er ist sich dieser Konsequenz nicht "bewusst", weil er nicht in der Lage ist, Objekte zu interpretieren. Das ist extrem schwierig.
Mit einem gut gefütterten, dynamischen semantischen Netz und einer Ontologie-Sprache wie OWL Full kann ein Computer so was verstehen. Allerdings führt das zu dem Problem der Unentscheidbarkeit*, das man nicht allgemein lösen kann.

* Zwei Fakten widersprechen sich, welcher ist richtig?
 
Zuletzt bearbeitet:
e-Laurin schrieb:
Das kann man machen, aber es gibt so viele unvorhersehbare Dinge, die man einem Computer auf diese Art nicht beibringen kann - es sind einfach zu viele.
Wir glotzen nur einmal hin und wissen sofort: "Schau an, ein Schatten von einem Vogel!"
So eindeutig ist das nicht. Probier mal im fast Dunkeln zu laufen. Da meint man häufiger da käme einem jemand oder etwas entgegen, und dann war es doch nur ein Schatten von einem Baum oder ähnliches.

Auch Menschen müssen all die Fälle und Möglichkeiten lernen die es gibt. Es gibt keinen Grund warum ein Computer das mit Erfahrung/Zeit nicht genauso lernen könnte.
 
@denglisch
Du merkst, dass unsere Mustererkennung nicht perfekt, dafür aber extrem fehlertolerant ist. Das können wir im Moment nicht im Computer nachbilden.

Wenn wir in der Nacht einen vermeintlichen Baum sehen, dann rotiert unser Gehirn unterbewusst und prüft die Plausibilität dieses Sinneseindrucks ("Kann ein Baum mitten auf der Straße stehen?"; "Ist das überhaupt ein Baum?"). Dieser Vorgang ist extrem effizient, da wir sofort unwahrscheinliche Ergebnisse ausfiltern und nicht weiter darüber nachdenken. Ein Computer "denkt" nicht so. Der setzt sich wirklich hin und vergleicht den Schatten mit zB einem Straßenschild, um dann ganz am Ende zu sagen: "Nee, ist kein Straßenschild." Dafür gibt es bis jetzt auch keine Lösung. Man erschlägt das Problem im Moment mit Technik (andere Sensoren zB).
 
jud4s schrieb:
nein, denn als fahrgast steuere ich ja nicht das fahrzeug, das macht der lenker, und der hat auch dafür sorge zutragen das fahrzeug ordnungsgemäß zu lenken; bzw zu überwachen bei "self driving".
aber klar vergleichen wir äpfel mit birnen :rolleyes:
Wenn du den Zusammenhang zwischen einem menschlichen Fahrer und einen Computerfahrer nicht siehst dem man die Kontrolle als Fahrgast überlässt, dann brauche ich wohl nicht weiter zu reden. Der Zusammenhang ist wohl mehr als offensichtlich. Neuigkeit: Menschen machen auch Fehler. Denke mal an die Unfallmeldungen von Busfahrten.


jud4s schrieb:
öffentliche verkehrsmittel sind kein thema für dich scheinbar.
Als alter oder behinderter Mensch? Natürlich nicht!

Auch kann man dann natürlich wie jetzt schon Leute die im Rollstuhl sitzen und trotzdem (per kompletter Handsteuerung) autofahren, dann natürlich trotz Gehproblemen einkaufen.

Irgendwie fehlt da die Fantasie...


Ich verwende öffentliche Verkehrsmittel und Rad, aber gerade deswegen weiß ich auch wo das seine Grenzen hat und wie unpraktisch das sein kann.
 
denglisch schrieb:
Neuigkeit: Menschen machen auch Fehler.

neuigkeit: ich habe nie behauptet, dass menschen keine fehler machen.
warum können alte menschen nicht öffentliche verkehrsmittel nutzen? da fehlt mir die fantasie.
 
e-Laurin schrieb:
@denglisch
Du merkst, dass unsere Mustererkennung nicht perfekt, dafür aber extrem fehlertolerant ist. Das können wir im Moment nicht im Computer nachbilden.
Du kennst bestimmt die Kippbilder, wie das klassische Vase/Gesichtproblem. So toll sind unsere Mustererkennungen durchaus nicht. Sie sind sehr stark von Erwartungen und initialen Reizen geprägt die dann die weitere Suche nach bekannten Formen leiten. Sind die initialen Reize/Sachen die uns auffallen andere, kommen wir zu einer anderen Lösung. Mal die Vase, mal das Gesicht. Manchmal ist man so fixiert auf ein Ergebnis, dass obwohl man gesagt bekommt, dass dort noch eine andere Möglichkeit besteht, man diese partout nicht erkennt.

e-Laurin schrieb:
Wenn wir in der Nacht einen vermeintlichen Baum sehen, dann rotiert unser Gehirn unterbewusst und prüft die Plausibilität dieses Sinneseindrucks ("Kann ein Baum mitten auf der Straße stehen?"; "Ist das überhaupt ein Baum?").
Das hängt sehr von der Situation und Stimmung ab. Wenn man im "Actionmodus" ist tut man das, besonders unter Stress. Wissen tut man es allerdings nicht was man sieht, man vermutet einfach und geht davon aus dass der häufigere/üblichere Fall zutrifft. Das ist ein Teil der Gründe warum man sich überschätzt. Natürlich ist das toll für schnelle Reaktionen, aber eben kein wirkliches Wissen, sondern informiertes Raten. Bei unscharfen Sehen oder in der Nacht oder Nebel etc. kann man schön diese Täuschungen und Kippbildeffekte beobachten. Ist auch sehr beliebt in Geschichten und Mystik, weil durch unscharfe Information die Phantasie angeregt wird.

e-Laurin schrieb:
Ein Computer "denkt" nicht so. Der setzt sich wirklich hin und vergleicht den Schatten mit zB einem Straßenschild, um dann ganz am Ende zu sagen: "Nee, ist kein Straßenschild." Dafür gibt es bis jetzt auch keine Lösung. Man erschlägt das Problem im Moment mit Technik (andere Sensoren zB).
Stimmt. Momentan wird das recht rechnerisch/formelartig/primitiv gelöst. Aber es gibt keinen Grund warum man das nicht nachmachen können sollte. Ähnlichkeitsfunktionen definieren, Lookuptable, wahrscheinlichsten Treffer raussuchen. In dem oben beschriebenen Fall macht man auch nicht vielmehr. Es ist einfach über die Zeit durch Erfahrung gut getunt worden. Gerade solche Aufgaben wo es um Entscheiden und schnelles Reagieren geht, braucht man kein großes Lernen, sondern sinnvolle Wissensanwendung. Für tieferes Denken hat man eh keine Zeit. Das meiste ist "Musclememory".
 
Zuletzt bearbeitet:
> das klassische Vase/Gesichtproblem. So toll sind unsere Mustererkennungen durchaus nicht.
Immerhin erkennen wir überhaupt etwas. Ein Computer sieht da nur eine Linie oder im schlechtesten Fall nur eine Menge von Punkten/Pixeln.
Würde man ihn jetzt so programmieren, dass er die Linie interpretieren soll, kommt er nicht nur auf Vase und Gesicht sondern wahrscheinlich auch auf tausende andere Dinge. Und dann steht er vor dem Entscheidungsproblem: Er hat tausende Lösungen, welche ist jetzt die richtige?


> man vermutet einfach und geht davon aus dass der häufigere/üblichere Fall zutrifft
Frei nach Ockhams Rasiermesser? Das wäre eine Möglichkeit das Problem zu lösen. Es gibt aber noch dutzende andere, wie zB dein informiertes Raten. Welcher ist das beste für einen Autofahrer? Gibt es überhaupt den perfekten Algorithmus für das Problem? Kann es überhaupt den perfekten Algorithmus für diese Klasse von Problemen geben?
Das sind in der KI-Forschung noch immer unbeantwortete Fragen.


> Ähnlichkeitsfunktionen definieren, Lookuptable, wahrscheinlichsten Treffer raussuchen.
Also ist ein Baye'sches Netz die beste Lösung? (So wie du es beschreibst, scheinst du ein BN zu meinen.)
Was ist, wenn zwei Treffer die gleiche Ähnlichkeit bzw. Wahrscheinlichkeit haben, aber unterschiedliche Reaktionen erfordern? Und damit landen wir wieder beim Entscheidungsproblem.


> Gerade solche Aufgaben wo es um Entscheiden und schnelles Reagieren geht, braucht man kein großes Lernen, sondern sinnvolle Wissensanwendung.
Wie schon geschrieben, das Entscheidungsproblem ist nicht gelöst. Man kann es bisher nur in Spezialfällen lösen. Für das Autofahren brauchen wir einen allgemeineren Lösungsalgorithmus.


PS: Ich finde es gut, wie du dir Gedanken machst. :)
Du dringst damit tief in die Probleme der KI-Forschung ein.
 
Zuletzt bearbeitet:
e-Laurin schrieb:
Das ist ein laaanger Post von dir. ;)
Wie sagt man im englischen, im late to the party. :D

e-Laurin schrieb:
Im Wesentlichen schlägst du vor, eine universelle KI (wie zB AIXI) als Autofahrer zu verwenden. Hm, ich überlege gerade, ob das nicht zu viel des Guten ist. Immerhin schießt du mit Kanonen auf Spatzen. ^^
Braucht es wirklich eine KI mit diesen Fähigkeiten?

Wie gesagt, AIXI ist der Goldstandard zum testen anderer Modelle (z.b. NARS oder andere), AIXI selbst ist Aufgrund des immensen Rechenaufwandes für Praktische Anwendungen total uninteressant. Dr. (Prof?) Pei Wang (Erfinder von NARS) selbst meinte dazu, dass AIXI nicht wirklich intelligent ist da es das Kriterium, dass ein KI System auch mit begrenzten Ressourcen umgehen kann, nicht erfüllt.

e-Laurin schrieb:
Eine "niedere" Intelligenz, modelliert nach den Fluchtreflex und den Instinkten von Tieren, könnte eventuell dasselbe mit weniger Aufwand erreichen.

Ich habe nicht gesagt, dass man nur AIXI/NARS/anderes Modell benutzen sollte, ich meinte nur, dass es durchaus Sinn ergibt so ein lernendes System für höhere "denk"-Aufgaben nutzt (Ball rollt über Straße, etc pp).

Die KI kann die Situationen im Simulator lernen, ich sehe da kein großes Problem (für ne Amader an Wissenschaftlern und + 10 Jahre Bedenkzeit ).

e-Laurin schrieb:
Das hätte auch den Vorteil, dass man damit die Grundlage für eine "höhere" Intelligenz geschaffen hat, die man dann für andere Zwecke verwenden kann.

Bei dem punkt gehe ich nur teilweise mit, ich persönlich würde nicht auf Insektenintelligenz tippen (obwohl es für so niederne Aufgaben toll ist, da es einfach zu erforschen und relativ reaktiv ist) sondern auf Raaben/Krähen/Oktopoden/Ratten/Delphinen.


e-Laurin schrieb:
Du hast so recht. Immer dieses Rumgeeier mit unscharfen Begriffen. Vielleicht sollte man den interdisziplinären Austausch nicht nur auf Wissen sondern auch auf Definitions- und Beschreibungsstandards ausweiten.

Ich wollte eig. auf das Rumgeeier von den Wissenschaftlern eingehen.
Z.b. "Was ist ein Konzept und wie wird es im Gehirn abgebildet" (da schreiben die nur irgendwas was ich unter Philosophie einordne), "gibt es eine Trennung zwischen langzeit/Kurzzeitgedächtnis" (keine Erkenntnisse, nur rumgeeier) und wie das Gedächtnis funktioniert etc. pp.


denglisch schrieb:
So toll sind unsere Mustererkennungen durchaus nicht.
Ach nein?
Wir können uns z.b. unterhalten, unere Gehirne schaffen es irgendwie einen Signalgewirr (Sehnerv) sinn zuzuordnen (zu binden, siehe Bindungsproblem).
Irgendwie schafft es das Gehirn aus den 50000 hoch 20 Kombinationsmöglichkeiten für einen Satz (mit 20 wörtern) die richtige Bedeutung rauszufinden.
DAS ist ein riesen Problem wie das Gehirn das schafft, und es ist auch (extreme, wenn es sowas gibt) Mustererkennung.
Auf andere Reizarten und Assoziationsmöglichkeiten gehe ich nicht ein, da es ein anschauliches Beispiel imho war.


denglisch schrieb:
Ähnlichkeitsfunktionen definieren, Lookuptable, wahrscheinlichsten Treffer raussuchen. Gerade solche Aufgaben wo es um Entscheiden und schnelles Reagieren geht, braucht man kein großes Lernen, sondern sinnvolle Wissensanwendung.

Narrow AI -> müll.
Ausführlicher:
Wie bringst du dem System die Ganzen Beispiele bei, wenn es sich an neue Situationen nicht anpassen kann hast du sowieso schon verloren.
Was wenn deine Trainingsbeispiel z.b. nur Amerikanische Straßenschilder waren. Deutsche kennt es nicht und kann es nicht (auf der Straße) lernen. -> Schlecht
Natürlich kannst du beim Training "alle möglichen" Straßenschilder beibringen aber es gibt im 100x100 pixel (2 hoch 10000) immer Beispiele die es nicht erkennen kann, selbst wenn das Straßenschild an jeder Ecke vorkommt.

Narrow AI ist nützlich, ohne zweifel, aber es bringt uns nicht besonders weit. Das Gehirn investiert nicht zum Spaß einen Großteil der Kortex Fläche für die Verarbeitung von Visuellen Reizen in vielen vielen Ebenen.
Das kann man per Definition nicht mit lustigen klassischen feed-back NN's oder Boltzmann NN's nachbilden.

e-Laurin schrieb:
Frei nach Ockhams Rasiermesser?
Ach hör doch bitte auf mit dem Blödsinn (musste sein).
Es kommt mir so vor als wie wenn die KI Menschen Ockhams razor nehmen wenn die Komplexität der Lösungen ins unendliche geht. Meine Meinung dazu ist einfach dass es schlecht ist, das sollte sich alleine aus der Theorie ergeben (NARS ist ein tolles Beispiel, andere Fallen mir nicht ein) und nicht "dazu gebastelt" werden. (Hm, die Lösung des GA's ist richtig aber zu komplex, basteln wir ockhams razor dazu, da wird die Lösung einfacher *kopf->tisch*).

Ich weiß was KI Forscher den ganzen Tag machen, Sie schreiben an Lustigen Gleichungen die man nur auf 0.0001% (auf deutsch, eine Minderheit) auf die Probleme einer Problemklasse (Bilderkennung, Gesichtserkennung, Spracherkennung usw.) anwenden kann, schafft zwar Arbeitsplätze für schlaue Menschen aber es bringt nix vorran(da es spezielle Problemlösungen sind welche nichts Astraieren/Generalisieren).

e-Laurin schrieb:
Entscheidungsproblem

Bitte nen es doch anders, das erinnert mich immer an Theoretische Informatik ;) .


Was ganz anderes, wieso müssen Menschen eig. zur Arbeit fahren, man kann doch Bürotätigkeiten auch zuhause erledigen :/.
Sind die Ölreserven immernoch nicht genug aufgebraucht und gibt es desween nicht schon genug krieg?
 
Zuletzt bearbeitet:
Also wenn das Auto selbstständig zur Arbeit fährt und man derweil noch mal ein kleines Nickerchen machen könnte, ist das dann doch sehr reizvoll.

Mal sehen wo wir in 20 Jahren stehen.
 
Quonux schrieb:
Irgendwie schafft es das Gehirn aus den 50000 hoch 20 Kombinationsmöglichkeiten für einen Satz (mit 20 wörtern) die richtige Bedeutung rauszufinden.
DAS ist ein riesen Problem wie das Gehirn das schafft, und es ist auch (extreme, wenn es sowas gibt) Mustererkennung.
Auf andere Reizarten und Assoziationsmöglichkeiten gehe ich nicht ein, da es ein anschauliches Beispiel imho war.
Ich meine hier wirklich Mustererkennung im engeren Sinne, nicht wie man in der KI bald fast alles als Mustererkennung bezeichnet. Es ging um das ganz konkrete Beispiel von Schattenformen die man versucht zu interpretieren, und zwar in kurzer Zeit. Da reagiert man instinktiv, und probiert nicht viele Alternativen aus. Das meinte ich.
Computerlinguistik ist auf einer ganz anderen, viel abstrakteren Ebene, wo mehr als nur Mustererkennung (im eigentlichen Sinne) passiert.
Dass das Gehirn und die menschliche Wahrnehmung eine beachtliche Leistung ist bestreite ich nicht. Es ist sehr faszinierend :) Aber es hat auch keinen Sinn zu leugnen dass gewisse Sachen recht simpel funktionieren, gerade im Bereich von Reiz-Reflex-Schleifen.

Quonux schrieb:
Narrow AI -> müll.
Deiner Meinung. Siehe oben. Ich sprach von einem konkreten Problem um zu sagen dass in dem Bereich der Mensch nicht so beeindruckend ist, nicht der gesamten oder gar der KI die für Autos nötig ist. Wir reden hier aneinander vorbei :)


Quonux schrieb:
Man sollte lieber an Systeme basteln welche Systeme designen können, es gibt schon experimente dergleichen (war irgend was mit Genetischen Algorithmen, finde den link jetzt nicht).
Interessant. Irgendwelche konkreteren Hinweise zu Quellen?
Ergänzung ()

e-Laurin schrieb:
> das klassische Vase/Gesichtproblem. So toll sind unsere Mustererkennungen durchaus nicht.
Immerhin erkennen wir überhaupt etwas. Ein Computer sieht da nur eine Linie oder im schlechtesten Fall nur eine Menge von Punkten/Pixeln.
Würde man ihn jetzt so programmieren, dass er die Linie interpretieren soll, kommt er nicht nur auf Vase und Gesicht sondern wahrscheinlich auch auf tausende andere Dinge. Und dann steht er vor dem Entscheidungsproblem: Er hat tausende Lösungen, welche ist jetzt die richtige?
Er kann auch Blobs erkennen die eine gewisse Form haben. Z.b. als parametrisierte Kurve approximierbar. Da kann man dann mit Geometrie Ähnlichkeiten berechnen oder nach Formenklassen kategorisieren. Eventuell sind da auch Fraktale hilfreich um höhere Zusammenhänge wie Komplexität zu erkennen (natürlichen Ursprungs oder nicht) etc.
Für den konkreten Fall würde es aber wie bei Buchstaben/Texterkennung ausreichen die möglichen/wahrscheinlichen Formen zu erkennen. Ich denke nicht dass die reine Formenerkennung ein wirklich großes Problem ist. Was man dann tut, also Planung, ist eine andere Frage.


e-Laurin schrieb:
Frei nach Ockhams Rasiermesser? Das wäre eine Möglichkeit das Problem zu lösen. Es gibt aber noch dutzende andere, wie zB dein informiertes Raten. Welcher ist das beste für einen Autofahrer? Gibt es überhaupt den perfekten Algorithmus für das Problem? Kann es überhaupt den perfekten Algorithmus für diese Klasse von Problemen geben?
Das sind in der KI-Forschung noch immer unbeantwortete Fragen.
Einen perfekten Algorithmus kann es kaum geben, da es Probleme gibt die inhärent mehrdeutig interpretierbar sind. Manchmal schlicht aufgrund der Reduktion der Auflösung oder Informationskompression. Einfaches Beispiel ist Arithmetik: 6 = 3 + 3 = 4 + 2 = 2 + 2 + 2 etc. Wenn man nur noch die Kompression sieht, also 6, weiß man nicht was wirklich dahinter steckt, also welche Zahlen summiert wurden um 6 zu erhalten (wenn man annimmt dass 6 durch eine Summierung entstanden ist und nicht etwa durch Multiplikation).
Das kann man analog auf das Sehen übertragen, wo ein Auflösungsverlust/zu geringe Auflösung Sachen unwiederbringlich mehrdeutig macht. Kontextwissen kann helfen, aber auch nur begrenzt. Am Ende hofft man immer richtig zu liegen und korrigiert mit neuen Sensordaten die Vermutungen.
Ist so ähnlich wie bei Forschung. Welches Modell ist denn nun wirklich ein gutes und wahrscheinliches Modell. Das Kriterium hier ist peer-review, und Konsistenzprüfung/Widerspruchsfreiheit der Informationen. Ist dies nicht eindeutig klärbar wird nach neuen Beobachtungen/Forschung gerufen. Bis dorthin wird, meiner Meinung nach falsch aber nachvollziehbar, der Mehrheitsmeinung/bisher etablierten Meinung vertraut.
Eine andere Variante ist die pessimistische/konservative Annahme zu verwenden. Wenn ich nicht klar entscheiden kann was ich sehe, muss ich davon ausgehen dass jemand auf der Straße läuft und mich vorsichtig verhalten.
Ich glaube diese Systeme die auf Logik und Regelableitung basieren sind zu scharf und definieren keine Prioritäten weil sie nicht natürlich gewachsen, sondern gelernt/definiert sind.
Gewichte entstehen durch Erfahrung, Risikobewertung, vielleicht genetische Festlegungen. Es gibt ja auch beim Menschen die Schockstarre oder Angst wo man nicht weiß was man tun soll.
Man muss sich von der perfekten Lösung trennen dann ist das Problem deutlich einfacher und vorallem ehrlicher. Zu theoretische Betrachtung mit zu wenig Beobachtung was man denn in der Wirklichkeit tatsächlich tut ist das Problem. In Wahrheit haben wir einfach Glück dass doch vieles im Verkehr relativ vorhersagbar ist.


e-Laurin schrieb:
> Ähnlichkeitsfunktionen definieren, Lookuptable, wahrscheinlichsten Treffer raussuchen.
Also ist ein Baye'sches Netz die beste Lösung? (So wie du es beschreibst, scheinst du ein BN zu meinen.)
Was ist, wenn zwei Treffer die gleiche Ähnlichkeit bzw. Wahrscheinlichkeit haben, aber unterschiedliche Reaktionen erfordern? Und damit landen wir wieder beim Entscheidungsproblem.
War wirklich sehr grob beschrieben ohne an einen konkreten Algorithmus zu denken. Im Wesentlichen wollte ich ausdrücken dass man da nach Anwendung einer Art von Unschärfefilter, vergleicht mit Bekanntem und "nur noch" Assoziationskett/pfaden folgen muss. Welche Filter gewählt werden wird durch initiale Reize ausgewählt und durch Training bestimmt/gewichtet. Wohlgemerkt, nur für diese wirklich schnellen Reiz-Reaktions-Schleifen. (Ist das jetzt ein gefährlicher Schatten der im Weg ist oder kann es ignoriert werden?) Dabei macht man natürlich Fehler, aber es scheint mir bei Menschen grob so abzulaufen.
Bayes'sche Netze hätten keinen konkreten Unschärfefilter, sondern sind im wesentlichen wie NN eine Black Box, wo man nur Stellschrauben verändert bis es häufig genug Treffer gibt. Implizit gibt es wohl auch Unschärfefilter, aber wie Datenstrukturen auch einen Unterschied machen was Performance angeht, wenn auch das Interface das gleiche ist, so werden wohl Algorithmen die anders strukturiert sind auch andere Effekte haben.

e-Laurin schrieb:
> Gerade solche Aufgaben wo es um Entscheiden und schnelles Reagieren geht, braucht man kein großes Lernen, sondern sinnvolle Wissensanwendung.
Wie schon geschrieben, das Entscheidungsproblem ist nicht gelöst. Man kann es bisher nur in Spezialfällen lösen. Für das Autofahren brauchen wir einen allgemeineren Lösungsalgorithmus.
Einfache Reiz-Reaktions-Schleifen reichen da nicht aus, aber sie gibt es, und diese sind beim Menschen auch nicht so faszinierend.
Insgesamt ist Autofahren natürlich kein triviales Problem in der KI.
Andererseits frage ich mich ob man da nicht trotzdem im wesentlichen mit etwas Mustererkennung (Objekttyp, 3D Objektform), Parametrisieren (durch Sensorfeedback) und Verketten von Aktionsbausteinen auskommt wenn man vergleichbar gut wie ein Mensch fahren will (und nicht die optimale Lösung sucht).

Man kann auch noch typische Verhaltensweisen detektieren, wo man ahnt was ein Fahrer bald machen wird. Das könnte man einfach als zusätzliche Sensorsignal nehmen und mit den anderen fusionieren.

Was am Ende entscheidet was optimal ist und was in welcher Gewichtung einfließt ist für allgemeine KI schwierig, aber wenn man sich selbst beobachtet führt man als erfahrener Fahrer eher Kochrezepte leicht angepasst aus. Als Lernender denkt man da tatsächlich anders, aber braucht man das hier?
 
Zuletzt bearbeitet:
Siehe http://www.fraunhofer.de/en/press/research-news/2010/11/euromold-genetic-robots.html
Ok gut ich habe den Roboter als System bezeichnet, man kann Theoretisch auch größere Systeme (Schaltungen, Konstruktionen, SW?) auf die Art Designen lassen. Hat ein riesen riesen Potenzial.

Imho kann man auch ein nicht narrow-AI System nehmen und das Vorgehen "pimpen" (pimp my algorithm so zu sagen xD).

Was mir dazu einfällt was auch mit in die "Systeme designen Systeme" kategorie reinfällt ist Moses aus dem open-Cog System (benutzt im kern keinen GA aber Bayes Netze zusammen mit einem recht guten Steuerungsalgorithmus der so ähnlich wirkt wie ein GA Algorithmus, nur anders [bei interesse einfach im Open-Cog wiki gucken, gibts auch nen Paper und und und])

Ja ich reite auf dem Unterschied zwischen narrow/strong AI rum, man möge mir verzeihen :) .
 
Quonux schrieb:
Ach hör doch bitte auf mit dem Blödsinn (musste sein).
Es kommt mir so vor als wie wenn die KI Menschen Ockhams razor nehmen wenn die Komplexität der Lösungen ins unendliche geht. Meine Meinung dazu ist einfach dass es schlecht ist, das sollte sich alleine aus der Theorie ergeben (NARS ist ein tolles Beispiel, andere Fallen mir nicht ein) und nicht "dazu gebastelt" werden. (Hm, die Lösung des GA's ist richtig aber zu komplex, basteln wir ockhams razor dazu, da wird die Lösung einfacher *kopf->tisch*).
Das war mein Kommentar auf denglisch' Idee, die simpelste Lösung bevorzugt zu verwenden. Es entspricht Ockhams Rasiermesser. Hast du da jetzt etwas anderes hineininterpretiert?


Quonux schrieb:
Bitte nen es doch anders, das erinnert mich immer an Theoretische Informatik ;) .
Ich kann nix dafür. Meine letzte Vorlesung war im Fach Theoretische Informatik. ^^
Ist dir das Wort "unerfüllbar" lieber? ;)



denglisch schrieb:
Er kann auch Blobs erkennen die eine gewisse Form haben.[...]
Wir reden hier aneinander vorbei. Es ging mir jetzt nicht darum, wie man Formen erkennt, sondern was er machen soll, wenn er mehrere passende Interpretationen für die Form gefunden hat.


denglisch schrieb:
Welches Modell ist denn nun wirklich ein gutes und wahrscheinliches Modell. Das Kriterium hier ist peer-review, und Konsistenzprüfung/Widerspruchsfreiheit der Informationen. Ist dies nicht eindeutig klärbar wird nach neuen Beobachtungen/Forschung gerufen. Bis dorthin wird, meiner Meinung nach falsch aber nachvollziehbar, der Mehrheitsmeinung/bisher etablierten Meinung vertraut.
Ui, das ist aber eine ganz schwierige Sache. Wem soll der Computer vertrauen: Seinen Sensoren oder seiner Datenbank? Diese Frage ist gar nicht so einfach zu beantworten.
Wir stehen hier wieder vor dem Entscheidungsprob... äh... verdammt, das darf ich nicht mehr sagen. ^^
Insgesamt finde ich diesen Ansatz nicht so gut. Der klingt nämlich nach: "Ich habe keine Ahnung, was da auf der Straße liegt, also ignoriere ich es und fahre weiter wie gehabt."


denglisch schrieb:
War wirklich sehr grob beschrieben ohne an einen konkreten Algorithmus zu denken. Im Wesentlichen wollte ich ausdrücken dass man da nach Anwendung einer Art von Unschärfefilter, vergleicht mit Bekanntem und "nur noch" Assoziationskett/pfaden folgen muss.
Genau das kann man mit Bayes'schen Netzen machen.
Ein semantisches Netz mit einer ALC-Sprache mit probabilistischer Erweiterung (mein Prof. hat zu letzterem seine Doktorarbeit geschrieben) wäre eine weitere Möglichkeit. Da muss man erst mal schauen, was sich hier besser eignet bzw. allgemeiner ist.


denglisch schrieb:
Andererseits frage ich mich ob man da nicht trotzdem im wesentlichen mit etwas Mustererkennung (Objekttyp, 3D Objektform), Parametrisieren (durch Sensorfeedback) und Verketten von Aktionsbausteinen auskommt wenn man vergleichbar gut wie ein Mensch fahren will (und nicht die optimale Lösung sucht).
Wenn du eine KI haben willst, die nur so gut wie der Mensch ist, wozu braucht man dann die KI? Man will doch ein System haben, das besser als der Mensch ist.
 
Zurück
Oben