News Autonomes Fahren: Tesla entwickelt eigenen AI-Chip mit AMD-Technologie

GrooveXT schrieb:
Vorerst sind intelligente Algorithmen wie Sprach- oder Bilderkennung wesentlich lukrativer für Unternehmen und damit es sich besser verkaufen lässt schreiben wir wie gesagt KI drauf, fertig.

Das ist doch Quark.
Sowohl Enzyklopädien als auch die Wissenschaft selbst definiert künstliche Intelligenz - mehrheitlich Teilgebiet der Informatik - primär zunächst nur als automatisierte Mimesis intelligenten Verhaltens, d.h. als Lösungsansatz, welcher für ein gegebenes Problem per Imitation intelligenten Verhaltens möglichst selbstständig eine zufriedenstellende Lösung findet.

Selbst Suchalgorithmen und Heuristiken fallen schon in diese Definition. Das der gemeine Forennutzer als Problemstellung nun beispielsweise nicht die Navigation innerhalb eines Graphen ansieht (sondern eines der komplexesten Probleme überhaupt: Kognition auf menschlichem Niveau), ist weder Problem der Medien, noch der Wissenschaft, noch der Definition.

Die modernsten topics innerhalb von AI sind mittlerweile machine learning (maschinelles Lernen) und neuroscience (wobei letzteres - zusammen mit der Neuroinformatik - wirklich an dem Verständnis und letztendlich der Nachbildung biologischer Neurone forscht. Das tut ersteres nicht: machine learning setzt sich damit auseinander, wie man überhaupt maschinell automatisiert komplexe Problemstellungen lernt & bearbeitet. Also die beste Lösung mit Maschinen finden, nicht möglichst komplexe, biologische Systeme "1:1 nachbauen").
Das meiste, worüber man dieser Tage in den Massenmedien liest, ist machine learning - was auf das Gebiet "applied AI" oder zu deutsch häufig "schwache KI" entfällt.
Innerhalb dieser Disziplin wiederum sind künstliche neuronale Netze seit einiger Zeit die vielversprechendste Lösung für komplexe Probleme.
Oder mittlerweile noch präziser: deep learning -> der neuste Bereich innerhalb von machine learning und zugleich der, der die qualitativsten Ergebnisse produziert (und sich ausschließlich um künstliche, neuronale Netze kümmert, da diese alle anderen Lösungsansätze verdrängt haben).

Das was ihr hier häufig ansprecht ist nur eine Teildisziplin von künstlicher Intelligenz und ein ganz anderes Forschungsfeld, nämlich das der "starken KI" oder mittlerweile korrekter "artificial general intelligence" bzw. wovor "die Masse" (Elon Musk inkludiert) "Angst" haben die Definition der "Superintelligenz".



GrooveXT schrieb:
Es sind nach wie vor Algorithmen nur das sie halt meist jetzt auf einer neuralen Strukturen laufen, aber ausser das sie ineffizienter als zuvor arbeiten kommt da noch nichts bei rum.

Gerade das ist eben nicht der Fall.
Die Zeitkomplexität von künstlichen neuronalen Netzen ist zwar aufgrund ihrer komplexen Natur für aktuelle Rechnersysteme höher als bei herkömmlichen Lösungsansätzen, etwa aus dem Bereich computer vision, aber das liegt
(a) zu einem großen Teil auch daran, dass selbst GPUs nicht darauf ausgelegt sind parallele Rechenmonster für massive mathematischen Berechnungen, größtenteils aus dem Gebiet der linearen Algebra, zu sein (deshalb integriert NVIDIA in Volta ja z.B. die Tensor-Cores, um GPUs für künstliche, neuronale Netze zu optimieren)
und
(b) daran, dass es nun mal keine einfache Lösung für komplexe Problemstellungen gibt.

Sie laufen also mitnichten "ineffizienter"; denn es gibt gar keine anderen Lösungen, die die gleichen Problemstellungen überhaupt vergleichbar zufriedenstellend lösen könnten. Im Bereich computer vision hat das ganze ja beispielsweise mit classification bzw. recognition angefangen, wo (deep) convolutional neural networks seit Jahren alle anderen vorherigen Lösungen - und mittlerweile sogar Menschen - outperformen (Microsoft, Google Beat Humans at Image Recognition).

Ebenso sind künstliche, neuronale Netze auch kein Algorithmus im herkömmlichen Sinne, sondern vielmehr komplexe, mathematische Systeme. Einzelne Teilschritte kann man zwar algorithmisch beschreiben, aber in der Gesamtheit ist der ganze Witz von neural networks ja gerade, dass man eben kein fixes Schemata - wie bei einem Algorithmus - vorgibt. Damit sind nämlich viele, komplexe Problemstellungen und genau nicht lösbar.

Für einzelne Teilprobleme - etwa Gesichtserkennung - hat man im Bereich computer vision Lösungen gefunden, aber gesamtheitlich gibt es keine "standard algorithms", mit denen du z.B. Objekte detektieren kannst. Selbst z.B. mit modernen saliency map Lösungsansätzen kombiniert man dies heutzutage immer mit einem (neuronalen) classifier, weil man ansonsten mit sehr hoher Genauigkeit gar nicht feststellen könnte, was man denn da eigentlich detektiert hat.
 
Zuletzt bearbeitet:
ascer schrieb:
Ebenso sind künstliche, neuronale Netze auch kein Algorithmus im herkömmlichen Sinne, sondern vielmehr komplexe, mathematische Systeme. Einzelne Teilschritte kann man zwar algorithmisch beschreiben, aber in der Gesamtheit ist der ganze Witz von neural networks ja gerade, dass man eben kein fixes Schemata - wie bei einem Algorithmus - vorgibt.

Ohne Algorithmus gibt es auch keine Implementierung in einem Computerprogramm. Wie auch sonst sollte man ein neuronales Netz z.B. in Python realisieren, wenn nicht durch einen Algorithmus? Die Mathematik dahinter ist auch nicht besonders komplex.

Der Witz ist ja, dass es sehr wohl ein fixes Schema gibt. Deswegen auch, wie ich in einem anderen Beitrag schrieb, der seit Jahrzehnten erfolglos betriebene Versuch, die "menschliche Kognition" zu naturalisieren, sie also durch einen Algorithmus zu realisieren. Nur dann wäre es auch möglich, eine "starke KI" mit den herkömmlichen Mitteln zu realisieren. (Das ist eng mit dem Glauben verbunden, dass es sich bei unserem phänomenalen Erleben nur um ein Epiphänomen handelt... es gibt auch Physiker, die glauben, dass das Universum ein riesiger Quantencomputer ist... das Verwechseln der Landkarte mit der Landschaft gibt es in vielen Variationen - aber das ist ein anderes Thema.)
 
Zuletzt bearbeitet:
calluna schrieb:
Ohne Algorithmus gibt es auch keine Implementierung in einem Computerprogramm. Wie auch sonst sollte man ein neuronales Netz z.B. in Python realisieren, wenn nicht durch einen Algorithmus?

Ein Algorithmus ist eine fixe Definition endlich vieler, wohldefinierter Aktionen die bei einer bestimmten Klasse von Problemen, also bei genau parametrisierter Eingabe, das Problem zu einer Lösung überführt.

Die Aktionen müssen darüber hinaus in vielen Definitionen Einzelschritte sein, sodass jeder dieser Einzelschritte der Ausführbarkeit genügt - also in sich anwendbar und reproduzierbar.

Das trifft auf ein neuronales Netz nur dann zu, wenn du von einem fertig trainiertem Netz ausgehst, an dem du nichts mehr änderst und das du demnach lediglich nur benutzt. Dann - und nur dann - gibt es eine endliche Anzahl mathematischer Operationen die bei gegebenem, parametrisiertem Input zu einem definierbarem Output führen.
Diese Sicht würde ich aber nicht teilen, denn die Komplexität (und damit auch die Kunst) - um ein einfaches Beispiel zu nennen - liegt ja nicht darin, Windows fertig vorinstalliert zu nutzen, sondern Windows als OS in seiner Gesamtheit überhaupt erstmal zu entwickeln.

Genau dann verlässt ein neuronales Netz nämlich sofort die Definition eines Algorithmus. Vom Algorithmus abgrenzen kann man ja sogar schon die Heuristik, welche ihrerseits auf möglicherweise sogar unvollständigem Input schlicht versucht ein möglichst qualitatives, also möglichst wahrscheinliches Ergebnis zu erzeugen (im Gegensatz zum optimalen, wohldefinierten Ergebnis).

Auf neuronale Netze trifft das noch deutlicher zu. Für ein gegebenes Problem - beispielsweise Straßenschilder korrekt zu detektieren und zu klassifizieren - kann dir niemand sagen, geschweigedenn als Algorithmus formulieren, wie tief dein Netz sein sollte, wie viele Neuronen es braucht, welche Teilnetze wie reguliert werden sollten, ob eine Normalisierung von Teilnetzen vorteilhaft wäre, welche Transferfunktionen verwendet werden sollten etc. pp. und vor allem nicht, wie man das neuronale Netz zielführend trainiert (und das ist der schwierigste Part).

Spoileralert: das ist der Gegenstand aktueller Forschung im Bereich machine learning; auszuarbeiten welche Modelle & Techniken für bestimmte Probleme und Lösungen zielführend sind. Es bedarf außerordentlicher empirischer Evaluation, um robuste, qualitative neuronale Netze zu entwickeln.
Wenn da jemand einen Algorithmus finden würde, mit dem man für gegebene Problemdomänen adäquate neuronale Netze entwerfen & trainieren könnte (die also die spezifizierte Aufgabe möglichst schnell, möglichst platzsparend und vor allem möglichst robust & qualitativ lösen), dann wäre das der größte Durchbruch in der KI-Forschung seit bestimmt einem Jahrzehnt, denn dann könnte man jedwedes Problem mit diesem Algorithmus angehen und zielführend entsprechende neuronale Netze gemäß des Algorithmus entwickeln, um die Probleme zu lösen. Derartiges gibt es bis dato nicht.


Deshalb schrieb ich im Übrigen auch:

Ebenso sind künstliche, neuronale Netze auch kein Algorithmus im herkömmlichen Sinne, sondern vielmehr komplexe, mathematische Systeme.

Teilprobleme sind natürlich als Algorithmus formulierbar, beispielsweise - gegeben ein konkretes, instanziertes Netz - die Evaluation einer bestimmten Fehlerfunktion für bestimmten Output erzeugt durch bestimmten Input...aber die Entwicklung, Anpassung und das Training neuronaler Netze in seiner Gesamtheit ist bisher nicht als Algorithmus abbildbar. Dafür sind die Vorgänge - bisher - zu komplex.



calluna schrieb:
Die Mathematik dahinter ist auch nicht besonders komplex.

Ich kann nicht erkennen, wie du zu diesem Schluss kommen kannst?
Die zugrundeliegende Mathematik ist äußerst komplex - es sei denn du gehst jetzt von einem min. durchschnittlichen, promovierten Mathematiker aus.



calluna schrieb:
Der Witz ist ja, dass es sehr wohl ein fixes Schema gibt. Deswegen auch, wie ich in einem anderen Beitrag schrieb, der seit Jahrzehnten erfolglos betriebene Versuch, die "menschliche Kognition" zu naturalisieren, sie also durch einen Algorithmus zu realisieren. Nur dann wäre es auch möglich, eine "starke KI" mit den herkömmlichen Mitteln zu realisieren. (Das ist eng mit dem Glauben verbunden, dass es sich bei unserem phänomenalen Erleben nur um ein Epiphänomen handelt... es gibt auch Physiker, die glauben, dass das Universum ein riesiger Quantencomputer ist... das Verwechseln der Landkarte mit der Landschaft gibt es in vielen Variationen - aber das ist ein anderes Thema.)

Also bzgl. "erfolglos" würde ich widersprechen. Auch wenn gemessen am Gesamtfortschritt der Erfolg bisher sehr klein ist, gibt es durchaus Dinge, die im Bereich neuroscience zu Fortschritten führten und grob aus dem Bereich KI / Neuroinformatik kamen. Beispielsweise kann man spiky neural networks in Schichten organisieren für Objekterkennung, die sich zum Lösen der Aufgabenstellung ähnlich organisieren wie die Bereiche V1 und V2 im menschlichem Gehirn, sodass man Analogien ziehen konnte. Selbstredend gibt es aber bisher nur diese sehr kleinen Fortschritte. Das liegt imho aber nicht an der "Unmöglichkeit" der Aufgabe, sondern vielmehr an der Komplexität der Aufgabe: abgesehen vielleicht vom Universium selbst, also den kompliziertesten Vorgängen im Makro- und Mikrokosmos, wäre mir nichts komplexeres bekannt als das meschliche Gehirn. Dementsprechend ist das eine Aufgabe für (viele) Generationen. Da kann man nicht in Jahrzehnten denken.

Primär ist es auch deshalb so schwierig, weil das menschliche Gehirn genau so einen "alles vereinenden" Lernalgorithmus zu haben scheint: wenn z.B. Tumorpatienten eine Gehirnhälfte entfernt wird, dann ist abhängig vom Alter und des grundlegenden genetischen Potentials des Patienten die verbleibende Gehirnhälfte ja in der Lage, bestimmte Funktionen zu erlernen, also zu übernehmen.
Bei Mäusen hat man - da war unter anderem auch meine Uni mal in einer Studie mit dran beteiligt - das ebenfalls verifiziert, indem man etwa ihr Hörnerven durchtrennte, die primär für das Hören verantwortlichen Bereiche der Gehirns explantierte und es dann wieder heilen ließ. Nach einiger Zeit übernahmen bei den meisten Mäusen dann andere Gehirnareala das Hören - sie lernten es also. Das zeigt, dass biologische Neurone - bis zu einem gewissen Grad unabhängig von ihrer Spezialisierung - beliebige Aufgaben lernen können.

Derartiges ist hochkomplex und im Bereich KI bisher unerreicht. Ein künstliches neuronales Netz wird für eine bestimmte Domäne entwickelt - etwa Objektdetektion, also z.B. eben Straßenschildern zu finden und zu klassifizieren - und kann dann auch nur dort für parametrisierten Input genutzt werden.
 
Zuletzt bearbeitet:
@ascer

Wenn ich von "menschlicher Kognition" spreche, dann meine ich nicht die grundlegende Schicht visueller oder auditiver Wahrnehmung, die wir vermutlich mit mindestens allen Säugetieren gleich haben und die überwiegend ohne begleitendes Bewusstsein abläuft, sondern das, worin sich Primaten und Menschen ab etwa dem 9-10 Monat unterscheiden, z.B. der "geteilten Aufmerksamkeit" (*), auf der dann die gesamte Sprachentwicklung aufbaut, die vor allem durch Motivationen und Affekte organisiert wird - dieser Aspekt fehlt vollständig im Projekt der "Naturalisierung des Geistes". Dort wird z.B. menschliche Sprache als System aufgefasst, obwohl sie es in ihren Grundlagen anscheinend gar nicht ist. Und wenn Affekte grundlegend an der Selbststrukturierung des Gehirns beteiligt sind, dann gehört dazu auch ein ganz bestimmter Körper, der in eine Umwelt eingebettet ist. (* Die Forschung von Michael Tomasello, einem Direktor am Max Planck Institut für Evolutionäre Anthropologie, der an Primaten und Säuglingen forscht, führte zu diesem Ergebnis.)

Damit ist natürlich nicht gesagt, dass wir dies nicht eines Tages verstehen werden. Aber man sollte sich bewusst sein, dass es da gewisse Grundannahmen gibt, die dem Funktionalismus aus der Philosophie (Hilary Putnam) entlehnt sind.

...

Was künstliche neuronale Netze und ihre Implementierung betrifft... da reden wir aneinander vorbei. Ich meine keinen Algorithmus, der verschiedene Ordnungen des Lernens abdeckt und neuronale Netze für verschiedene Problemstellungen entwirft.
Ich meinte ein konkretes neuronales Netz, welches für eine bestimmte Problemkategorie entworfen und getestet wurde, wie z.B. den Einsatz von neuronalen Netzen in Geldautomaten, die dadurch anhand des Nutzungsverhaltnes lernen, mit wie viel Geld sie bestückt werden müssen. Und deine Aussage stimmt deswegen eben nicht, dass die Definition des Algorithmus nur auf die Benutzung eines trainierten Netzes zutrifft - das Training gehört ebenso dazu. Du hast anscheinend an dieser Stelle nur etwas zu weit gegriffen und an sehr komplexe Probleme gedacht. Aber neuronale Netze werden für viele Problemstellungen in der Industrie verwendet, nicht nur zur Erkennung von Sprache oder Gesichtern.
 
Zuletzt bearbeitet:
Piep00 schrieb:
Geil, Keller und AMD arbeiten bei Tesla wieder zusammen. Heißt im Umkehrschluss, dass der Sweetpot bei 130 km/h liegt, er aber nie schneller als 200 km/h fährt. Und wenn, dann nur mit Stickstoffkühlung! :-D
Irgendwie wusste ich es, dass keine 2 Seiten bis zum ersten Trollposting vergehen werden... ^^

Im übrigen ist dieser Bericht "Fakenews" wie man heutzutage so schön sagt.
http://www.reuters.com/article/us-t...mitment-from-tesla-on-chip-deal-idUSKCN1BW259
 
Eine sehr dumme Meldung con computerbase. Alles längst dementiert. So geht Toilettenpapier-Journalismus.
 
Eine sehr dumme Art solche Sprüche 3,5 Tage nach erscheinen der News vom Stapel zu lassen.
 
dann schreibst dem zuständigen Redakteur. Immer noch besser als hier so rumzustänkern.
 
Zurück
Oben