News Snapdragon 855: Qualcomm kündigt 5G-fähiges SoC mit mehr KI-Leistung an

Naja, wie immer halt. Schneller, besser usw., das 5G Modem ist optional, das war vorher schon bekannt. Gut das der 3D Fingerabdruckscanner endlich marktreif ist.
 
  • Gefällt mir
Reaktionen: Mister79
@leipziger1979 :
Als die erste Buchveröffentlichung mit Kritik am Zeitungswesen gilt die 1676 in Jena erschienene Schrift Discursus de novellarum, quas vocant Newe Zeitungen, hodierno usu et abusu (dt. „Diskurs über den Gebrauch und Mißbrauch von Nachrichten, die man Newe Zeitungen nennt“) des Dichters, Rechtsgelehrten und Hofkanzlers Ashaver Fritsch. In diesem Pamphlet polemisierte Fritsch gegen die „Zeitungssucht“ und „eitles, unnötiges, unzeitiges und daher arbeitsstörendes, mit unersättlicher Begierde getriebenes Zeitungslesen“.
QUELLE

Immer diese Jugend mit ihren sinnlosen Beschaeftigungen!
KI wird fuer immer mehr Bereiche genutzt, das hat mit "dummen Usern" nicht mehr viel zu tun. Es wundert mich, dass in einem Computerforum erwaehnen zu muessen.
 
  • Gefällt mir
Reaktionen: Xidus, Hayda Ministral, kado und 2 andere
Hauptsache die Mehrleistung geht nicht mit mehr Verlustleistung einher. Klingt wie immer alles sehr logisch und konsequent. :)
 
@Axxid
Vor gut 15 Jahren musste alles Smart werden. Was uns nicht alles in den ständigen Messenews als Smart verkauft wurde. Selbst mein TV soll Smart sein, aber davon merke ich nix.
Ist nur ein dummes OS drauf und man klickt auf der Fernbedienung rum wie vorher.
Die Buzzwords ändern sich ständig, aber die Kacke bleibt die Gleiche.

Oder wo siehst du die "KI" im Alltag, oder welche Dinge kennst du allgemein, die KI nutzen?
Und dann schau bitte mal nach, was sich technisch dahinter wirklich versteckt. Ist bestimmt nur das alte Prinzip a 'la Hidden Markov und Co. Alles was heute z.B. im Smartphone in den Kameras als AI bezeichnet wird, ist simple Mustererkennung. Das gibt es schon seit Jahrzehnten und hat nichts mit AI zu tun.

Das erinnert mich alles an das hier: Thats not AI.

Und vergesst nicht Nimm2 zu essen, wegen den Vitaminen.
Und wässert euren Rasen mit Gatorade, weil da sind Elektrolyte drin.
Derp.

Update:
Auch das hier ein lesenswerter Kommentar: Missing Link: Ein Plädoyer wider den KI-Populismus (heise)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derSafran, hroessler, v_ossi und 3 andere
@c2ash : Ein "Smart"-TV ist auch nach gelaeufigen Definitionen nur ein TV mit Internetzugriff. Mit "Smart" in Form von Intelligenz hat das nichts zu tun und nie etwas zu tun gehabt.
Im Grunde bleibt es bei Wortklauberei, was jetzt als KI/AI bezeichnet wird. Aber egal wie man es nennt: Es wird in immer mehr Bereichen genutzt um beispielsweise Muster oder Sprache zu erkennen und man benoetigt viel/spezielle Rechenleistung um es zu berechnen.
OK Google, Alexa und Siri sind nicht intelligent. Muessen aber heute noch auf Servern berechnet werden. Mit genuegend Leistung der "KI-Chips" koennen sie in Zukunft auch offline arbeiten. Klingt nach einem erstrebenswertem Ziel. Aber hier im Forum wird ja gerne jeder als hirnloser Idiot bezeichnet, der lieber Alexa nach dem Wetter fragt, als selber die App/Website aufzurufen.
 
  • Gefällt mir
Reaktionen: v_ossi und simzone5
Also nachdem ich von der Größe und Leistungsaufnahme gelesen habe, ist der separate 5G Chip derzeit unabhängig von der ohnehin nicht vorhandenen Verfügbarkeit, extrem uninteressant.
GPU Leistung ist mir auch relativ egal.

Aber mehr CPU Power bei weniger Stromverbrauch (7nm) und das neue Fingerabdruck Feature sind willkommen. :D
 
Zuletzt bearbeitet:
"Die KI-Leistung ist dreimal höher."
Und an anderer Stelle "die intelligent entscheidet, auf welches Subsystem sie die Aufgabenlast verteilen soll."

Also wird diese Entscheidung dreimal schneller getroffen? Huiiii...!

:daumen:
 
c2ash schrieb:
@Axxid
Vor gut 15 Jahren musste alles Smart werden.
c2ash schrieb:
Oder wo siehst du die "KI" im Alltag, oder welche Dinge kennst du allgemein, die KI nutzen?

KI ist doch längst im Alltag angekommen.
Jede Suche, etwa bei Google, ist schon seit langem mit KI umgesetzt. Mailfilter und -composing arbeiten mit KI. Nutzeranalyse in jedem größeren Shop, z.B. bei Amazon. Zuschaueranalysen bei Netflix, Amazon, HBO, ...
Übersetzungsdienste.
Spracherkennung.
Autonomes Fahren & moderne Assistenzsysteme.
Sicherheitsverfahren, z.B. bei PayPal. Oder auch ganz direkte Systeme, wie FaceID.
Lastverteilung, z.B. bei AWS, Discord & Co.
Jede Menge im Bereich Robotik.

Und dann natürlich, außerhalb von Deutschland, sehr viel Zeug, wo man den Service direkt mitbekommt. In China, Japan usw. z.B. Kantinen, bei denen keine Kassierer mehr setzen: man stellt das Tablett nur noch auf einen dafür vorgesehenen Platz, dann wird per Kamera und Gewichtssensor das Essen analysiert, automatisch abgebucht und, sofern gewünscht, entsprechende Nährwertinformationen angezeigt und/oder auf dein Smartphone übermittelt.

Immer mehr, selbst kleine Betriebe, steigern ihre Effizienz mit KI. Erst kürzlich hat ein lokaler Anbieter, ein kleiner Familienbetrieb aus Kalifornien, in einer der AI-Communities wo ich aktiv bin, einen Data Scientist gesucht für die Entwicklung von KI-Systemen, die automatisch potentielle Ausfälle ihrer Wasserpumpen voraussagen können.

Jeder moderne Dienst, der dir z.B. Text aus eingescannten PDFs einliest, insbesondere handgeschriebenen Text.

Sehr viele Services bei NVIDIA.

In der Chipfertigung wird mittlerweile die Güte von Chips nicht mehr durch Mitarbeiter, sondern automatisiert durch KIs geprüft.

In der Medizin wurden die ersten Erkennungssysteme lizensiert und werden jetzt eingesetzt, die z.B. Tumore präziser erkennen können, als ausgebildete, spezialisierte Onkologen.


c2ash schrieb:
Die Buzzwords ändern sich ständig, aber die Kacke bleibt die Gleiche.

Das ist definitiv nicht der Fall.


c2ash schrieb:
Ist bestimmt nur das alte Prinzip a 'la Hidden Markov und Co.

Du stellst also aus deinem Unwissen heraus Vermutungen an?

Es gibt jedes Jahr enorm viel neues auf dem KI-Gebiet. Auch wenn viele Systeme (noch) supervised trainiert werden, so sind dennoch die Modelle unglaublich viel komplexer geworden. Überall werkeln Deep Neural Networks. HMM hat man schon lange hinter sich gelassen. Und diverse, sehr neuartige Modelle laufen mittlerweile mit unsupervised oder reinforcement learning.


c2ash schrieb:
Alles was heute z.B. im Smartphone in den Kameras als AI bezeichnet wird, ist simple Mustererkennung. Das gibt es schon seit Jahrzehnten und hat nichts mit AI zu tun.

Das ist Mumpitz. Lies dir erstmal die Definition von KI (oder besser AI, da das englische Wikipedia ausführlicher ist) durch. Dann schau dir an, wie viele neue Verfahren man für die Konstruktion und das Training von neuronalen Netzen in den letzten 15+ Jahren entwickelt hat. Und dann melde dich wieder.
 
  • Gefällt mir
Reaktionen: LamaTux
@Axxid:
Exakt. Smart ist einfach nur ein Gerät mit Internetanschluss beim TV. Einfach nur Marketingbullshit.

Im Grunde bleibt es bei Wortklauberei, was jetzt als KI/AI bezeichnet wird. Aber egal wie man es nennt: Es wird in immer mehr Bereichen genutzt um beispielsweise Muster oder Sprache zu erkennen und man benoetigt viel/spezielle Rechenleistung um es zu berechnen.

Spracherkennungsoftware gibt es schon seit Jahrzehnten.
Diktiersoftware gab es schon in den neunzigern auf 486 und Pentium-Geräten. Also von großer Rechenpower ist da jetzt nicht die Rede.
Lies bitte den Kommentar in dem Heise-Artikel. Viele interpretieren gerne immer ihre Wünsche in Technologie rein, die nicht realisierbar ist.
Selbst DeepLearning ist nur das Training von einem Model. Und diese trainierten Modelle funktionieren für einen ganz begrenzten Einsatzzweck und auch nur eben für die trainierten Daten. Alles was an Inputdaten von den trainierten Daten abweicht, scheitert kläglich. Von Iintelligenz ist hier keine Rede. Es wird stur und ganz dumm ein trainiertes Modell durchlaufen. Das Computerprogramm hat keine Ahnung von dem was es wirklich beurteilt.

@ascer
Hier hast du Smart-Mailfilter und KI. LINK LINK2
Du hast zwar viele Firmen erwähnt, aber ich sehe da keine KI dahinter.
Da ist vieles doch ganz einfach nur ITTT.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hayda Ministral
Endlich kommt der Fingerabdrucksensor bei allen neuen High-End-Modellen direkt ins Display.

Jetzt nur noch ne schicke Lösung für das Front-Kamera-Problem und ich bin happy. Notch, bähh. Loch im Display finde ich auch nicht so prickelnd. Slider (wie xiaomi mi mix 3), muss auch nicht sein.
 
c2ash schrieb:
Du hast zwar viele Firmen erwähnt, aber ich sehe da keine KI dahinter.
Da ist vieles doch ganz einfach nur ITTT.

Lies mal die Definition von KI bzw., wie gesagt, besser die AI Definition auf Wikipedia (weil in Englisch, wie gesagt, ausführlicher).

Und unabhängig davon, setzen die alle, wie gesagt, KI ein. Keine Google Search und all die anderen Produkte/Services laufen ohne KI.


c2ash schrieb:
Selbst DeepLearning ist nur das Training von einem Model. Und diese trainierten Modelle funktionieren für einen ganz begrenzten Einsatzzweck und auch nur eben für die trainierten Daten.

Genau das ist es halt nicht.


c2ash schrieb:
Das Computerprogramm hat keine Ahnung von dem was es wirklich beurteilt.

Was du da beschreibst, wäre ein Bewusstsein. Das ist etwas völlig anderes als KI. Du meinst AGI, speziell den Abschnitt über Bewusstsein.
 
Das einzige was wirklich Smart ist ist Skynet 😁, mal sehen ob wir das wirklich hinbekommen, verdient hätten wir es 😉
 
MC´s schrieb:
wirklich Smart ist ist Skynet (...) verdient hätten wir es

Bisher deutet alles darauf hin, dass AGI machbar ist. Damit auch AGI auf übermenschlichem Niveau, also "Skynet".

Ich halte das Szenario, dass das in einer Apokalypse endet, aber für recht unwahrscheinlich. Jede Form höherer Intelligenz handelt effizient und entwickelt irgendeine Form von Ethik. Es birgt kaum Vorteile, einen Genozid zu intendieren oder gar zu vollenden, dafür aber bringt es aber gewaltige Risiken und Ressourcenaufwand.

Und unter ethischen Gesichtspunkten bemessen wir bewussten Lebewesen wie Affen oder Delphinen ja auch einen höheren Stellenwert, als etwa einer Ameise.
Selbst Ameisen löschen wir aber nicht vollständig zum Spaß aus.

Falls überhaupt ein negatives Szenario eintritt, wäre sowas wie in iRobot oder ein wohlwollender Herrscher wie in Transcendence imho viel wahrscheinlicher.
 
@ascer
Was ist DeepLearning dann, wenn es das nicht ist?

Die jüngsten Erfolge der KI, wie der Go-Turniergewinn des Programmes AlphaGo gegen die weltbesten menschlichen Spieler, gründen sich neben der gestiegenen Verarbeitungsgeschwindigkeit der Hardware auf den Einsatz von Deep Learning zum Training des in AlphaGo verwendeten neuronalen Netzes.

Das neuronale Netz ist auch eben nur ein trainiertes Modell. Die Art des Trainings des Modells ist unterschiedlich, aber schlussendlich arbeitet das auch nur auf dem berechneten Modell.
HMM und DNN -> LINK
Ich bleib dabei....same bullshit, different name. Raiders heißt jetzt Twix.

Aber ich warte gerne auf deine Erklärung, Begründung, Definition.
 
ascer schrieb:
Und unabhängig davon, setzen die alle, wie gesagt, KI ein.

Nein, tun sie nicht. Sie setzen wichtende Algorithmen ein und andere Algorithmen, die diese Wichtungen anhand von Trainingsdaten erstellen. Was cool ist und was Anwendungen ermöglicht die weit über das hinausgeht was mit klassischen Entscheidungsbäumen beherschbar wäre. Mit Intelligenz hat das aber genau so wenig zu tun wie es mit Schläue (im Kontext von SmartTV) zu tun hat einen Fernseher mit dem Internet zu verbinden.
 
ascer schrieb:
Und unabhängig davon, setzen die alle, wie gesagt, KI ein.
Hayda Ministral schrieb:
Nein, tun sie nicht.
c2ash schrieb:
Du hast zwar viele Firmen erwähnt, aber ich sehe da keine KI dahinter.

Die Definition von KI ist:
In computer science AI research is defined as the study of "intelligent agents": any device that perceives its environment and takes actions that maximize its chance of successfully achieving its goals.[1] Colloquially, the term "artificial intelligence" is applied when a machine mimics "cognitive" functions that humans associate with other human minds, such as "learning" and "problem solving".[2]

Es gibt natürlich noch mehr, aber alle Fachbücher gehen in genau diese - und nur diese - Richtung.

Ein agent muss dabei weder ein Bewusstsein, noch eine Selbstständigkeit über sein Aufgabengebiet hinaus besitzen. Die Imitation kognitiver Funktionen bedingt ferner nicht, dass sämtliche (oder gar mehr) Funktionen des Originals abgebildet werden. D.h. es ist vollkommen legitim, etwa ausschließlich Teile der visuellen Perzeption nachzubilden, um etwa eine Gesichtserkennung zu realisieren. Das ist per Definition KI.

Deshalb schrieb ich: lest euch die Definition von KI durch. Eine Allumfänglichkeit, die ihr hier postuliert, gibt es ausschließlich in Form von AGI (Artificial General Intelligence). Mitunter auch als "starke KI" betitelt. Dort definiert man höhere kognitive Ansprüche, ein Bewusstsein für ein Aufgabengebiet, sodass Aufgaben nicht nur gelöst, sondern auch verstanden werden müssen. D.h. man erwartet entweder empirisch beobachtbares Anwenden von Lösungsstrategien (selbstständig!) auf neue Probleme oder gar direkt ein Bewusstsein, dass - auf welche Art auch immer - die Lösungsstrategien kommunizieren kann.

Man kann sicherlich darüber streiten, dass die allgemeine Definition der KI etwas an dem Begriff Intelligenz "leidet", aber das liegt einzig daran, dass Begriffe wie "Intelligenz" selbst nicht gut definiert sind oder überhaupt verstanden werden. Den besten "Guess" für Intelligenz, den wir haben, sind empirisch reproduzierbare Tests von Fähigkeiten, die gewisse Lösungsstrategien erfordern: IQ-Tests.



c2ash schrieb:
Selbst DeepLearning ist nur das Training von einem Model.

Diese Teilaussage lässt sich auf alles anwenden, was mit Lernen zu tun hat. Selbst Menschen. Damit ist sie argumentativ hinfällig. Auch wenn wir heute noch nicht genau wissen, wie ein menschliches Gehirn lernt, so wissen wir dennoch mittlerweile von vielen Arealen, worauf sie sich spezialisieren und das bestimmte Verbindungen und Muster von Neuronen den Lernzustand eines Individuums modellieren.

Das einzige, was uns (bisher) von KI trennt, ist das wir (a) dauerhaft lernen, (b) über Automatismen für selektive Wahrnehmung verfügen, (c) sehr effizient und schnell lernen und (d) abhängig von der Genetik und Förderung sehr abstrakte Konzepte selbstständig modellieren können.
[ (c) und insbesondere (d) sind übrigens das einzige, was uns von den meisten Tieren unterscheidet ]



c2ash schrieb:
diese trainierten Modelle funktionieren für einen ganz begrenzten Einsatzzweck und auch nur eben für die trainierten Daten.

Das ist bei modernen Deep Learning Ansätzen eben gerade nicht der Fall; Stichwort: Generalisierung. Natürlich kannst du ein Modell für Gesichtserkennung (visuelle Perzeption) nicht einfach als Modell für den Gleichgewichtssinn eines Roboters (Motorik) hernehmen...aber das kannst du bei Menschen auch nicht: wenn durch einen Unfall sämtliche Areale der visuellen Perzeption beschädigt sind, dann bist du blind und kannst nicht auf einmal mit deinem Gleichgewichtssinn sehen.
[Das menschliche Gehirn kann sich zwar sehr stark anpassen, aber nur in bedingtem Rahmen: nicht zu alt, ausreichend Neuronen zur Neu-Organisation vorhanden usw.; wobei man KI-Modelle ja ebenfalls re-trainen kann, nur eben auch nicht beliebig -> eine weitere Gemeinsamkeit]

Der ganze Witz von Deep Learning ist ja, dass sehr, sehr komplexe Netzarchitekturen dazu in der Lage sind, zu generalisieren. Man evaluiert solche Modelle ja auch mit Testdaten, die per Definition neu sein müssen, d.h. Input, den das Modell nie zuvor gesehen hat.

Das geht heutzutage z.B. schon so weit, dass man nur wenige Tausend Bilder eines Objekts benötigt, um dieses Objekt in egal welcher Rotation und sehr unterschiedlichen Bewegungsrichtungen/-rotationen, Lichtverhältnissen, Wetter, ... wiederzuerkennen.

Anders wäre z.B. autonomes Fahren auch gar nicht lösbar: wenn du strikt auf deine Trainingsdaten optimierst und nicht darüber hinaus, dann müsste fast jede Straße, von vielen Positionen aus, von vielen Fahrzeugen, zu fast jeder Tageszeit, bei unterschiedlichen Wetterverhältnissen, ... aufgenommen und in das System gespeist werden.
Das wäre vom Ressourcenaufwand unmöglich.


Gegeben ausreichend Daten (irgendwann wird das ja quasi Auswendiglernen; eine schlichte, riesige Datenbank) könnte man jedes Problem lösen. Die Problematik ist ja gerade, dass es für die meisten Probleme unmöglich ist, so viele Daten zu sammeln. Der ganze Forschungsbereich im Deep Learning dreht sich also um Effizienz und Generalisierung: wie kann man möglichst akkurate, möglichst generalisierende Modelle mit vorhandenen und managebaren Datenmengen kreieren.

Niemand interessiert sich für deine Abhandlung, wenn deine Modelle zwar >99% accuracy erreichen (bei welchem Task auch immer), du dafür aber Milliarden an Trainingsdaten benötigst (da der Task dann trivial wird und solche Datenmengen in der Realität schlicht unmöglich für jede Problemstellung sammelbar sind).



c2ash schrieb:
Das Computerprogramm hat keine Ahnung von dem was es wirklich beurteilt.

Siehe AGI.
Mal ganz davon abgesehen, dass Babies, die fast alle Tiere, ..., auch keine konkrete Interpretation ihrer Umwelt haben, sondern lediglich lernen, welche Verhaltensweisen vorteilhaft sind.
 
Zuletzt bearbeitet:
@ascer

Deshalb schrieb ich: lest euch die Definition von KI durch.

Genau das ist eines der Probleme bei der Diskussion hier. Nur weil einige Firmen in der IT-Welt uralte und limitierte Techniken heute KI nennen, hat das noch lange nichts mit Intelligenz zu tun. In der IT-Welt lieben (fast) alle coole Buzzwords. Smart, Blockchain, IoT, Industrie 4.0, Crypto Currency, AI, Cyber etc.
Nur weil einige etwas für sich umdefinieren, mache ich da noch nicht mit.
Wenn etwas Bullshit ist, dann nenne ich es auch Bullshit. Mein gutes Recht. Buzzword-Hopping überlasse ich anderen.

Hier mal eine schöne Anekdote aus der Arbeitswelt von Fefe:
Ich hatte gerade ein lustiges Erlebnis. Ich sollte mir bei einem Kunden ein Modul angucken, das Analytics macht, um am Ende Geschäftszahlen vorhersagen zu können. In der Beschreibung stand was von Machine Learning. Ich war also ganz begeistert, dass ich mein Wissen aus der Neuronale-Netze-Vorlesung anwenden kann, und guckte durch den Code — und fand kein Machine Learning. Ich fand ganz normale Statistik. Bisschen Bayessche Statistik. Ich will das nicht kleinreden, das verwendet wahrscheinlich jeder von uns für seine Spamfilter. Aber unter Machine Learning hatte ich mir schöne neuronale Netze oder zumindest eine Boltzmann-Maschine vorgestellt.
Ich frage also den Kunden, was da los ist, und der meinte: Oh ja, das Marketing (also nicht deren Marketing jetzt, sondern das in der Branche allgemein!) hat vor ner Weile die Begriffe umbelegt. Machine Learning bedeutet heute, was man früher unter Statistik führte. Wenn du Machine Learning im früheren Sinn meinst, sagst du heute Deep Learning.

Informatiker unter euch werden wissen, dass Deep Learning ein Fachbegriff ist, der bereits für eine bestimmte Art von Trainingsverfahren für neuronale Netze belegt ist. Jedenfalls nicht der Gattungsbegriff für Machine Learning.

Da musste ich an Frank denken. Der hat mir nämlich neulich erzählt, dass er auf einer Konferenz war. Frank hat ja eine Firma gegründet, die verschlüsselnde Telefone bauen. Er fühlte sich also angesprochen, als da überall Crypto stand. Stellt sich raus: Crypto steht heute für Bitcoin und Blockchain. Wenn du echte Crypto meinst, heißt das heute Cyber.

Ich würde ja vorschlagen, die ganzen Marketing-Idioten rauszukanten, die uns hier unsere Fachbegriffe umbelegen, ohne das vorher oder das nachher verstanden zu haben.

Bei sowas stelle ich mir immer Aliens vor, die unsere Planeten beobachten. Um rauszufinden, ob sich First Contact lohnt. m(

Update: Ein Leser weist darauf hin, dass lineare Regression jetzt "AI equation" heißt m(

Update: Das war jetzt doof formuliert. Auf Bayes-Statistik beruhende Methoden fallen zumindest teilweise auch unter Machine Learning. Das wollte ich nicht in Abrede stellen.
Quelle


Das ist bei modernen Deep Learning Ansätzen eben gerade nicht der Fall; Stichwort: Generalisierung.
1. War genau ist bei dir Generalisierung. Hast du da auch eine tolle Definition aus dem KI-Bereich?
2. Was du in Ki als Generalisierung siehst, ist nichts anderes als Interpolation/Patternmatching mit Stochastik zwischen den Quell- und Zieldaten. Einen Teil davon macht ja selbst heute jeder TV, wenn man Frame-Interpolation anmacht. Da wird zwischen neuem und altem Bild ein Zwischenbild berechnet, welches eingefügt wird.
Trainierst du dein Model mit falschen Quelldaten, dann funktioniert da überhaupt nichts.
Die ganze KI ist nur so gut, wie die Quelldaten. Und sind die Quelldaten beschränkt, so sind auch die Ergebnisse beschränkt, weil das trainierte Modell einfach Müll ist.
Und genau DAS ist ein großes Problem. Bei visuellen Verfahren (DeepFakes) und Co, sieht man sofort, wenn einer mit grottigen Daten trainiert hat. Weil Gesichter von Personen kann der Mensch sehr gut erkennen und einschätzen. Aber bei komplexeren Themen (wie bei dem Link mit dem Mailfilter, das ich dir gepostet habe), weiß plötzlich keiner mehr wie das Model zu dem Entschluss kam, und genau das, bekommt man auch nicht mehr aus dem Modell heraus. Weil die heutigen Systeme das eben noch nicht ermöglichen. Baut man mit den Trainingsdaten auch nur ein wenig Mist (automatische Einlesen von Dokumenten etc, evtl. OCR-Fehler), dann hat das Folgen die keiner mehr nachverfolgen kann.

Und wenn die KI doch so tolle lernfähig ist und generalisieren kann, warum dauert es dann deiner Meinung nach so lange mit dem autonomen Fahren?? Das wird doch seit Jahren schon angepriesen. Woran hakt es denn, wenn diese KI so dolle generalisieren kann? Oder liegt es vielleicht daran, dass diese ganzen Anpreisungen ziemlich auf Sand gebaut wurden (weil es so autonom wohl doch nicht generel geht)!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hayda Ministral
c2ash schrieb:
Genau das ist eines der Probleme bei der Diskussion hier. Nur weil einige Firmen in der IT-Welt uralte und limitierte Techniken heute KI nennen, hat das noch lange nichts mit Intelligenz zu tun.

Die Problematik ist doch eher, dass du die Definition von KI nicht magst und/oder nicht kennst, zumindest keine wohlformulierte Version davon.

Insbesondere der Terminus "Intelligenz" in KI...
c2ash schrieb:
In der IT-Welt lieben (fast) alle coole Buzzwords.

...ist für dich nur ein Buzzword. Jedem sei seine Meinung gegönnt, aber diese Darstellung ist einfach per Definition falsch. Die Definition kommt auch nicht von irgendeinem Hipster-Unternehmen, sondern aus der Wissenschaft.

AI trat in der Wissenschaft als Begriff schon häufiger auf, aber die "Gründungsveranstaltung" war eine 1954 ausgerichtete Fachkonferenz vom Dartmouth College, die John McCarthy, einer der Gründungsväter, organisierte.

Nachfolgend in den 50-70er Jahren gab es mehrere Grundsatzbücher, die KI - vom wissenschaftlichen Standpunkt - so oder so ähnlich wie oben angegeben definieren. Nämlich als künstliche Entität, die in einer Umgebung (die ebenfalls künstlich sein kann) Beobachtungen anstellt und Handlungen vollziehen kann, die auf Erfüllung bestimmter Tasks ausgelegt sind. Also Effizienz, Optimierung oder ganz konkrete Aufgaben, die vorher nicht lösbar waren, wie Gesichtserkennung.
Das einzig andere Constraint war, dass die Lösung nicht vorgegeben, sondern gelernt ist. Und in den allermeisten Definitionen wird aus dem Bereich Neuroscience ebenfalls vorgegeben, dass es sich um intelligente Datenverarbeitung handeln muss, also nicht etwa reines "Auswendiglernen", sondern irgendwelche Lösungskonzepte erstellen, i.d.R. durch Abstraktion aus der Biologie.

Und genau das macht man dort auch. Wenn ein konkretes Problem, beispielsweise ein logisches XOR (i.d.R. die erste Aufgabe, die man Studenten bei neuronalen Netzen stellt, weil es von Hand auf Papier modellierbar ist), durch Auswendiglernen effizient lösbar ist, dann ist das nicht das Problem des Modells, sondern der Aufgabenstellung, die schlichtweg trivial war.

Nicht-triviale Aufgabenstellungen können nicht ressourceneffizient und häufig auch gar nicht durch "Auswendiglernen" gelöst werden, siehe weiter oben das Beispiel zu autonomen Fahren.



c2ash schrieb:
Informatiker unter euch werden wissen, dass Deep Learning ein Fachbegriff ist, der bereits für eine bestimmte Art von Trainingsverfahren für neuronale Netze belegt ist. Jedenfalls nicht der Gattungsbegriff für Machine Learning.

Das ist inkorrekt. Es ist nicht die Art des Verfahrens, sondern die Komplexität des neuronalen Netzes, die die Klassifikation zu Deep Learning legitimiert (oder eben nicht).

Neuronale Netze im Bereich Machine Learning waren kleine MLPs und Konsorten, d.h. Netze die ausschließlich der Grundforschung halber betrachtet wurden, die in der Realität aber nicht eingesetzt werden können, weil die Modelle komplexe Problemstellungen nicht lösen können.



c2ash schrieb:
1. War genau ist bei dir Generalisierung. Hast du da auch eine tolle Definition aus dem KI-Bereich?

Generalisierung ist die Abstraktionsfähigkeit eines Modells von seinem Trainings-Input. Je qualitativer das Modell und Trainingsverfahren, desto weniger Trainingsdaten werden für ein erfolgreiches Training benötigt.

Erfolgreich definiert man dabei i.d.R. so, dass das gegebene Modell im trainierten Zustand gegebene Tasks auf neuen, unterschiedlichen Testdaten mit hoher (normalerweise vorher festgelegter) Qualität und/oder Effizienz lösen kann.



c2ash schrieb:
2. Was du in Ki als Generalisierung siehst, ist nichts anderes als Interpolation/Patternmatching mit Stochastik zwischen den Quell- und Zieldaten. Einen Teil davon macht ja selbst heute jeder TV, wenn man Frame-Interpolation anmacht. Da wird zwischen neuem und altem Bild ein Zwischenbild berechnet, welches eingefügt wird.

Das ist es gerade nicht, denn bei diesen Verfahren musst die Zieldaten kennen, sonst könntest du dazwischen nicht interpolieren.

Der Witz ist ja gerade, dass das Modell die Zieldaten nicht kennt, aber trotzdem korrekte Entscheidungen treffen soll.



c2ash schrieb:
Trainierst du dein Model mit falschen Quelldaten, dann funktioniert da überhaupt nichts.
Die ganze KI ist nur so gut, wie die Quelldaten. Und sind die Quelldaten beschränkt, so sind auch die Ergebnisse beschränkt, weil das trainierte Modell einfach Müll ist.

Das ist zwar richtig, aber für die Diskussion auch wieder hinfällig, denn das trifft für jedes Lernverfahren zu. Wenn du Babies in einen Keller sperrst und auf ein Bett fesselst, dann kann dieses Wesen auch mit 40 Jahren weder sprechen, auf menschlichem Niveau denken, sich überhaupt bewegen usw.

Jedes Lernverfahren benötigt sinnvollen, zielgerichteten Input und muss die Konsequenzen von Handlungen erfahren, um die eigenen Handlungsstrategien für die Zukunft zu optimieren.
 
Zurück
Oben