News Aufholjagd im KI-Wettrennen: Apple investiert Milliarden in generative KI-Lösungen

Thaxll'ssillyia schrieb:
Deep Learning gibt es auch schon gute 40 Jahre.
Neuronale Netzwerke gibt es so lang, ja. Man mag die Definitionsfrage stellen wie "Deep" muss ein neuronales Netz sein, um "Deep Learning" zu sein. Sind 5 Schichten tief? Oder erst 5.000? oder 5 Mio.? ... - sogesehen ist die Frage berechtigt. Nach meinem Verständnis fängt Deep Learning frühestens 2010 an. Man mag es auch "Deep deep Learning" oder sonstwie anders benennen.
 
Magellan schrieb:
GTP arbeitet mit Bedeutungsräumen für Wörter und deren Beziehungen und erschließt auch Kontext, hat also durchaus ein gewisses Verständnis für Sprache.
Klar das sind nur irgendwelche Datenpunkte die beim Training sortiert und verknüpft werden aber macht unser Hirn nicht letztlich das selbe?
Nein, nicht wirklich. Das System kann eben nicht wie jede andere Form von organischer Intelligent z.B. Bilder mit Text, Gerüchen, Begebenheiten, Zeiten, Gefühlen usw. verknüpft und so auch nie wirklich verstehen kann, was ein "Apfel" ist. Dafür bräuchte es halt deutlich mehr als nur die Bits und Bytes von texten oder Grafiken.

Erst durch die Verknüpfung von verschiedenen Systemen, die am Ende genau das reproduzieren, was wirklich in einem wie auch immer gearteten Gehirn passiert (also im mindesten: Bild, Ton, Geruch, Geschmack, Gefühl), ließe sich hier was erzeugen, dass nicht direkt wieder in das Chinese-Room Problem läuft.

Das Mario Beispiel von unten aus meiner letzten Aussage verdeutlicht recht gut, wieso das Ganze eben in jetziger Form immer ein Chinese-Room bleiben wird: das System kann dir eine Abhandlung über Mario schreiben oder es kann Mario spielen, es kann aber nicht beides und wird es, solang sich nicht massiv was ändert, auch nicht in nächster Zeit können.


Wobei ich ja mit dir gehe: wenn wir hier weiter abstrahieren und auf philosophischer Ebene fragen "ab wann ist reproduzieren von Eingaben intelligent" und man damit, wie von mir vorher beschrieben, den Maßstab verschiebt, dann lässt sich recht gut argumentieren, dass Systeme wirklich intelligent sind.

Damit verschiebt man aber fast immer auch die Frage nach Inputs/Outputs und die Erwartungen an diese, was auf höherer Abstraktionsebene sehr uneindeutig werden kann. Denn wenn du erwartest, dass das System auf immer mehr Input-Daten immer bessere Outputs liefert, dann lässt sich das eben am Ende nicht nur über Nachbildungen von neuronalen Prozessen machen, sondern auch über klassische Algorithmen. Sprich, die Blackbox die du untersuchst, wird ab einem bestimmten Punkt von Übereinstimmung der erwarteten Inputs/Outputs immer als intelligent gelten, egal was in ihr nun passiert... Oder: Chinese Room all-over again ;)
 
  • Gefällt mir
Reaktionen: iSight2TheBlind und Sun-Berg
DonDonat schrieb:
Das System kann eben nicht wie jede andere Form von organischer Intelligent z.B. Bilder mit Text, Gerüchen, Begebenheiten, Zeiten, Gefühlen usw. verknüpft und so auch nie wirklich verstehen kann, was ein "Apfel" ist.
Das ist jetzt deine Definition von Verständnis - GPT hat halt nur einen Informationskanal (bzw zwei wenn die Verknüpfung mit Bildern mal voll integriert wird) und baut darauf basierend ein "Verständnis" auf. Wir Menschen haben eben mehr Sinneseindrücke, manche Tiere haben noch andere Sinne und bauen damit ein Verständnis auf das sich von unserem grundlegend unterscheidet - genauso wie Menschen denen einzelne Sinne fehlen. Wie viele Sinne sind denn nötig für Verstädnnis? Und welche?
Menschen erschließen sich ein gewisses Verständnis für abstrakte Dinge die man nicht erfahren kann, niemand kann Quanten irgendwie mit seinen Sinnen erfahren, und doch können wir ein Verständnis aufbauen was Quanten sind.

Ich finde das unglaublich schwer zu definieren wo Verständnis anfängt und welche Voraussetzungen dazu nötig sind.
 
Zuletzt bearbeitet:
Nightmar17 schrieb:
Apple verbaut das bei den Premium Modellen wie dem Pro, das hat 120Hz. Die Low-Budget/Einsteiger Version eben nicht, die hat aber auch noch andere Einschränkungen.

Bis auf die Prozessoren und die Apple Vision, war wohl FaceID das letzte richtig große Ding von Apple.
Ich finde es einfach nicht mehr zeitgemäß ein 60 Hz Display zu verbauen, beim Pixel 8 non Pro sind 120 Hz Standard wie auch bei vielen andern Herstellern. Aber Apple Kunden kaufen es trotzdem 🫣. Wann waren 60 Hz Standard. 2018?
 
@MC´s kommt das nicht auf den Anwendungsfall drauf an? Viele erkennen nichtmal den Unterschied.
Wenn man Wert auf 120Hz legt, dann kauft man sich das passende Gerät und das hat Apple ebenfalls im Angebot.
Das ist eben deren Produktpolitik.
 
@Nigthmar17
Es macht einfach keinen Sinn ein 60hz Display zu verbauen, der Standard sind mindestens 90hz in der heutigen Zeit. Also was soll das? Warum quält man seine Kunden mit so was? Ich kann es nicht nachvollziehen. Aber man kann sich natürlich alles schön reden. 60 Hz gehört in diese Preisklasse einfach nicht mehr meiner Meinung nach.
 
Zurück
Oben