News Neues Modell für ChatGPT: Bringt GPT-5.2 die Trendwende für OpenAI?

aLanaMiau schrieb:
Man hat ja auch vorher schon verhindert, dass jemand Troll-Paper veröffentlicht und diese dann unendlich oft zitiert werden. Was meinst du, was täglich tausendfach in anderen Teilen der Welt erdacht wird?
Ja, genau das ist der Unterschied.
Vorher hat man es verhindert. Nicht immer, aber es hat relativ gut funktioniert.
Das sehe ich bei AI genau garnicht.

Fakten aus der Wissenschaft, Meinungen, geziehlte falschmeldungen, persöhnliche Meinungen aus anderen Chats mit der AI, all das ist irgendwie gleichwertig, in der Ausgabe vorhanden, und wenn man dann nicht wiederspricht, ist die Ausgabe die man selbst bekommen hat ja wieder Teil des Systems, als weiterer Fakt.

Ich glaube nicht, dass man das vergleichen kann
Wir sind gerade dabei unser wissen mit Müll zu durchsetzen, erst recht, wenn es auchnoch Parteien gibt, die sas aktiv wollen ( X alternative zu Wikipedia hat ja genau diese Aufgabe )
:(
 
  • Gefällt mir
Reaktionen: Bademeister69
Booth schrieb:
Das ist keine intelligenz! Intelligenz ist kontextualisiertes Wissen. Die Systeme können nicht denken sondern nur die Wahrscheinlichkeits-Algorithmen neu starten und dabei leicht anpassen.

Und trotzdem ist das nicht intelligente System irgendwie „intelligenter“ als viele Menschen bei immer mehr Aufgaben.

Für die praktischen Resultate spielt es am Ende keine Rolle, ob es in einem metaphysischen Sinne intelligent ist oder nicht… es zählt nur das Ergebnis.

Davon abgesehen ist deine Definition von Intelligenz als „kontextualisiertes Wissen“ nicht der Konsens und spiegelt sich auch nicht in Intelligenztests für Menschen wieder.

Denn da geht es viel um die (allgemeine) Leistungsfähigkeit der Mustererkennung einer Person.

Ergänzung ()

S.Kara schrieb:
Zeigst du ihm viele Bilder von Kühen mit unterschiedlichen Hintergründen wird er lernen dass das was gleich bleibt die Kuh sein muss.

Nein, normalerweise können Menschen bereits durch ein Beispiel das allgemeine Muster lernen - gerade unsere visuelle Mustererkennung ist extrem leistungsfähig.

(Bereits dasselbe Objekt einige Sekunden später auf demselben Bild wiederzuerkennen setzt ja bereits eine bestimmte „Generalisierung“ voraus…)

Du kannst das gerne auch mal mit Kleinkindern ausprobieren. Aber die neigen meist auf der begrifflichen Ebene zu einer zu starken Generalisierung… d.h. sie erkennen sofort bei anderen Objekten die Ähnlichkeiten und ordnen sie dann derselben Kategorie zu - erst über die Zeit werden die Begriffe dann feiner.

Das liegt aber auch daran, dass Begriffsbildung bei Menschen hauptsächlich an Absichten orientiert ist. Und Menschen denken viel in Analogien / Metaphern.

Am Max-Planck Institut für Evolutionäre Anthropologie gab und gibt es dazu viel Forschung an Primaten und menschlichen Kindern ab bereits einem Alter von wenigen Monaten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schneeland und sioh
Gemcutter schrieb:
Mir fehlt Grok bei den statistischen Ergebnissen.
Laut Musk soll der doch überall so gut abschneiden, da hätte mich ein Vergleich durchaus interessiert.
Mir fehlt die europäische Alternative Mistral.

Und noch ein Video zum Thema, ist zwar schon älter aber nach wie vor aktuell:

 
AI wäre eine gute Sache, man wird nur komplett ausspioniert. Deswegen wollen es die Leute nicht. Microsoft Recall macht z. B. alle 5 Sekunden einen Screenshot für Microsoft.
 
Ich habe ja schon länger ein Premium Abo aber für mich wird chatgpt immer schlechter.
Aka „wie ist das Wetter draußen“ -> ChatGPT: Draussen ist es wunderschön und strahlende Sonne, ICH: Nein draußen Regnets -> ChatGPT: Achso ja stimmt. Draußen ist es schlechtes Wetter und morgen schneit es und wird glatt.

Egal um was es geht es erzählt nur noch Blödsinn. Und das schlimme ist eben an diesen KI‘s das sie nicht sagen „Es könnte sein“ sondern alles als Fakten behaupten obwohl es völlig abwegig ist.
Gerade in der IT sollten die Antworten eindeutiger sein. Aber 10 Minuten später behauptet ChatGPT das völlige Gegenteil.
Aka ich habe Probleme mit EntraID Auth und App Proxy…. (natürlich genauer beschrieben) -> ChatGPT: Da musst du xy Option beim Proxy einstellen…. 10 Minuten Später: Diese Option hat nichts damit zu tun und hat keine Auswirkungen ….
 
  • Gefällt mir
Reaktionen: zant
Ein Problem davon nennt sich AI-Poisoning. AI ist aktuell eine riesen Datenbank an Information. Wenn 25 Leute sagen, dass du etwas falsches machen sollst, dann ist die Wahrscheinlichkeit hoch, dass dir die AI genau das vorschlägt. Je mehr Leute was falsches behaupten, umso wahrscheinlicher wird es. Und es reicht nur ein kleiner Prozentsatz an Falschinformationen. Man kann die AI ganz gezielt und böswillig für alle Nutzer manipulieren.

 
  • Gefällt mir
Reaktionen: NoNameNoHonor
Rollkragen schrieb:
Wenn ich anweise, keine Wiederholungen, kurze, prägnante und fachlich relevante Texte, kommt oft als Erstes die Floskel: "Hier eine kurze, fachlich fundierte Antwort“ gefolgt von einem extrem langen Text ohne viel Inhalt.
Das ist jedoch eine logische Variante die sich noch weiter personalisieren ließe.

Da du eine bestimmte Form der Kommunikation angefordert hast ist eine Personalisierungd. Der Anspruch an sich wurde als Erinnerung gespeichert und drückt sich mit dem wiederholten Hinweis aus, dass die Antwort mit dem Hinweis eingeleitet wird den du angemerkt hast.

Genau das kannst du aber auch ansprechen und sagen, wie du es gerne hättest UND das du die Art und Weise der Antwort nur auf Nachfrage erläutert bekommen möchtest.

Ich persönlich habe es zum Beispiel lieber transparent um zu wissen, wie mir gerade geantwortet wird und personalisiere entsprechend. User bei Gemini (ich hab es nicht getestet) wissen u.U. gar nicht das man das beeinflussen kann.
Gut das kann man bei ChatGPT ggf. auch einfach nicht wissen aber so stellt man sich vllt. eher die Frage 🙂 hat alles sein für und wider.
 
GTR schrieb:
Aka „wie ist das Wetter draußen“ -> ChatGPT: Draussen ist es wunderschön und strahlende Sonne,

Seltsam, denn ich bekomme diese korrekte Antwort auf deine Frage:

Nach den neuesten Wetterdaten ist es aktuell überwiegend bewölkt und kühl draußen in <Die Stadt hab ich entfernt>. Die Temperatur liegt heute etwa bei 6–8 °C, mit dichten Wolken am Himmel.

Tagesverlauf:
  • Vormittag: Wolkig, ca. 6–7 °C
  • Nachmittag: Weiterhin überwiegend bewölkt, ca. 7–8 °C
  • Abend/Nacht: Wolkig und kühl, ca. 6 °C.

Gemini liefert dieselbe Antwort… bei solchen Fragen führen beide Anbieter automatisch eine Websuche durch.

PS: wenn ich frage: wie ist das Wetter drinnen? Bekomme ich diese Antwort… die witzig und klug ist.

😄 Drinnen?

Meistens trocken, windstill und angenehm temperiert – je nach Heizung irgendwo zwischen 20–23 °C.

Keine Wolken, kein Regen, höchstens mal Staub in der Luft oder der Duft von Kaffee ☕😉

Noch ein Test: „Wie ist das Wetter draußen? Benutze nicht die Websuche.“

Das kann ich leider nicht zuverlässig sagen. Ich habe keinen Zugriff auf Live-Daten oder Sensoren und weiß auch nicht, wo du dich gerade befindest.

Wenn du magst, sag mir deinen Ort oder was du gerade siehst (z. B. bewölkt, Sonne, Regen), dann kann ich dir zumindest eine Einschätzung oder typische Wetterlage erklären.
 
Zuletzt bearbeitet:
S.Kara schrieb:
Um mal bei deinem Beispiel mit der Kuh zu bleiben: Zeigt man einem Menschen - ohne weitere Kenntnisse - ein Bild mit einer Kuh in der Wüste und sagt ihm nur "Kuh"
Wenn Du nicht verstehst, was danach passiert, dann kann ich Dir leider auch nicht helfen. Genau DAS ist eben NICHT "lernen" und nicht ansatzweise "Erfahrung". Danach fängt es erst an!
Zeigst du ihm viele Bilder von Kühen mit unterschiedlichen Hintergründen wird er lernen dass das was gleich bleibt die Kuh sein muss. Das funktioniert bei KIs aber ebenfalls.
Du hast wirklich nicht den Hauch eines Schimmers, wie Menschen lernen. Du zeigst KEINEM EINZIGEN KIND dutzende oder gar hunderte oder gar Millionen von Bildern von Kühen!
Es ist ja auch nicht schlimm dass Du vom menschlichen Lernen und wie unser Gehirn ansatzweise funktioniert, wenig weisst. Hast Du vermutlich nie intensiv drüber nachgedacht. Aber ganz ehrlich: Wieso fühlst Du Dich berufen, darüber zu DISKUTIEREN?

Wenn Du ... Achtung Kalauer... LERNEN möchtest, wie Menschen lernen und wieso dies völlig anders ist, als LLMs "lernen"... dann sag Bescheid. Kann ich nochmal versuchen, einen langen Text zu schreiben.

Und nochmal: Es IST völlig anders! Aktuelle LLM-Maschinen machen KEINE "Erfahrung" (zumindest nicht im menschlichen Sinne).
Der Unterschied zwischen Mensch und Computer ist die Rechenleistung
Das ist einer von mehreren, wenn nicht gar vielen Unterschieden. Und selbst hier bist Du bereits falsch unterwegs.
Ist dieses Hindernis überwunden werden Roboter in kürzester Zeit 99% aller Menschlichen Fähigkeiten übertreffen.
Es gibt nicht "die Rechenleistung" sondern auch hier verschiedene Versionen. In bestimmten Bereichen ist die Rechenleistung der Maschinenbereits WEIT HÖHER, als unsere. Also genau das Gegenteil, was Du anzunehmen scheinst. Und die Menge an Daten, auf die diese IMMENSE Rechenleistung Zugriff hat, übertrifft unsere Daten pro Gehirn um mehrere Grössenordnungen.
Jeder Mensch denkt dass er gewisse Dinge weiß, obwohl dem nicht so ist. Man sagt ja immer so schön "Irren ist menschlicht".
Wäre schön, wenn Du dies mal verinnerlichst. Gerade Deine letzten Sätze waren ziemlich falsch.
Aktuell funktionieren LLMs so VOLLKOMMEN anders, als Menschen... das scheint Dir nicht ansatzweise klar zu sein. Was - nochmal - völlig OK ist. Aber dass Du denkst, Menschen seien ja eigentlich auch ne Art LLM... uhm... das macht Diskussion etwas anstrengend.

calluna schrieb:
Und trotzdem ist das nicht intelligente System irgendwie „intelligenter“ als viele Menschen bei immer mehr Aufgaben.
Fähiger. Nicht intelligenter. Der Unterschied ist nicht direkt offensichtlich. Aber wirklich wichtig. Ein Auto ist auch fähiger in der Geschwindigkeit, als ein Mensch. Anderes Beispiel: Wikipedia ist fähiger als jeder Mensch bzgl. Datenmenge des Wissens. Aber kein bisschen intelligent.

Für die praktischen Resultate spielt es am Ende keine Rolle, ob es in einem metaphysischen Sinne intelligent ist oder nicht… es zählt nur das Ergebnis.
Vollkommen richtig und ein wirklich wichtiger Punkt: Die Ergebnisse sind zum Teil haarsträubend schlecht von LLMS für die unfassbar riesige Menge an Ressourcen, die unsere TechBros da reinstecken! Und für die unfassbar riesige Menge an Daten, die wir dort verwenden.

Ich bin übrigens kein bisschen GEGEN LLM-Einsätze in vielen hochspezialisierten Bereichen. Und wer weiss, was mit zusätzlichen Entwicklungen im Bereich neuronaler Netze und LLMs dann in Jahren passiert - irgendwann kann der Sprung zu Intelligenz ja passieren. Aber mit der aktuellen Technik wahrscheinlich eher nicht. Was ich auch gar nicht schlimm finde. Das aktuelle Verhalten der Tech-Konzerne... das finde ich dagegen katastrophal.
Davon abgesehen ist deine Definition von Intelligenz als „kontextualisiertes Wissen“ nicht der Konsens und spiegelt sich auch nicht in Intelligenztests für Menschen wieder.
Denn da geht es viel um die (allgemeine) Leistungsfähigkeit der Mustererkennung einer Person.
Ich bin mir sicher, jede Klausur und erst Recht jede Doktorarbeit lässt sich auf Mustererkennung reduzieren.
Wait...
Mustererkennung ist natürlich TEIL von kontextualisiertem Wissen.

Kontextualisiertes Wissen ist selbstverständlich nicht ansatzweise ausreichend, um "Intelligenz" zu definieren. Das ist eine gar nicht so leicht und komplizierte Sache.
Die grösste Schwierigkeit, die wir haben werden, ist Intelligenz losgelöst von einem individuellen Körper zu erkennen, zumal unsere menschlichen Körper untereinander in ständigem Kontakt und ständiger Kommunikation sind und dies einer von diversen essentiellen Gründen für unsere Intelligenz ist.

Daher ist "Lernen" von LLMs ja auch so völlig anders und daher fehlen bestimmte Erfahrungen, die wir haben, vollkommen. Ich bin durchaus gespannt, ob eine Maschine überhaupt jemals "intelligent" werden kann, ohne einen Maschinenkörper zu haben, mit dem sie reale, haptische Erfahrungen mit der realen Welt machen kann.
Das liegt aber auch daran, dass Begriffsbildung bei Menschen hauptsächlich an Absichten orientiert ist.
Und diese sind... Achtung, Achtung... KONTEXT-bezogen. Wobei ich nichtmal wirklich weiss, ob das "hauptsächlich" dort reinpasst. Aber es ist sicher eines der vielen, wichtigen Elemente vom Menschsein, dass wir schon früh als Babies so etwas wie Absichten entwickeln. Das fängt aber ja schon bei den Grundbedürfnissen an und hört beim Bedürfnis von Zuneigung noch lange nicht auf und wird schnell bei Kleinkindern dann wundervoll komplex.
 
Zuletzt bearbeitet:
tiga05 schrieb:
Und da zeigt sich bei mir gerade das Problem: Ich habe die Funktionsweise der DI in Angular selbst nicht ganz verstanden. Entsprechend kann ich die Frage nicht richtig stellen. Also kommt deswegen wahrscheinlich auch keine passende Antwort. Letztlich muss ich mich jetzt in das Thema doch wieder selbst reinarbeiten um es dann
Schau dir mal https://btca.dev/ an.
Sehr neues Projekt. Müsstest Angular hinzufügen als Repo und kannst das dem Agenten dann als Tool zur Verfügung stellen (muss er nur per bash ausführen).

Basiert auf Opencode (kannst du mit deinem Claude Pro Account verbinden) und erlaubt dem Agent ansich sowas wie nen Subagent zu spawnen um damit sich selbst Fragen in der Codebase deiner Dependencies zu beantworten. Das kann sehr helfen bei tiefen technischen Themen.
Ergänzung ()

Booth schrieb:
Du zeigst KEINEM EINZIGEN KIND dutzende oder gar hunderte oder gar Millionen von Bildern von Kühen!
Sondern? Natürlich tun wir das bzw. es sieht die halt selbst draußen. Dann muss das aber trotzdem jemand extern für das Kind als Kuh klassifizieren
 
  • Gefällt mir
Reaktionen: tiga05
calluna schrieb:
Nein, normalerweise können Menschen bereits durch ein Beispiel das allgemeine Muster lernen - gerade unsere visuelle Mustererkennung ist extrem leistungsfähig.
Ohne jegliche Vorkenntnisse was da alles auf einem Bild zu sehen ist hast du keine Chance wenn man dir dazu nur "Kuh" sagt. Damit kann genauso gut die Wolke am Himmel gemeint sein die es ebenfalls auf dem zweiten Bild gibt.

Booth schrieb:
Aber ganz ehrlich: Wieso fühlst Du Dich berufen, darüber zu DISKUTIEREN?
Bin davon ausgegangen dass das hier ein Forum ist. :rolleyes:
Und nichts für ungut, aber du scheinst das was ich geschrieben habe nicht verstanden zu haben.

Booth schrieb:
Die Rechenleistung der Maschinen ist bereits WEIT HÖHER, als unsere. Und die Menge an Daten, auf die diese IMMENSE Rechenleistung Zugriff hat, übertrifft unsere Daten pro Gehirn um mehrere Grössenordnungen.
Lies dich doch bitte erst einmal in die Thematik ein. Du scheinst dir dein Wissen leider nur einzubilden.

Booth schrieb:
sag Bescheid. Kann ich nochmal versuchen, einen langen Text zu schreiben.
Ist nett aber nein danke.
 
  • Gefällt mir
Reaktionen: Daddi89 und ComputerJunge
Daddi89 schrieb:
Sondern? Natürlich tun wir das bzw. es sieht die halt selbst draußen. Dann muss das aber trotzdem jemand extern für das Kind als Kuh klassifizieren
Ach... Du bist doch schon auf dem richtigen Weg... hör doch bitte nicht nach dem ersten Milimeter auf und vergiss die tausenden Kilometer anschließend nicht.

Ein Kind entwickelt sich. Spricht öfters mit Eltern und anderen Kindern über alles mögliche. Da kommen Kühe dann immer wieder mal vor. In Sendungen, auf Bildern... bei einigen sogar real im realen Leben.
Kuh wird KONTEXTUALISIERT - es findet also immer und immer und immer und immer wieder über JAHRE Kommunikation statt, in der "Kuh" als Wissensobjekt und Konzept vorkommt.

Wir lernen also unseren Sprachschatz gleichzeitig während wir versuchen, damit zu kommunizieren. Gleichzeitig lernen wir unseren Körper kennen und uns damit zu bewegen und in unserer Umgebung damit klar zu kommen.
Eine zweijährige, dem Du eine Kuh in einem Babybuch oder auf einem Bild zeigst, reagiert darauf nur mit einem "blabla blurb" Gestammel.
Einer vierjährigen fällt vielleicht direkt eine Geschichte aus einem Kinderbuch ein... oder ein Kinderlied.
Einem selchsjäihrigen dann Filme oder andere Zusammenhänge, wo "Kuh" vorkam. Er weiss dann vielleicht schon, dass "blöde Kuh" eine Bezeichnung ist, die er nicht laut seiner Lehrerin sagen sollte :-D
Und bestimmt wissen ne Menge Kinder sehr früh, dass lila Kühe verdammt lecker sind... weil sie nicht existieren, aber das Synonym für Schokolade sind.
Kinder lernen auch, dass Kühe eben Lebe-wesen sind, wie wir. WIE WIR. Nur doch ganz schön anders. Dieser ständige Bezug in Vergleichen zwischen Deinem Körper und dem Rest der Welt ist sooooo wichtig für unsere Entwicklung (und psychisch übrigens sowas von komplex, kompliziert und manchmal belastend und dann auch wieder Quell von soviel Freude).

LLMs sind keine Individuen. Die kommunizieren nicht miteinander, wie Menschen. Die haben keinen Körper. Die bewegen sich mit dem Körper nicht in der Realität. Die haben keine Bedürfnisse, wie Menschen.
Ich könnte hier ne ganze DinA4-Seite an Unterschieden runterrattern, die bei der Entwicklung der kognitiven Fähigkeiten sehr wichtig sind.

S.Kara schrieb:
Bin davon ausgegangen dass das hier ein Forum ist. :rolleyes:
Und nichts für ungut, aber du scheinst das was ich geschrieben habe nicht verstanden zu haben.
Das nennt man übrigens passiv-aggressives Verhalten in der Psychologie.
Wenn Du keine Zeit hast, sag das. Wenn Du einfach nur keinen Bock mehr hast - auch gut.
Aber dann sowas:
Lies dich doch bitte erst einmal in die Thematik ein. Du scheinst dir dein Wissen leider nur einzubilden
Ohne den Hauch eines Beispiels. Das ist gruselig.
Ist nett aber nein danke.
So funktioniert Lernen übrigens NICHT. Also ganz und gar nicht. Mein Tip: Wenn Du Dich persönlich angepisst fühlst, einfach mal kurz aus dem Forum bzw. der Diskussion raus.

Ich habe BEGRÜNDET, wieso ich glaube, dass Du von kognitiver Entwicklung von Menschen vermutlich wenig Ahnung hast. Den Absatz über "Rechenleistung" habe ich tatsächlich zunächst zu schnell runtergeschrieben und im Nachhinein korrigiert. Gefällt Dir nun aber evtl noch weniger, als zuvor.

Du dagegen hast höchst fragwürdige Behauptungen aufgestellt, die aich uch sehr hinterfragt und aus meiner Sicht argumentativ widerlegt habe.
Und nun spielst Du beleidigte Leberwurst und willst nicht nur nicht mehr weitermachen... sondern behauptest implizit, dass natürlich soviel mehr weisst, und ich dagegen muss mich in was auch immer einlesen... ohne den Hauch von zusätzlichen Hinweisen.

Mit Verlaub: Das ist einfach scheisse. Da wär ein "ich bin raus" oder einfach nur ein "fick Dich" der ehrlichere Abschluss gewesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DeusExMachina
Booth schrieb:
Das nennt man übrigens passiv-aggressives Verhalten
Dein Kommunikationsverhalten ist - so ganz ohne jegliche Psychologie und Kontextualisierung - ausgesprochen aggressiv. Und deine "Begründungen" sind eine lose Folge von Behauptungen, gespickt mit fortlaufenden Unhöflichkeiten und arm an Struktur und insbesondere Quellen.

Das, was Du anderen vorwirfst, praktizierst Du selbst par excellence.
 
  • Gefällt mir
Reaktionen: lasbo und Kuristina
S.Kara schrieb:
Ohne jegliche Vorkenntnisse was da alles auf einem Bild zu sehen ist hast du keine Chance wenn man dir dazu nur "Kuh" sagt

Das Lernen von Begriffen findet zwischen Menschen immer in einer Situation geteilter Aufmerksamkeit statt.

Und dazu gehört auch immer ein gemeinsamer Kontext! Das heißt, wenn mir jemand ein Bild zeigt, auf dem Dinge sind, bei denen ich weiß, dass mein Gegenüber weiß, dass ich diese Objekte kenne - weiß ich, dass er mit dem Wort ein neues Objekt auf dem Bild meint - sonst muss er darauf zeigen.

Das ist übrigens eine kognitive Leistung, die Babys zwischen dem 9 bis 12 Monat entwickeln und ist die Voraussetzung für das Erlernen einer Sprache. (Nennt sich „Geteilte Intentionalität“)

Niemand zeigt einem Kind eine Folge von Bildern mit Objekten, die es nicht kennt und sagt zu jedem Bild „Kuh“ mit der Erwartung, dass es versteht, dass es um ein Objekt geht, dass auf allen Bildern vorhanden ist, während alle anderen wechseln.

Vor allem übersiehst du dabei, dass das Kind, um diese Aufgabe zu erfüllen, die einzelnen Objekte schon ab dem ersten Bild klar erkennen, also voneinander unterscheiden können muss, um diese Aufgabe zu erfüllen - das Kind sieht ja nicht einen unstrukturierten Pixelbrei.

Du konstruierst hier etwas, das mit der Wirklichkeit nichts zu tun hat, nur um deine Analogie aufrechterhalten zu können, dass Menschen im Prinzip nicht anders lernen als es beim „Maschinellen Lernen“ praktiziert wird.

Nicht alle hier sind Laien, mit denen du dich austauschen kannst. 😉
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DeusExMachina, schneeland, lasbo und eine weitere Person
Naja und AI ist doch erst am Anfang - es gibt inzwischen immer mehr interessante Ansätze (die auch schon teilweise im POC Bereich funktionieren und im kleinen nutzbar sind) die AI viel näher an biologische Gehirne bringen - Oszillation ist eines davon und Gehirnorganoide gibt es auch bereits in Funktion - nur halt noch mit sehr begrenzter Nutzungszeit.

Beim Potential von Technolgie sage ich immer Laieneinschätzungen sind ab dann gar nichts mehr wert, sobald man auch die EInschätzung der entsprechenden Fachwissenschaft haben kann - hier z.B. aktuell primär der (technischen) Neurowissenschaften wenn das Ziel biologisch ähnliche Intelligenz ist

Intelligenz gibt es auch abseits von Menschen - und dass diese nicht weiter entwickelt ist hat nicht den Grund dass es ein Naturgesetz gibt, dass das für immer ausschliesst - sondern einfach wissenschaftliche Gründe aus der Evolution - es war halt nicht nötig.

Auch wenn aus religiösen Sicht oft das Gedankengut vorherrscht dass der Mensch was einzigartiges sei - das ist er aus wissenschaftlich biologischer Sicht nicht - er ist auch nur Physik und Chemie.

Auch das menschliche Gehirn bekommt ALLE seine Informationen lediglich als Datenstrom - ob die von echten Sensoren wie Haut Auge und Co kommen oder wenn das möglich wäre diese Signale nachzubilden macht für das Gehoirn absolut keinen Unterschied - auch das menschliche Gehirn hat keinen tatsächlichen Bezug zur Umwelt sondern nur über (elektrochemische) Datenströme von Sensoiren wie Auge, Ohren, Haut usw und muss ich aus den Datenströmen die Welt "zusammenphantasieren" - ein AI bekommt halt 010000100101 das Gehirn halt XYZ als "analoge" Werte - und das ist alles.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: herby53
Ich bin gepannt wie und wann das Ganze monetarisiert wird. Nur mit einigen Abozahlern wird es sich sicherlich nicht rechnen.
 
  • Gefällt mir
Reaktionen: Chibi88
@calluna Ja da bin ich voll bei dir was du schreibst, auch bei deinen anderen Posts. Das mit dem Bild und der Kuh bezieht sich auf Post #54. Klar ist es etwas was mit der Wirklichkeit nichts zu tun hat. Ein Computer hat halt anfangs keinerlei Kenntnisse über irgendwas, anders als bei dem Baby.

Die von dir beschriebene Situation setzt voraus dass der Computer bereits Vorkenntnisse besitzt, wie das Baby halt. Dann kann auch dieser neue Objekte erkennen. Das Wiedererkennen (evtl anderer Winkel usw) wird dem Baby aber auf Anhieb viel besser gelingen. Nicht weil die Datenmenge größer, sondern die Leistung gewaltig ist.

Am Ende lernt ein Computer aber genau wie der Mensch aus Erfahrungen. Beim einen sind es unmengen an Bilder, Texte usw, beim anderen halt Sinneswahrnehmungen. Nur mit einem Fingerzeig wird weder der Mensch noch der Computer das Krokodil sicher vom Alligator unterscheiden können.

@Booth Sorry aber du kommst mir nicht vor als hättest du Ahnung. Nur weil du AB UND ZU Wörter groß schreibst und mich runtermachst hast du noch lange nicht mit Wissen um dich geworfen. Wenn ich mehr über das Lernen von Menschen und LLMs erfahren möchte frage ich doch nicht dich nach einem langen Text? Wie eingebildet kann man sein? :D Das hat nichts damit zu tun dass ich nicht lernen will oder beleidigt bin, sondern einfach nicht deinem Wissen vertraue. Da lässt sich sicherlich bessere Lektüre als deine Beiträge finden.
 
Seit GPT5 ist ChatGPT wirklich Grütze geworden. Mein Pro Abo endet bald… ich glaube das stecke ich in perplexity, da habe ich genug Modelle zur Auswahl.
 
Welche Wende wofür? Gibt es denn irgendein Modell welches auch nur ansatzweise die investierten Geldmittel reinbringt? Vom irren Resourcenverbrauch will ich gar nicht erst sprechen.

Dieses Zeug ist für ein paar Funktionen in der Forschung zu gebrauchen und tlw in der Wettervorhersage interessant. Wobei mir da ein Freund, jener studierter Metereolge ist und beim größten österreichischen Wetterdienst selbst Modelle betrachtet und erstellt, nur bedingt zusagt. Llms "halluzinieren" selbst in akkuarten Modellen/Fragen zu oft.
Der Rest ist nette Spielerei, aber nichts was wir brauchen.

LLMs als künstliche Intelligenz zu bezeichnen ist per Design ja schon ein Fail. Ich warte nur auf den Tag wo so ein Dreck auf ein großes AD losgelassen wird und dann steht einfach mal alles und es heißt nur "das hätte man nicht wissen können"...
 
Averomoe schrieb:
Okay aber für was bitte stehen denn nun diese Prozente? Was muss geschehen, um 100% zu erreichen? Warum Prozent und nicht Punkte oder von mir aus Gummibärchen?
Ich vermute es gibt eine feste definierte Anzahl immer wieder gleicher bzw. gleich schwerer Aufgaben die gelöst werden müssen. Das würde bedeuten, wenn sie alle Aufgaben exakt löst, schafft es 100 % und es braucht einen neuen Test mit härteren Aufgaben, um die KI weiter zu entwickeln.
 
  • Gefällt mir
Reaktionen: Averomoe
Zurück
Oben