News Copilot Fall Release: Mico tritt in die Fußstapfen von Clippy

chillipepper schrieb:
Das Problem ist die Qualität, man kann sich auf nichts verlassen.
Das ist schon übertrieben. Gerade bei gut dokumentierten Themen sind die Ergebnisse mehr als brauchbar. Denke da z.B. an PowerShell, das hat mir schon oft einiges an Zeit gespart.
Man darf halt nicht den Fehler machen und die Aussage der KI als 100% korrekten Fakt hinnehmen, nur weil einem das Ergebnis so schön in menschlicher Sprache präsentiert wird. Auch hier gelten die selben Regeln wie schon immer: Jeder kann Schwachsinn ins Netz blasen, heißt alle Informationen kritisch hinterfragen. Ob die Info von einer KI kam oder von Onkel Werners Blog ist da irrelevant.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC, BorstiNumberOne und Kuristina
chillipepper schrieb:
Das Problem ist die Qualität, man kann sich auf nichts verlassen.
Nicht nur, dass einfach falsche Informationen geliefert werden.
Exakt und vollkommen richtig. Selbst bei unserer selbst gehosteten haben die Verantwortlichen immer gesagt, dass man trotzdem alles genau prüfen soll und man es eben wirklich nur als Hilfe hernehmen soll. Eben was schnell zusammenschreiben und dann eben durch die KI ausformulieren lassen. Wir haben auch kleine Tools zur Analyse großer Excel Tapeten, da funktioniert sie auch sehr gut. Aber eben alles mit Maß.

Ich persönlich habe auch mit dem Google KI Assistenten gute Erfahrungen gemacht, wenn man ihn denn für spezielle Anfragen oder Suchen nutzt. ZB habe ich mir darüber viel Hilfe gesucht, wie ich den Kometen aus meinem Profilbild am besten stacke, auf was ich da achten muss und wie ich da genau verfahren soll. Dann sind im Ergebnis noch einige Artefakte drin, wo ich jetzt noch Themen gefunden habe, wie ich die mit Software xyz am besten entferne. Natürlich würde ich die jetzt zB nicht fragen, wen ich bei der nächsten Wahl wählen soll, aber solche ganz speziellen Themen, da hilft mir die KI schon sehr, um erst mal einen Ansatz zu bekommen. @prayhe hat mit dem Powershell Thema ja auch ein gutes Beispiel genannt.
 
Zuletzt bearbeitet:
prayhe schrieb:
Man darf halt nicht den Fehler machen und die Aussage der KI als 100% korrekten Fakt hinnehmen,
Das ist doch genau der Punkt der gemacht wird. Du kannst dich nicht auf die Ausgabe verlassen.
Ich lasse was generieren stelle fest "das ist Humbug" und mach es dann doch selbst da hätte ich mir den ersten schritt auch sparen können.
 
  • Gefällt mir
Reaktionen: thetech, TomMÆC, Krik und 2 andere
prayhe schrieb:
Das ist schon übertrieben.

Nein, ganz und gar nicht. Vielleicht hast Du entweder nur Glück gehabt, Dinge zu erfragen oder zu erbitten, die sich einfacher beantworten bzw. bearbeiten lassen und wozu es nicht zu viele falsche Informationen im Netz gibt.

Das ist überhaupt eines der Grundprobleme: die ganzen Daten, die sich die KI einverleibt, sind nicht validiert. Darum ist die Qualität auch leider zu oft komplett daneben.
Da ist dann die KI nicht schlau genug, um den Weizen von der Spreu zu trennen bzw selbst validierungsläufe zu starten, ob eine Info richtig sein kann.

Ich kenne mich in einigen Gebieten sehr gut aus. Keine Rocket Science, nein, so banale Sachen wie Recording, Tonstudio etc. Sammle mal Spezialistenwissen an und frag die KI. Haarsträubend, was Du da manchmal serviert bekommst.

Lustig ist, sobald Du Dich beklagst, dann prüft die KI noch einmal genauer nach und präsentiert unter Umständen, aber auch nicht immer, eine bessere Antwort.

Wenn man dann die KI fragt, woran es liegt, dass die erste Antwort häufig falsch ist, dann bekommt man zu hören, dass die KI erst einmal versucht, eine Frage schnell zu beantworten, auch damit der User nicht zu lange warten muss.

Ich habe mir im Laufe der Zeit bei ChatGPT einige Einstellungen ins Memory gesetzt, die die Qualität ein wenig erhöhen, auch wenn dann die Wartezeit oftmals höher ist. Vor allem soll die KI die Antwort bewerten, ob das gesicherte, belegte Erkenntnisse sind, oder ob sich die KI selbst nicht ganz sicher ist. Das hilft ein wenig bei der Einschätzung, ob es gesicherte Erkenntnisse sind oder wieder was zusammengeschwurbeltes (Ghosting, etc).

Das hilft schon mal ein wenig, aber es kommt trotzdem immer noch vor, dass die KI falsche Dinge präsentiert, und es liegt dann an Dir, das entweder zu glauben oder zu wissen, dass da was nicht stimmt, und erneut nachzufragen.

Am besten solltest Du selbst stets dazu in der Lage sein, die Qualität der Antwort einschätzen zu können.

Du musst mir das nicht glauben, aber glaube mir, ich habe das leider nur allzu häufig erlebt und es nervt gewaltig, wenn man von der KI zu oft Bullshit-Informationen bekommt, oder wenn die KI sich mal wieder nicht an Vorgaben hält, was am Ende einfach nur Zeit kostet.
 
chillipepper schrieb:
Auch bei Übersetzungen oder Textoptimierungen loosen die KIs ständig.
Manchmal nimmt das Korrekturlesen mehr Zeit in Anspruch, als hätte man es selbst geschrieben.
Ich lese (eigentlich eher unabsichtlich) automatisch Korrektur, wenn ich Texte lese:
lose = verlieren, loose = locker. ;-)
 
Also das noch Niemand auf den Stern im Mario Brothers Film gekommen ist :D:D:D
 
  • Gefällt mir
Reaktionen: LDNV, Seven2758 und Kuristina
prayhe schrieb:
Gerade bei gut dokumentierten Themen sind die Ergebnisse mehr als brauchbar.
1761313059206.png

(Quelle)

Zwischen 14% und 17% der erzählten Fakten sind nicht richtig. Anders ausgedrückt kann man auch sagen: Jede 6. bis 8. Aussage ist falsch.

@chillipepper hat es richtig erkannt: Die LLMs wurden mit Daten geflutet, bei denen sich niemand die Mühe machte, sie zu prüfen. Darüber hinaus gibt es auch noch das Problem der Halluzination, also dass sich die KI einfach was ausdenkt.
 
  • Gefällt mir
Reaktionen: TomMÆC und the_IT_Guy
Ich habe nach Clippy erst "Copilot Fail Release" gelesen. Klassischer Freud.
 
nlr schrieb:
bekommt mit dem Fall Update
Welcome Denglisch for runaways!

Für den Fall dass das Fall Update nicht Probleme verursacht, würde ich auf alle Fälle ein pre-Fall Backup anfertigen.

Dass man eingedeutschte Wörter wie z.B. Update, Backup, Release etc in der deutschen Sprache verwendet ist mittlerweile üblich.
Aber nenn mich pingelig, wenn ich für den Herbst bei der Verwendung von Fall 🍁 nicht mehr dabei bin....
 
  • Gefällt mir
Reaktionen: Arboster, metoer und Kuristina
BOBderBAGGER schrieb:
Du kannst dich nicht auf die Ausgabe verlassen.
Ich lasse was generieren stelle fest "das ist Humbug" und mach es dann doch selbst da hätte ich mir den ersten schritt auch sparen können.
Komplett unbrauchbar sind die Ergebnisse in den allermeisten Fällen nicht. Selbst wenn der Inhalt nicht 100% korrekt ist kriege ich in aller Regel dadurch einen Schubser in die richtige Richtung und kann dann ggf. nochmal gezielter selbst recherchieren oder mir die richtige Antwort gleich selbst erschließen. Schneller als händisch zu recherchieren bin ich zu 90% trotzdem. Liegt aber auch daran, dass ich die KI nicht als Ersatz zur Suchmaschine nutze, sondern als Alternative für komplexere Anfragen.
chillipepper schrieb:
Nein, ganz und gar nicht. Vielleicht hast Du entweder nur Glück gehabt, Dinge zu erfragen oder zu erbitten, die sich einfacher beantworten bzw. bearbeiten lassen und wozu es nicht zu viele falsche Informationen im Netz gibt.
Wie gesagt, ich frage viel in Richtung Powershell. Das ist durchaus alles gut dokumentiert und deswegen wird die KI auch weniger Fehler machen in dem Usecase.
chillipepper schrieb:
Am besten solltest Du selbst stets dazu in der Lage sein, die Qualität der Antwort einschätzen zu können.
Exakt das ist auch mein Standpunkt. Gilt sowohl für die Ausgaben einer KI, als auch die händische Recherche im Netz.
chillipepper schrieb:
Du musst mir das nicht glauben, aber glaube mir, ich habe das leider nur allzu häufig erlebt und es nervt gewaltig, wenn man von der KI zu oft Bullshit-Informationen bekommt, oder wenn die KI sich mal wieder nicht an Vorgaben hält, was am Ende einfach nur Zeit kostet.
Ich glaube dir schon, wenn du sagst, dass du schlechte Erfahrungen gemacht hast. Ich erzähle ja auch nur von den Erfahrungen bei meinen Use Cases und da ist die KI nunmal eine immense Zeiteinsparung. Wenn die passenden Daten bei deinem Themen nicht oder nur ungenügend im Netz sind wird man sicherlich schlechtere Erfahrungen machen.
Krik schrieb:
ie LLMs wurden mit Daten geflutet, bei denen sich niemand die Mühe machte, sie zu prüfen.
Die Daten auf random Seiten, die deine Lieblingssuchmaschine rausgesucht hat, musst du auch selbst validieren. Daher meine Aussage vorhin, dass man, egal woher die Info stammt, immer kritisch hinterfragen sollte.
 
  • Gefällt mir
Reaktionen: TomMÆC, SIR_Thomas_TMC und chillipepper
prayhe schrieb:
Daher meine Aussage vorhin, dass man, egal woher die Info stammt, immer kritisch hinterfragen sollte.
Ok, man kann sich also nicht auf die Antwort der KI verlassen. Wozu braucht man sie dann überhaupt noch? Man kann sich doch dann die Zeit schenken und gleich sofort eine Enzyklopädie lesen oder einen Fachmann fragen.



Gott, es wäre tatsächlich mal echt toll, wenn eine KI mit kuratiertem Wissen ähnlich wie bei Enzyklopädien einführen würde. Quasi eine Wikipedia oder Brockhaus mit Sprachassistenten. Dann würde das aus meiner Sicht endlich brauchbar.
 
  • Gefällt mir
Reaktionen: TomMÆC
Krik schrieb:
Ok, man kann sich also nicht auf die Antwort der KI verlassen. Wozu braucht man sie dann überhaupt noch? Man kann sich doch dann die Zeit schenken und gleich sofort eine Enzyklopädie lesen oder einen Fachmann fragen.
In der Zeit wo du deine Enzyklopädie gezückt hast oder dein "Fachmann" den Höhrer abhebt hat man schon längst seine Antwort bekommen. Außerdem habe ich die Frage doch bereits beantwortet:
prayhe schrieb:
Selbst wenn der Inhalt nicht 100% korrekt ist kriege ich in aller Regel dadurch einen Schubser in die richtige Richtung und kann dann ggf. nochmal gezielter selbst recherchieren oder mir die richtige Antwort gleich selbst erschließen. Schneller als händisch zu recherchieren bin ich zu 90% trotzdem. Liegt aber auch daran, dass ich die KI nicht als Ersatz zur Suchmaschine nutze, sondern als Alternative für komplexere Anfragen.
 
  • Gefällt mir
Reaktionen: Akula, SIR_Thomas_TMC und Kuristina
prayhe schrieb:
Die Daten auf random Seiten, die deine Lieblingssuchmaschine rausgesucht hat, musst du auch selbst validieren. Daher meine Aussage vorhin, dass man, egal woher die Info stammt, immer kritisch hinterfragen sollte.

Ja, da ist das aber mein täglich Brot und man hat schon die Erfahrung, welche Seiten oder Foren sich da nicht lohnen.

Bei KI bekommt man vorgegaukelt, was die Lösung ist. Das macht faul, bequem und auch manipulierbar.
 
  • Gefällt mir
Reaktionen: TomMÆC und Arboster
prayhe schrieb:
Selbst wenn der Inhalt nicht 100% korrekt ist kriege ich in aller Regel dadurch einen Schubser in die richtige Richtung und kann dann ggf. nochmal gezielter selbst recherchieren
Vielleicht ist da das Problem ich Frage die erst wenn meine Google und RTFM Skills am Ende sind und da kommt leider oft nicht viel bei Rum.
 
  • Gefällt mir
Reaktionen: TomMÆC und Krik
Krik schrieb:
Gott, es wäre tatsächlich mal echt toll, wenn eine KI mit kuratiertem Wissen ähnlich wie bei Enzyklopädien einführen würde. Quasi eine Wikipedia oder Brockhaus mit Sprachassistenten. Dann würde das aus meiner Sicht endlich brauchbar.
Naja, im medizinischen und wissenschaftlichen Umfeld gibt es das ja schon und dort funktioniert es auch, weil der Input kuratiert und das Ergebnis überprüft wird.
Das Problem mit der "Konsumenten"-KI ist einerseits der ziellos eingehende Input und dann auch die teils dämlichen Fragestellungen am anderen Ende. Im Arbeitsumfeld ist so ein KI-Maskottchen ja noch hilfreich, aber was erwarten die Leute eigentlich, wenn sie privat kostenlos ChatGPT nutzen und meinen, ihr Gehirn abschalten zu können?
 
  • Gefällt mir
Reaktionen: TomMÆC und SIR_Thomas_TMC
Das fundamentale Problem bei allen KI-Assistenten ist, dass hinter ihnen datenhungrige, seelenlose und nicht-vertrauenswürdige Megakonzerne stecken. Dazu kommt, dass die Assistenten für die meisten Anwender von fragwürdigem Nutzen und die Informationen die sie liefern von gleichermaßen fragwürdiger Richtigkeit sind.

Warum also sollte man sich so etwas freiwillig auf's Smartphone/ den Desktop/ wasauchimmer holen?
 
  • Gefällt mir
Reaktionen: TomMÆC und Donnerkind
grincat64 schrieb:
...warum verpasst Mivrosoft dieser Sache so ein infantiles Erscheinungsbild? Glaubt MS jetzt das wir alle noch Kinder sind und auf den Shice dann besser reagieren, weil mehr Grrütze ja anscheinend von einem Nutzer nicht zu erwarten ist???
Im letzten Jahrzehnt war doch überall eine Infantilisierung zu sehen. MS macht einfach mit.
 
Der Copilot soll zudem tiefer in Edge, Windows und weiteren Tools integriert werden.

Eine Drohung die man ernst nehmen muss. So nützlich KIs und speziell LLMs auch sind, und ja man kann sie durchaus gewinnbringend einsetzen wenn man weiß wie, so wenig möchte ich sowas unkontrolliert herumgeisternd auf meinem Computer haben.
 
  • Gefällt mir
Reaktionen: TomMÆC, the_IT_Guy und Kuristina
Als ob ich meinem Rechner irgendwas über meine Gesundheit sagen würde, und sprechen werde ich mit dem Ding sicher nicht.
 
Zurück
Oben