News Von „echten“ Experten: Google startet mit „Portraits“ personalisiertes KI-Coaching

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
7.040
  • Gefällt mir
Reaktionen: c[A]rm[A], nuego und FLCL
Wie lange es wohl dauert bis der erste ein Chatlog postet in dem so ein digitaler "Experte" empfiehlt täglich ein paar Steine zu essen...
Werden es Tage oder doch eher heute noch?

Und damit begräbt sich das Programm dann von selbst, denn kein Experte möchte einen Bullshitautomaten in seinem Namen (und mit seiner Stimme) sprechen lassen!
 
  • Gefällt mir
Reaktionen: rescuemod, the_IT_Guy, Tera_Nemesis und 5 andere
Verstehe ich nicht. Wieso muss man Menschen einzeln in die KI packen? Die meisten die etwas zu sagen haben haben das doch sowieso schon in Büchern, Zeitungsartikeln, Vorträgen die auf Video sind oder in Wissenschaftlichen Arbeiten veröffentlicht. Das kann die KI doch selber mit dem Rest durchforsten.
Gerade so schafft man denke ich eine ausgewogener Antwort der KI als wenn man sich lediglich auf die Meinung einer einzelnen Person beruft.
 
Ich verstehe ja ein wenig die Idee. Gerade im kreativem Bereich kann einem vlt das KI Abbild eines Autors eher weiterhelfen, als die allgemeine KI. Wenn ich ein Buch im Stile von Stephen King schreiben will, waere es schon cool in als "virtuellen Schreibpaten" zu haben.

Das Problem wird sein, dass es eben nicht dabei bleiben wird. Man wird die KI wie sonst auch aushebeln koennen um die duemmsten Dinge zu sagen und dank "Portraits" wirkt es nur noch glaubwuerdiger.
 
  • Gefällt mir
Reaktionen: the_IT_Guy, Der Puritaner, Abrexxes und eine weitere Person
iSight2TheBlind schrieb:
Wie lange es wohl dauert bis der erste ein Chatlog postet in dem so ein digitaler "Experte" empfiehlt täglich ein paar Steine zu essen...
Werden es Tage oder doch eher heute noch?
Empfehlung der KI: "Spring von der Brücke, du hoffnungsloser Fall..." Überspitzt gesagt. 😱 :mussweg:
 
iSight2TheBlind schrieb:
Wie lange es wohl dauert bis der erste ein Chatlog postet in dem so ein digitaler "Experte" empfiehlt täglich ein paar Steine zu essen...
Werden es Tage oder doch eher heute noch?
Bei Personen die sich als Vögel wie ein Vogelstrauß identifizieren, sind bis zu 1 kg Steine sogar normal, um die Verdauung im Magen zu unterstützen. Mit der Zeit werden die Steine kleiner und werden ganz normal ausgeschieden.
Du solltest deine ornithophobe Einstellung gegenüber Vogelmenschen überdenken! 🤡

Als Strauß, der sich in der Wildnis identifiziert, kannst du Gastrolithen (kleine Steine) aufnehmen, um deine Verdauung zu unterstützen, wie es wildlebende Strauße tun. Basierend auf Beobachtungen von Straußen in freier Wildbahn beträgt die Menge an Steinen im Magen etwa 0,5 bis 1 % des Körpergewichts. Für einen durchschnittlichen adulten Strauß (ca. 100-150 kg) wären das etwa 0,5 bis 1,5 kg Steine.

Wähle kleine, glatte und abgerundete Steine (ca. 1-3 cm Durchmesser), um Verletzungen zu vermeiden. Diese nimmst du nach und nach auf, während du in deinem natürlichen Umfeld Nahrung suchst, besonders in kiesigen oder sandigen Gebieten. Achte darauf, dass die Steine sauber sind, um Schadstoffe oder Parasiten zu vermeiden. Solltest du Verdauungsprobleme bemerken, überprüfe die Qualität oder Menge der Steine und passe sie gegebenenfalls an, indem du geeignete Steine in deinem Habitat suchst.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: the_IT_Guy, WiP3R, dergraf1 und 8 andere
iSight2TheBlind schrieb:
Wie lange es wohl dauert bis der erste ein Chatlog postet in dem so ein digitaler "Experte" empfiehlt täglich ein paar Steine zu essen...
Nur weil einige "Spaßvögel" es lustig finden, ihre primären Geschlechtsorgane durch eine Scheibe Toast zu stecken, können alle anderen trotzdem unbesorgt ihren Toast essen ^^
Ich würde davon ausgehen, dass es zu erkennen sein wird, woher das kommt, wenn eine der portraitierten Personen groben oder feinen Unfug von sich gibt.

Axxid schrieb:
Das Problem wird sein, dass es eben nicht dabei bleiben wird. Man wird die KI wie sonst auch aushebeln koennen um die duemmsten Dinge zu sagen und dank "Portraits" wirkt es nur noch glaubwuerdiger.
Ja, Missbrauch wird es mit an Sicherheit grenzender Wahrscheinlichkeit geben, ist nur die Frage in welchem Ausmaß und wie gut Google das eingefangen bekommt. Sonst wird das wohl tatsächlich schnell wieder verschwinden.

QuamWave schrieb:
Wieso muss man Menschen einzeln in die KI packen?
Diese Sprachmodelle sind momentan alle eher "inselbegabt". Für spezifische Themen optimiert und befragt sind die durchaus nützlich. Und weil Menschen einen besseren Zugang finden und das für glaubwürdiger halten, wenn es so aussieht, dass Ihnen gerade ein Mensch hilft und kein kalter Computer. Mit den beiden Gedanken verstehe ich das Anliegen von Google.
Aber hoffentlich gibt es Ansätze, dass die Leute die Portraitierten nicht als "Freunde" falsch verstehen und völlig ausblenden, dass das am Ende nur ein Computer ist. Wie einige mit ihren Hunden, die mit denen spazieren gehen und dann so etwas wie "komm doch endlich, ich hab dir schon Tausend mal gesagt du sollst das und das nicht" in der Unterhaltung mit dem Hund einbauen, als wäre es der Partner oder das Kind...
 
@Darklordx Ich bezog mich auf diese echte Empfehlung :)

@QuamWave Ich denke der Hintergrund ist, dass ein virtuelles Ebenbild eines echten Expertin/einer Expertin glaubwürdiger sein kann als eine allgemeine KI, die als allwissende Blackbox rüberkommt aber eben selbst für nichts steht.
"Viele Leute sagen" klingt ja auch viel weniger glaubwürdig als "der führende XYZ-Wissenschaftler sagt zu diesem Thema..."
Und der von @Axxid genannte Schreibpate im Stil von Stephen King... das ist dann natürlich auch gleich viel mehr auf die Expertise fokussiert und ohne irgendwelche Tipps die dem Stil oder der Meinung des Experten widersprechen.
Also die Intention dahinter kann ich komplett verstehen.

Was ich halt kritisch finde: KI erzeugt noch viel zu viel Bullshit (aka halluzinieren, aber den Begriff des "bullshitting" finde ich da passender) als dass ich so einem "Experten" das Vertrauen welches sein Name und seine Stimme hervorrufen sollen entgegenbringen könnte.
Erst einmal muss garantiert werden, dass die Aussagen der KI nur faktisch korrekt sein können, bevor man anfangen darf so "billig" Vertrauen und Glaubwürdigkeit zu generieren, indem man sich mit irgendwelchen Experten schmückt!

@Spike S. KI bullshittet/halluziniert und zwar nicht weil Leute das bewusst forcieren, sondern weil es Textvervollständigungsautomaten sind, die von Faktualität keine Ahnung haben bzw. die nicht irgendwie daran gebunden sind!
Die erzeugen auch, vollkommen ohne Manipulation, einfach nur mit "works as intended" Prompts wie der Frage nach Quellen für eine Aussage, eine Liste von Quellen die komplett erfunden ist.
Einfach ein paar Namen aus dem Fachgebiet in den Mixer werfen, ein "Handbuch" oder "Grundlagen" im Titel ist auch immer gut und dann wird aus dem (für dieses Beispiel erfundenen, aber hypothetisch) realen "Grundlagen der Physik" von Markus Schrankenwärter das Buch "Handbuch der Physik" von Manfred Schrankenwärter.
Die KI weiß, dass ein "M. Schrankenwärter" im Bereich Physik publiziert und das ganz viele Lehrbücher zu wissenschaftlichen Themen mit "Grundlagen" oder "Handbuch" im Titel beginnen. Den Rest mixt es durch um auf die Literaturliste zu kommen.

Selbst wenn man die KI hier "nur" mit den Werken/Schriften eines Experten trainiert haben will, denke ich nicht, dass man damit eine so scharf fokussierte KI hinbekommt, dass nicht auch Halluzinationen aufgrund von überspieltem "Unwissen" hinzukommt.
Grundsätzlich denke ich, dass das hier eh ein stinknormales KI-Modell ist, dem man als Basis-Konfiguration vorgibt, immer als Experte XYZ zu reagieren und als Marketingstunt hat man dem dann noch Avatar und Stimme gegeben.
Avatar und Stimme bringen aber nichts, wenn zugrundeliegende Modell problematisch ist, siehe vor einem Jahrzehnt bereits Tay...^^
Erstmal das Fundament, dann das stabile Haus, dann kann man anfangen das Haus hübsch anzumalen und Wasserspeierfiguren am Dachfirst zu befestigen!
 
Zuletzt bearbeitet: (Erläuterungslink zur Verwendung des Begriffs "Bullshit" ergänzt)
  • Gefällt mir
Reaktionen: the_IT_Guy
Ich hoffe stark, dass wir rechtzeitig zur Vernunft kommen.
Es gibt einfach zu viele Idioten die alles künstlich machen wollen.

Jeder arbeitslos und schwupps was dann?
Nur Coder die wir dann in der zweiten Welle auch nicht mehr brauchen?
Das Thema macht mir manchmal Angst da wir selten wissen, wie wir ethisch und moralisch mit Macht umgehen.

Wir können ja nicht Mal unser Verhalten mit "smart"phones Kontrollieren.

Blind alles in KI Form umzuwandeln scheint mir Aktionismus mit Kapitalismus gepaart ohne das ganze durchdacht zu haben.


KI ist super interessant und hilfreich, sollte aber ein Tool bleiben und nicht die neue Maxime werden.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
@iSight2TheBlind Genau die Punkte sind das, weshalb ich denke in einem konkreten, spezialisierten Kontext minimiert man diese Probleme und man bekommt tatsächlich doch auch mal hilfreiche und valide Antworten. Aber das hängt auch immer vom zugrundeliegenden Modell ab und kritisch muss man sowieso immer bleiben.

@Cheechako Soweit sind diese "Automaten" noch lange nicht. Deshalb stören sich ja auch viele an dem Begriff "Intelligenz", da daran nicht viel intelligent ist bisher. Die haben schnell abrufbar Informationen gespeichert und sind mehr oder weniger gut darin zu Raten, was je nach Fragestellung die richtige Antwort sein könnte. Und von selbst machen die ja auch nichts, die denken sich nicht einfach morgens halb 10 in Deutschland "jetzt erfinde ich ein neues Produkt: eine Waffelschnitte und nenne sie 'Srepponk'"

Und wenn man sowas ließt, kann man auch gleich einen Würfel nehmen...
 
  • Gefällt mir
Reaktionen: iSight2TheBlind und Cheechako
Spike S. schrieb:
Für spezifische Themen optimiert und befragt sind die durchaus nützlich. Und weil Menschen einen besseren Zugang finden und das für glaubwürdiger halten, wenn es so aussieht, dass Ihnen gerade ein Mensch hilft und kein kalter Computer.
Musste sofort and den Film 100 Dinge denken mit der app Nana ^^
 
Wieso muss ich an die Star Trek Folge mit Laforge denken, wo er eine Holodeck Version einer Ingenieurin erstellt, welche ihm bei einem Problem helfen soll.
 
"Für das erste virtuelle Abbild eines Experten konnte die Bestsellerautorin Kim Scott gewonnen werden..."

Wetten, das einer dieser "Experten" in ein paar Jahren Google verklagt, weil ihr Bild, Stimme, Name etc. für Dinge im Zusammenhang mit KI missbraucht wurde und ihnen Google nichts von solchen (womöglich jetzt noch nicht absehbaren) Möglichkeiten erzählt habe?
 
  • Gefällt mir
Reaktionen: MaverickM
What could go wrong? :evillol:

Das ist auf so vielen Ebenen falsch aus meiner Sicht und ich sehe jede Menge Potential für Chaos... Ich pack schon mal das Popcorn aus. :daumen:

Für das erste virtuelle Abbild eines Experten konnte die Bestsellerautorin Kim Scott gewonnen werden.

Naja, wenn man sich mal ihren Wikipedia-Artikel ansieht (Den man nicht mal auf Anhieb findet...), weiß ich nicht, ob ich das als Experte bezeichnen würde, oder gar als Bestseller-Autor... :lol:
 
  • Gefällt mir
Reaktionen: Land_Kind
Zurück
Oben