KI Nutzung hier auf CB

Da bei ChatGPT man von der Firma abhängig ist, ist der für mich irrelevant. Alles steht und fällt ja mit dem Sprachmodell und die Trainingsdaten. Da dort aber mittlerweile zuviel dran rumgepfuscht wird, weil immer sich irgendjemand beschwert, kommt da nur Mist bei rum. Außerdem gilt hier auch: Die Fragestellung ist wichtig. Bis der Bot weiß, was Du meinst, dauert es noch eine Weile :D
 
andi_sco schrieb:
Weil beide Teilnehmer gesprochen hatten🤣
naja, heutzutage sprechen beim Support erst beim zweiten Anruf Menschen mit dir. Das habe ich erst vorgestern bei einer grösseren Schweizer Telefongesellschaft bemerkt. Beim erstem Mal war immer eine kurze Pause oder ein reinplappern merkbar oder eine nicht passende Antwort, die ein ganz bestimmtes Support-Schema abgearbeitet hat. Erst beim zweiten Support Anruf war es ein Mensch, der richtig helfen konnte und sich auch zuerst verplapperte und gleich wieder verneinte als ich meine Befürchtung schilderte.
 
Hier wurde schon reagiert seitens CB? Es gibt einen Account Watson49, der zwar per Suche zu finden ist, aber das Profil nicht mehr aufrufbar ist.
 
  • Gefällt mir
Reaktionen: cartridge_case
AGB-Leser schrieb:
Da dort aber mittlerweile zuviel dran rumgepfuscht wird, weil immer sich irgendjemand beschwert, kommt da nur Mist bei rum.
Es wird "gepfuscht", weil sonst kommt auch nur Mist dabei rum. Wenn ich nichts einschränke, passiert effektiv immer das, was z.B. beim Tay-Bot passierte - die KI ist dann auch einfach nicht zu gebrauchen. Also eine KI wird überhaupt erst brauchbar (für einen bestimmten Zweck), wenn sie entsprechend geformt/trainiert wird. Man muss also nur dem Anwendungszweck entsprechend pfuschen, bzw. sich die passende KI zum Anwendungszweck suchen.

Ich kann deine Kritik an ChatGTP nachvollziehen und habe da selber div.
Unbenannt.PNG
Beispiele
, wo die KI einfach zu sehr versucht politisch korrekt zu antworten, oder auch dabei völlig versagt - Irgendwer MUSS halt entscheiden, nach welchen Kriterien die KI geformt und eingeschränkt wird und womit sie trainiert wird, damit diese überhaupt zu etwas zu gebrauchen ist und wenn einem der "Charakter" einer bestimmten KI nicht passt, kann er sich auch sein eigenes Modell trainieren, oder auf eine andere Alternative zurückgreifen - die Auswahl steigt ja stetig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kuristina
Gutes Beispiel, das sehr schön zeigt, wie bescheuert diese Regel ist.
Das meinte ich ja:
Hier politisch korrekt, da politisch korrekt, das als gesperrten Thema, jenes verboten

Da bleibt dann nicht mehr viel übrig. Für mich ist KI hier einfach nur eine riesige Datenbank, die man auch als Laie benutzen kann. Mehr nicht. Und wenn da vieles rauszensiert wird, ich selber dann wieder suchen muss, dann brauche ich keine KI mehr
 
  • Gefällt mir
Reaktionen: Kuristina
Du hast nur noch nicht verstanden, dass wenn nichts "zensiert" wird, die KI ebenfalls komplett unbrauchbar wird. Das ist halt nciht besonders leicht die richtige Ausgewogenheit zu treffen, bzw. wirst du niemals alle Leute zufrieden stellen (manchen wird es zu wenig sein, anderen zu viel) und es ist noch schwieriger das vollständig frei von Ideologie und Weltanschauungen zu halten, da dies ja vom Unternehmen selbst vorgenommen werden muss. Aus den gleichen Gründen gefällt dir ggf. auch ein Spiel, nen Film, oder n Buch nicht, oder dir missfällt die Berichterstattung von Zeitung X und TV-Sender Y, etc. Dann musst du dir eben eine andere Quelle suchen - Nur ChatGTP zensiert so wie ChatGTP zensiert und hinter jeder anderen KI stecken andere Leute, die anders Entscheiden, wenn es darum geht, womit die KI trainiert werden soll und wo sie beschränkt wird, damit sie eben nciht völlig aus dem Ruder läuft.

AGB-Leser schrieb:
dann brauche ich keine KI mehr
Das bezieht sich ja zunächst mal auf OpenAI und es gibt ja noch viele andere KI-Modelle. Also weil die eine KI dir nicht zusagt, kannst du die ja nicht alle über einen Kamm scheren.
 
Ja, ich will einen geschliffenen Diamanten und keine Krümel davon. Genau. Du hast schon recht, es muss ja was gemacht werden. Aber halt nicht zu viel. Und da das Thema ja grade ständig durch die Presse geblasen wird, wird natürlich auch eine Regelung geschaffen, die dann eben ALLE KI, bzw Sprachmodelle und Trainingsdaten betrifft.
nciht schrieb:
Das bezieht sich ja zunächst mal auf OpenAI und es gibt ja noch viele andere KI-Modelle. Also weil die eine KI dir nicht zusagt, kannst du die ja nicht alle über einen Kamm scheren.
Nein, das bezog sich auf alle KI
 
AGB-Leser schrieb:
Nein, das bezog sich auf alle KI
Gut, dann stimmt es halt (objektiv) einfach nicht, was du sagst. Denn die Modelle auf dem Markt sind ja längst nicht alle wie ChatGTP und unterscheiden sich in der angesprochenen Hinsicht durchaus voneinander - Wenn dir jetzt natürlich alle missfallen, dann liegt das ggf. daran, dass du schlicht zu picky bist. Ist dann n bisschen so wie wenn du sagst "Ich mag zwar gerne lesen, aber alle Bücher die es gibt sind gleich schlecht und keines davon gefällt mir"

AGB-Leser schrieb:
wird natürlich auch eine Regelung geschaffen, die dann eben ALLE KI, bzw Sprachmodelle und Trainingsdaten betrifft.
Und warum sollen sich Unternehmen außerhalb der EU daran halten? Warum sollten sich Privatpersonen daran halten? Wie wollen die das prüfen, ob ein KI-Modell, dass ich mir von nem ausländischen Server lade ihren Regeln entspricht und wie wollen die das unterbinden, bzw. wenn ich nen eigenes Modell trainiere, dass ihre Regeln bricht??? Ich halte das eher für politischen Dampf um nix, der am Ende nur die Entwicklung von KI in der EU ausbremsen wird und damit ein weiterer Wettbewerbsnachteil für europäische Unternehmen ist.

In Italien wurde z.B. OpenAI geblockt, meinst du da wurde effektiv verhindert dass man von Italien z.B. über VPN drauf zugreifen kann (wie sollte man)?
 
Zuletzt bearbeitet:
Na wenn das außerhalb der EU "ungedrosselt" läuft, wunderbar…wird dann aber scheiße mit deutsch.
Ich warte noch ein wenig, bis es da bessere Erklärbärvideos zu gibt. Irgendwann kann man sich sowas ja selber bauen. Das Training soll ja das aufwändige sein, nicht mal das ausführen. Dann wird man sich fertige Pakete runterladen können. Also erstmal abwarten und schauen, wie man die Einschränkungen umgeht.
 
AGB-Leser schrieb:
wird dann aber scheiße mit deutsch.
Warum? ich hab texte in altgriechisch durch ChatGTP gejagt und wette dass die KI darauf nie explizit trainiert wurde. Da musst du dir denke ich keine sorgen machen, dass die kein deutsch kann. Gerade so große Modelle werden mit unmengen an Daten in allen möglichen Sprachen gefüttert - da sollte Deutsch meistens schon ganz gut vertreten sein. In manchen Bereichen wird die KI dann ggf. nur schlechter abschneiden - z.B. kann ChatGTP auf deutsch deutlich schlechter dichten, als auf englisch. OpenAi weiß tatsächlich selber garnicht, wie viele Sprachen ihre KI nun wirklich beherrscht.
 
Zuletzt bearbeitet:
auch nicht schlecht. Ja, wenn die Bedienung auch auf deutsch funktioniert, dann wunderbar.
ChatGPT soll laut c't status ja mehr auf den Wortlaut als auf das geschriebene hören. Das haben die mit ein paar Sätzen getestet.
 
@ComputerBase
Kann man vielleicht ein Smiley/Icon/Emoticon einführen, mit dem man KI-generierte Inhalte markieren kann?

KI-generiert schrieb:
Oder vielleicht auch eine angepasste Version der Zitatefunktion, wo dann "KI-generiert" oder ähnliches im Kopf steht?

Im Augenblick muss man ja immer im Textform dazuschreiben, dass hier eine KI mitgewirkt hat.
 
  • Gefällt mir
Reaktionen: ChrisMK72 und zazie
Hatte gestern zum ersten Mal den Eindruck, hier im Forum ein posting zu lesen, fast hauptsächlich aus KI Beitrag bestand. Dem vorigen posting des Users, welches recht normal aussah, konnte ich gut zustimmen und hatte es "geliked". Von daher war ich neugierig auf sein nächstes posting, welches aber anscheinend ein typischer KI-Textbaustein war.

Ich fand es merkwürdig und hatte aus dem Bauch heraus geschrieben, ob wir uns nicht darauf einigen können größere KI Beiträge, als solche zu kennzeichnen, da ich mich unwohl dabei fühle mitten in der Diskussion mich auf einmal "mit einer KI zu unterhalten".

Finde es ok, wenn man KI nutzt, um an Informationen zu kommen, da diese teils auch gute Ergebnisse liefert, aber im Forum bevorzuge ich menschliche Beiträge.
Auch wenn die Schreiber manchmal "schräg" sind, sind die mir immer lieber, als einfache KI Textbausteine. Letzteres wirkt leblos, als wenn die Diskussion mit einer KI Antwort beendet wäre.

Manch "schräge Charaktere" gehören für mich zum Forum dazu, auch wenn ich nicht(immer) ihrer Meinung bin und manche mich nerven. ;) Das is mir aber alles lieber, bzw. bevorzuge ich es, gegenüber KI Antworten, welche sofort ein Unwohlsein bei mir hervorrufen.

Da KI nicht mehr verschwinden wird, fände ich eine Kennzeichnung gut, wenn man größere Teile seines postings daraus bestehen lässt.
Mittlerweile sind mir auch Tippfehler und merkwürdige(falsche) Formulierungen lieber, als perfekt gegliederte Textbausteine einer KI.

Ein dickes "Hinweisschild", als smilie, für Kennzeichnung von KI Inhalten, wie Krik das vorschlägt, fände ich ebenfalls praktisch. :)

So nach diesem Motto:
:volllol:
Anstatt volldolllol dann halt "KI Inhalt", oder ähnliches.


Danke.
 
  • Gefällt mir
Reaktionen: Hagen_67, Jan, Krik und eine weitere Person
  • Gefällt mir
Reaktionen: konkretor, Jan und ChrisMK72
Der KI-Einsatz ist nicht unbedingt böse. Es gibt einige Menschen, die gut damit fahren würden ihre Beiträge von der KI nochmal überarbeiten zu lassen. Das war übrigens vorher mit Grammatik- bzw. Rechtschreibhilfe schon genauso. Gerade für Nicht-Muttersprachler ist oder Menschen mit Schreibstörungen das ein Segen für die Teilhabe.

Ich habe vorher zu dem Thema nichts geschrieben, weil mir die Themen generelle und heimliche KI Verwendung zu sehr durcheinander gehen. Das Problem ist - meiner bescheidenen Meinung nach - doch ein ganz Anderes.

Es gibt in vielen Foren und leider hier bestimmte Menschen, die irgendetwas kompensieren möchten oder einfach nur Unsympathen sind, in seltenen Einzelfällen vielleicht auch psychisch angeknackst. Also blökt man einfach überall etwas in die Threads, um sich wichtig zu machen und wenn man dann sachlich korrigiert wird, nimmt man es persönlich und möchte gegen andere User vorgehen. In Foren wird dann immer noch gerne mit Aussitzen gearbeitet und auf jedes Post noch so bescheuert geantwortet oder beleidigt oder irgendetwas unterstellt. Ja, das findet sogar auf computerbase statt. Damit kann man Menschen mit halbwegs funktionierender Kosten/Nutzen Abwägung erschöpfen, besonders wenn sie im Leben noch Besseres zu tun haben.
Natürlich kostet es Zeit und Mühe ständig gegenzuhalten und mitzuquatschen, also wird oft zusammenhangloser Kram gepostet oder man reagiert auf Sachen, die nicht gesagt wurden, weil das weniger Interaktion und Gedanken bedarf. Hauptsache aussitzen. Funktioniert besonders dann, wenn die anderen Diskussionspartner einfach überlegen sind, z.B. bei weil sie sich mit dem Thema sehr gut auskennen.
Da es auf computerbase legitim ist, auf ausführlichere Beiträge mit "wall of text, lese ich nicht" zu antworten, wird der Einsatz der KI sogar noch attraktiver. Warum sich noch für Beiträge anstrengen, wenn man mit Leuten zu tun hat, die nicht lesen können und das sogar noch als legitime Antwort akzeptiert wird. Also soll das halt die KI machen. Andere User kann man damit erschöpfen, dass die sich in Antworten auf solche Texte abarbeiten und sie so zermürben. Dafür konnte man schon immer copy/paste aus anderen Foren machen oder ... jetzt haben wir den Punkt ... die KI einsetzen.

Eine Moderation ist übrigens kaum in der Lage die wirklich schwierigen User zu erkennen. Die tarnen sich meistens sehr gut und schwimmen auch gerne im gefühlten Mainstream mit und warten auf ihre Chance. Außerdem steckt man als Mod oft in der Entscheidungsfalle fest, also wenn man diese User am Anfang durchgewunken hat, dann möchte man sich ungerne später um 180° drehen. Dazu wird nicht jeder die Fähigkeit haben en passant zu erkennen, was mit manchen Mitusern so los ist. Stattdessen verlegt man sich dann lieber auf einfacherere Ziele: Erkannter KI Einsatz -> Böse. Das eigentliche Problem dahinter, nämlich die entsprechenden User die so etwas einsetzen, bekommt man damit aber nicht in den Griff.

Das Problem ist hier also nicht die KI, sondern das weiterhin kein Konsens herrscht, dass man einigermaßen nett und freundlich miteinander umgeht und einzelne Leute mit zu kleinem Ego meinen, andere User terrorisieren zu müssen.​
 
Treiber schrieb:
Es gibt einige Menschen, die gut damit fahren würden ihre Beiträge von der KI nochmal überarbeiten zu lassen. Das war übrigens vorher mit Grammatik- bzw. Rechtschreibhilfe schon genauso
Besser wäre es natürlich, die lernen es richtig. Um im Leben nicht immer von einer KI abhängig zu sein..
 
Zurück
Oben