Chat gpt Antworten als „Lösung“ im Forum

I

Iqra

Gast
Moin,

In letzter Zeit scheinen sich hier Reaktionen auf Thread Ersteller zu häufen, die simple Zitate von chatgpt sind. Anscheinend bis hin zum reinen Screenshot.

Soweit ich das sehe gibts da null eigenleistung. Keine Schöpfungshöhe. Lediglich den Nachweis, copypaste zu beherrschen.

@Jan @Frank und oder wer sich für Vorgaben an topics zuständig fühlt: wäre es möglich- oder überhaupt erstmal wünschenswert- solche “chatgpt” Antworten mit demselben wert wie “ich auch”, “+1” usw Posts zu belegen und sie, wo gefunden, pauschal ins Aquarium zu verbannen?

Vielleicht seid ihr aber auch der Ansicht das sowas hilfreich ist (sein kann). In dem Fall gerne entsprechenden Hinweis. Und eventuell Gegenvorschläge.
 
Sofern die Antwort doch richtig ist frag ich mich tatsächlich wo das Problem ist? So lange dem TE geholfen wird, sollte es doch i.O. sein.
 
  • Gefällt mir
Reaktionen: spcqike und xNeo92x
finde ich auch. nicht jeder ist gewillt sich bei OpenAI zu registrieren (und seine Handynummer herauszugeben).

Ich sehe auch keinen Unterschied zu plumpen "hier, hab ich für dich gegoogelt, hättest du aber auch selber machen können".

@Iqra dann kannst du auch folgende Antwort als negativ Beispiel aufnehmen:
https://www.computerbase.de/forum/t...-minimieren-verkleinern.2119465/post-27642441

Nachtrag:
Ich meine, solange es nicht falsch ist und dem Fragesteller hilft, sollte es erlaubt oder geduldet werden. So eine riesige KI ist nun einmal in vielen Punkten bedeutend schneller, als Google zu bemühen und sich durch unzählige Foren zu klicken, in denen der gefundene Code meistens nicht einmal ordentlich erklärt wird.

Sollte es dennoch verboten werden, wie möchte man das unterbieten? So lange ein potentieller Helfer einfach ein "hier, hab ich selber grad nich getestet aber so oder so ähnlich könntest du es versuchen" und dazu den kopierten ChatGPT Code als Codeblock antwortet, wie und wer soll das von echter Eigenleistung unterscheiden? (die im Falle vieler ergoogelter Antworten ebensowenig vorhanden ist, meiner Meinung nach)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xNeo92x
Verstehe auch das Problem nicht. Ob ich jetzt was fertiges von Stackoverflow oder sonst wo kopiere oder von ChatGPT, mit einer höheren Wahrscheinlichkeit, dass es richtig ist, spielt doch keine Rolle.
 
  • Gefällt mir
Reaktionen: DrPinguin und spcqike
xNeo92x schrieb:
Ob ich jetzt was fertiges von Stackoverflow oder sonst wo kopiere oder von ChatGPT, mit einer höheren Wahrscheinlichkeit, dass es richtig ist,
Eine Stackoverflow Antwort ist aber in der Regel, zumindest wenn sie akzptiert wurde und ein paar Upvotes hat, in gewisser Weise "peer-reviewed".

Eine ChatGPT Antwort kann dagegen vollkommen falsch sein, sich aber "richtig anhoeren". Wenn derjenige der die ChatGPT Antwort hier im Forum postet keine Ahnung vom Thema hat, dann ist schnell eine voellig falsche Antwort gepostet. Weil ChatGPT an sich gut schreiben kann, und keine offensichtlichen Hinweise gibt das es eigendlich keine Ahnung hat, hoeren sich auch falsche Antworten richtig an.

Anderswo habe ich diese Umschreibung dazu gelesen: "ChatGPT kann unglaublich ueberzeugend unglaublichen Quatsch erzaehlen"
 
  • Gefällt mir
Reaktionen: derMutant, Incanus, Alter_Falter und 4 andere
Ranayna schrieb:
"ChatGPT kann unglaublich ueberzeugend unglaublichen Quatsch erzaehlen"
Ist das kein allgemeiner Grundsatz im Internet? Immerhin kann jeder posten, was er möchte.

Wikipedia, Stackoverflow, ja wahrscheinlich auch auf Computerbase... es gibt überall halbgare Informationen und auch Falschaussagen. Und es gibt überall Leute, die denken, dass sie alles wissen, und dass nur ihr Weg der richtige sei.

Natürlich muss man jede Antwort mit Vorsicht genießen und prüfen, ob sie zum eigenen Problem passt. Und, selbst wenn sie passt, heißt das nicht, dass sie die einzigst wahre Lösung des Problems ist. Bei gefühlt jeder VBA/Excel Frage hier im Forum gibt es relativ schnell 3-5 teilweise unterschiedliche Antworten, die am Ende aber alle zu einem brauchbarem Ergebnis führen.

Ranayna schrieb:
Eine Stackoverflow Antwort ist aber in der Regel, zumindest wenn sie akzptiert wurde und ein paar Upvotes hat, in gewisser Weise "peer-reviewed".
Frage (eher philosophisch...): Wenn eine riesige KI mit Daten von Stackoverflow gefüttert wurde, und dann diese Ergebnisse für seine Antworten nutzt, ist das nicht auch schon "peer-reviewed" ?

Ich für meinen Teil hatte in den vergangenen Wochen noch keinen groben Fehltritt der KI. Im Gegenteil, wenn ich nach meinen Problemen suche / google, und ich nur ein "wie geht das? - hier so in etwa - danke" finde, hilft mir das in der Regel wenig weiter. ChatGPT hingegen erklärt und kommentiert den erzeugten Code sehr ausführlich. Damit kann ich bedeutend mehr anfangen, als mit vielen Foreneinträgen. Und auch Code, den ich online finde und erst einmal nicht ganz verstehe, kann man sich sehr gut erklären lassen. mit dem Verständnis des Codes findet man dann auch eher die Lösung zu seinem eigenen Problemen.

Das Einzige, was bisher mehrfach falsch war, waren Berechnungen. Rechnen kann die KI nicht, oder nicht gut. Da ist sie halt nicht Wolfram-Alpha.
 
  • Gefällt mir
Reaktionen: xNeo92x
spcqike schrieb:
Frage (eher philosophisch...): Wenn eine riesige KI mit Daten von Stackoverflow gefüttert wurde, und dann diese Ergebnisse für seine Antworten nutzt, ist das nicht auch schon "peer-reviewed" ?
Hoechstens wenn ChatGPT auf exakt die gleiche Frage mit der exakt gleichen Antwort von Stackoverflow kopiert antwortet.

Da man der KI aber bald beibringen muessen wird nicht zu plagiieren (sofern das nicht schon passiert ist), wird es dann auf solche Fragen nur noch mit Quellennachweis antworten, womit sie dann "nur noch" eine verbesserte Suchmaschine wird.

Aber Code ist ja nur eine Sache, die ChatGPT ja auch wohl recht gut machen soll.
ChatGPT wird ja auch teilweise schon als das Allheilmittel bei generellen Supportanfragen angesehen, die weit ueber Code hinausgehen. Und grade da kommt es vor das ChatGPT Muell als Gold verkaufen will.
 
Ranayna schrieb:
Eine Stackoverflow Antwort ist aber in der Regel, zumindest wenn sie akzptiert wurde und ein paar Upvotes hat, in gewisser Weise "peer-reviewed".
https://www.reddit.com/r/Programmer..._both_these_tools_copied_from_the_same_wrong/

So viel zu "peer-reviewed".
Was ich bei ChatGPT super finde, ist, dass es die wichtigesten Bestandteile eines Codes auch erklärt.
1673268059651.png
 
  • Gefällt mir
Reaktionen: spcqike
Ich finde, das ist genau die richtige Antwort auf die sich immer wiederholenden Fragen.
Wen interessiert die „Schöpfungshöhe“ in dem Moment wo jemand, die im Forum 1000x vorhandene Antwort, zum 1001. mal tippt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: spfccmtftt89, whats4, xNeo92x und 2 andere
Einen ChatGPT Account, der gekennzeichnet die Fragen beantwortet, würde ich sogar begrüßen.
 
  • Gefällt mir
Reaktionen: scooter010, GSXArne, BeBur und eine weitere Person
@john.smiles Das wollte ich auch schon vorschlagen, leider kann ich ChatGPT gerade nicht mit Forenfragen testen. Zumindest in einigen Unterforen kann ich mir das gut vorstellen. Regt sicherlich auch die Diskussion ganz gut an, bzw. ist ein netter Einstieg.
 
john.smiles schrieb:
Einen ChatGPT Account, der gekennzeichnet die Fragen beantwortet, würde ich sogar begrüßen.

Genau das habe ich in dem Forum hier gesehen
https://firstev.de/forum/x/121-chatgpt-als-user-chatbot-in-unserem-forum/
Da haben die den ChatGPT als eigenen User angelegt, der auf Fragen Antworten liefern kann. Es geht sogar soweit, dass der Bot einzelne User auseinander halten kann und sich halt somit merkt wer was in der Vergangenheit von sich gegeben hat. Oder z.B. wenn der User A ein rotes Auto fährt und User B ein grünes, würde der Bot es unterscheiden und im Gesprächsverlauf berücksichtigen können.
 
Ich finde die Idee gar nicht so verkehrt.
Ich könnte mir da verschiedene Varianten vorstellen:
  1. Der Fragesteller kann bei der Frageerstellung auswählen, ob eine ChatGPT-Bot-Antwort eingeblendet werden soll.
  2. Die Moderation kann eine ChatGPT-Bot Antwort einfügen (lassen). Aber eher nicht, weil Aufwand und so.
  3. Es gibt immer eine (Aus-/Einblendbare mit konfigurierbarer Standardeinstellung) ChatGPT-Antwort unter dem Original-Post.
In allen Fällen würde ich aber eine Interaktivität des Chatbots ausschließen wollen. Wer mit ChatGPT direkt "reden" will, soll sich auch da selbst einen Account machen.

Nachteil:
In einem Forum erwarte ich, dass meine Fragen von Menschen gelesen und beantwortet werden. Das kann sowohl gut als auch schlecht für die Qualität der Antwort sein.
Aber immerhin wurde die Frage von einem Menschen gelesen, der die Frage nicht stumpf beantwortet, wie er sie verstanden hat, sondern eben OP mitels eigener Nachfragen dazu bringt, die Frage zu stellen, die er eigentlich stellen wollte, es aber mangels Wissen nicht konnte.
 
scooter010 schrieb:
In allen Fällen würde ich aber eine Interaktivität des Chatbots ausschließen wollen. Wer mit ChatGPT direkt "reden" will, soll sich auch da selbst einen Account machen.
Vielleicht begrenzen auf User, die schon eine gewisse Anzahl an Beiträgen haben o.ä.

scooter010 schrieb:
In einem Forum erwarte ich, dass meine Fragen von Menschen gelesen und beantwortet werden. Das kann sowohl gut als auch schlecht für die Qualität der Antwort sein.
Das ist eine konservative Einstellung, die bald nicht mehr dem Stand der Gesellschaft entsprechen wird.

Ich würde sogar sagen, das ist ein absolutes Killer-Feature: Jemand stellt eine Frage, die wird initial von ChatGPT beantwortet und diese Antwort wird dann mithilfe der erfahrenen Nutzern im Dialog mit ChatGPT verbessert.

Womöglich ist die Einbeziehung von KI auch der Weg, um als Forum dauerhaft relevant zu bleiben.
 
  • Gefällt mir
Reaktionen: derMutant
BeBur schrieb:
Das ist eine konservative Einstellung, die bald nicht mehr dem Stand der Gesellschaft entsprechen wird.
Joa... Ich bin halt knapp vor dem Mauerfall geboren...

BeBur schrieb:
Womöglich ist die Einbeziehung von KI auch der Weg, um als Forum dauerhaft relevant zu bleiben.
Interessanter Gedankengang. Ich stelle die Gegenthese auf: Vielleicht sind die Menschen im Forum der Weg, um gegenüber KI überhaupt relevant bleiben zu können? Die "let me google that for you" Antworten wird eine KI schneller und "frustfreier" liefern. Das sind auch nicht die Fragen, die man in einem Forum will.
 
scooter010 schrieb:
Vielleicht sind die Menschen im Forum der Weg, um gegenüber KI überhaupt relevant bleiben zu können?
Ich spreche mich ja für eine Kombinierung von KI und Mensch aus hier im Forum, nicht das der Mensch ersetzt werden soll.
 
BeBur schrieb:
Womöglich ist die Einbeziehung von KI auch der Weg, um als Forum dauerhaft relevant zu bleiben.
Womöglich aber ein effizientes Hilfsmittel welches Stasi & Co Steinalt aussehen lässt ?
Schließlich steht und fällt alles mit der Programmierung.
Ergänzung ()

BeBur schrieb:
Ich spreche mich ja für eine Kombinierung von KI und Mensch aus hier im Forum, nicht das der Mensch ersetzt werden soll.
Worauf das dann hinauslaufen wird ist Sonnenklar.
 
Zurück
Oben