Chat GPT dumm?

Es gibt aber durchaus Untersuchungen, die zeigen, das der Output schlechter wird, wenn der Prompt schlecht formuliert ist (grammatikalische oder sonstige Fehler) und auch bei Unhöflichkeit. Ursache ist vermutlich, das zum Duktus passende Antworten gesucht werden und mit dem Niveau des Umgangstons wohl auch das Niveau der Antworten sinkt.
 
  • Gefällt mir
Reaktionen: Snapuman
Negan75 schrieb:
(...) er behaart drauf (...)
Oh, LLM gibt es jetzt auch in behaarter Version für alle Körperhaarfetischisten? Vielleicht sollte ich mich doch mal mit den diversen Modellen beschäftigen.

Da ich den Viwoods AI Reader habe, mit dessen Hilfe man diverse AI-Modelle befragen kann, habe ich das mal bei einer sehr spezifischen Frage gemacht, zu der ich eine Veröffentlichung in einem Fachjournal kenne. Die AI hat erst Mist geschrieben, dann wies ich auf diese eine Veröffentlichung hin. Dann wurde der Inhalt der Veröffentlichung phantasiert. Ich hatte den DOI (10.1038/nature09438) genannt, die AI phantasierte etwas völlig anderes zusammen. Letztlich blieb es bei Falschaussagen der AI, obwohl in dem Paper genau das Gegenteil stand (mRNA kann sich bidirektional im Kernporenkomplex [NPC] bewegen ["mRNAs can move bi-directionally in the pore complex", steht sogar im Abstract; im Text dann ausführlicher mit "Three transport traces showed import of mRNA and 46 traces (40%) showed more than one directional change, supporting the principle of reversibility of the translocation step through the central channel."], die AI beharrte darauf, das das nur in eine Richtung funktioniere).
Das war mein Erlebnis mit einer AI. Ansonsten weiß ich wirklich nicht, was ich damit anfangen soll bzw. welche Fragen ich stellen soll, deren Antworten ich mir nicht auch selbst erarbeiten könnte. Etwas zusammenphantasieren kann ich auch alleine, da brauche ich kein LLM.
 
  • Gefällt mir
Reaktionen: Darumbar
geht es hier eigentlich hauptsächlich darum zu kommunizieren, dass man 700€ für eine Graka ausgegeben hat?
 
@Jakop Du bist der erste, der auf Seite 5 diese Vermutung hat. Ich schätze also: Nein.
 
  • Gefällt mir
Reaktionen: Darumbar
Snapuman schrieb:
Wie gesagt, die meisten werden das sicherlich bewusst ironisch oder sarkastisch so verwendet haben. Und Ausnahmen bestätigen doch immer die Regel.
Gut, dass du das besser weißt als ich, der die Situationen erlebt hat :rolleyes:
Snapuman schrieb:
Ich sagte, ich beobachte einen schleichenden Prozess, welche bereits langsam beginnt diese Grenzen aufweichen. Das hat so mit dem Aufkommen und der Verbreitung von ChatGPT angefangen.
Du sprichst der plumpen Anrede einer KI hierbei jedoch mmn. eine viel zu große Rolle zu
Snapuman schrieb:
Ich sehe aber einen großen Unterschied darin, ob ich (auch) mit einer Maschine bewusst höflich und respektvoll und in einem natürlichen Sprachfluss umgehe/interagiere, oder ob ich auch gegenüber anderen von einer Maschine spreche, als sei sie ein Mensch oder mein Freund (anstelle eines Werkzeugs).
Beim Tippen spart man sich durchaus Zeit wenn man "bitte" etc. weglässt, weshalb schon Sinn macht so trocken zu schreiben. Das ist für mich in dem Fall mehr Wert als den Sprachfluss zu berücksichtigen. Wenn ich jedoch mit jemandem darüber quatsche ist mir das herzlich egal und ich tendiere eher dazu den natürlichen Sprachfluss beizubehalten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gaym0r und Kuristina
Ich nutze Google Gemini, das mir in der kostenlosen Variante ausreicht.

Damit habe ich meine ganze Linux Mint Installation eingerichtet, wenn ich nicht weiter kam oder ein Spiel von CD/DVD mit Lutris nicht startete, habe ich die Google KI gefragt und, bisher habe ich alles zum laufen bekommen, vieles was unter Windows 11 so nicht ohne weiteres mehr startet.


Für solche speziellen Spiele wie Beach King Stunt Racer findet man so nämlich nichts im Internet, mann muss der Google KI dann das Logfile von Lutris geben und die KI wertet das aus, also man muss auch schon selbst ein wenig Intelligent sein und die richtigen Fragen stellen.
 
  • Gefällt mir
Reaktionen: Serandi.87
Shakyor schrieb:
Du kannst aber jeder KI sagen, wie du deine Antworten willst. Wenn du einfach nur Ergebnisse möchtest ohne Smalltalk, Emojis und was weiß ich was musste denen das nur einmal sagen und gut ist
Das LLM spiegelt deinen eigenen Kommunikationstil (meine Erfahrung). Aber über die Session hinaus wird da nix "im Gedächtnis behalten", zumindest nicht in den kostenlosen Zugängen, die ich ausprobiert habe.
 
Jok3er schrieb:
Ich nutze Google Gemini, das mir in der kostenlosen Variante ausreicht.

Damit habe ich meine ganze Linux Mint Installation eingerichtet, wenn ich nicht weiter kam oder ein Spiel von CD/DVD mit Lutris nicht startete, habe ich die Google KI gefragt und, bisher habe ich alles zum laufen bekommen, vieles was unter Windows 11 so nicht ohne weiteres mehr startet.


Für solche speziellen Spiele wie Beach King Stunt Racer findet man so nämlich nichts im Internet, mann muss der Google KI dann das Logfile von Lutris geben und die KI wertet das aus, also man muss auch schon selbst ein wenig Intelligent sein und die richtigen Fragen stellen.
Hammer! Danke für diese goldene Info! :love:
Mein Wissenstand über Linux ist nämlich gleich 0,0%!
Bin so ein richtiger Windoofi :freak: :D
 
Jok3er schrieb:
...also man muss auch schon selbst ein wenig Intelligent sein und die richtigen Fragen stellen.
...und genau deswegen glaube ich wir sind verdammt, wenn Firmen all ihre Mitarbeiter entlassen und die Top-Manager der KI erklären was sie machen muss damit die Firma läuft :pcangry:
 
  • Gefällt mir
Reaktionen: Darumbar
Kann eine KI wirklich dumm oder intelligent sein. Sie greift nur auf Informationen zurück. Sie merkt sich alles und interpretiert dann. Ist das aber Intelligenz, oder Wissen?

Man kann intelligent sein, aber ohne Wissen, bist du genau so wertvoll wie das Meer wenn du durstig bist.

Man müsste fragen ob sie kompetent ist.
 
polizei schrieb:
Aber über die Session hinaus wird da nix "im Gedächtnis behalten", zumindest nicht in den kostenlosen Zugängen, die ich ausprobiert habe.
Geht bei mir bei ChatGPT. Man muss es halt ziemlich deutlich formulieren, z.B. "Merke dir, dass ..." und nicht so by the way erwähnen. Wird dann in der Regel auch entsprechend gekennzeichnet, wenn sich diese Info gemerkt wird.
 
prayhe schrieb:
Dass wirklich so beharrlich dran festgehalten wird dass die Karte nicht existiert ist schon wild. Ist mir bisher noch nicht untergekommen sowas. Höchstens mal dass ich die KI drauf hinweisen musste doch nach aktuellen Infos zu schauen, dann wurde sich immer direkt korrigiert.
Sorry die Instanz lief auf Nvidia 🙃
 
Lazzarus schrieb:
Sie merkt sich alles und interpretiert dann. Ist das aber Intelligenz, oder Wissen?
Nein, noch schlimmer - es sind nur Wahrscheinlichkeiten. Was sagt das über uns aus? Arbeitet unser Gehirn auch so und es erkennt eine bestimmte Ansammlung an Pixel "wahrscheinlich" als deine Frau?
 
prayhe schrieb:
Gut, dass du das besser weißt als ich, der die Situationen erlebt hat :rolleyes:
So ein Quark ich weiss es nicht besser und hab das auch nicht behauptet. Ich habe formuliert "werden das sicherlich" nicht "haben das". Das ist lediglich meine Einschätzung und keine Tatsachenbehauptung.

prayhe schrieb:
Du sprichst der plumpen Anrede einer KI hierbei jedoch mmn. eine viel zu große Rolle zu
Möglich. Ich sehe es nun mal aus benannten Gründen anders und wurde gefragt warum ich das so sehe. Das hab ich dann weiter ausgeführt

prayhe schrieb:
Beim Tippen spart man sich durchaus Zeit wenn man "bitte" etc. weglässt, weshalb schon Sinn macht so trocken zu schreiben. Das ist für mich in dem Fall mehr Wert als den Sprachfluss zu berücksichtigen. Wenn ich jedoch mit jemandem darüber quatsche ist mir das herzlich egal und ich tendiere eher dazu den natürlichen Sprachfluss beizubehalten.
Beim tippen spart man sich natürlich immer Zeit wenn man Dinge weglässst, logisch...

Wieso ist es dir "herzlich egal" wenn du mit jemand darüber quatscht wie viel Zeit du für die Formulierung aufwendest, aber wen du etwas promptest muss es scheinbar so effizient wie nur irgend möglich sein?
Ja klar, Token kosten. Weiss ich, hab ich verstanden.

Wie gesagt, ich stimme ja auch zu, dass man es mit der Höflichkeit im Prompt sehr leicht übertreiben kann.
Mein Punkt war doch aber, dass z.B. ein einfaches bitte den Kohl nicht fett macht.
Die Zeit welche du dadurch sparst ist wie wenn dein Spiel 0, bis 1 FPS schneller läuft. Das ist vlt. messbar im Benchmark hat aber ansonsten keine relevante Auswirkung auf Praxis.

(Ich verwende btw. so eine Höflichkeitsform beim prompten, wenn überhaupt, meist auch nur beim Einstiegsprompt. Alle weiteren Nachfragen halte ich üblicherweise nüchtern und sachlich. Manchmal ergibt sich zwischendurch noch irgendwo ein Danke im Schreibfluss. Wir reden hier also von vlt 0.1% der Worte - das fasse ich persönlich definitiv als nicht relevante Größe auf.)

PS: Sinn kann sich nur ergeben, den kann man nicht machen


Serandi.87 schrieb:
Hammer! Danke für diese goldene Info! :love:
Mein Wissenstand über Linux ist nämlich gleich 0,0%!
Aber Obacht, lieber 2 mal denken und lieber noch mal nachschauen bevor du irgendwelche Befehle einhämmerst und configs umschreibst.

Ralf Stockmann von der freakshow hatte in den letzten Sendungen (hier ab Kapitel 16) auch von seinen Erfahrungen Linux als Linux-Noob mit Hilfe von "AI" aufzusetzen und zu konfigurieren berichtet und sein Fazit war:
"in etlichen Bereichen funktioniert das ganz gut, bis es halt nicht mehr funktioniert. Und dann bist du in genau diesen LLM-Schleifen drin, die wir beim Vibe-Coding hier schon zigmal diskutiert haben"
 
  • Gefällt mir
Reaktionen: Serandi.87
Snapuman schrieb:
(...)

Und ich hab mich über die Jahre lange und intensiv mit Psychologie und der Macht des Unterbewusstseins auseinandergesetzt, eben u.A. auch der ("unsichtbaren" und nicht offensichtlichen) Macht von Worten.
Ich zähle hier also letztlich auch nur 1 + 1 zusammen.
Ich muss mich hier mal als jemand, der Anglistik studiert hat, gegen die Übertreibungen mancher (nicht aller!) Psychoanalytiker einmischen: Die englische Sprache hat vor ein paar Jahrhunderten ihr System von grammatischem Gender gegen ein System mit natürlichem Gender ersetzt. Die deutsche Sprache hat aber dagegen nach wie vor grammatisches Gender und allen Verwirrungen, die Judith Butler in den 80ern mit ihrer Begriffsübernahme von "Gender" gestiftet hat, hatte die Linguistik den Begriff Gender schon lange vor ihr gezielt dafür verwendet, jegliche Assoziation mit säugetierischem Geschlecht, mit männlich-weiblich-dazwischen-und-außerhalb zu vermeiden. Also mal langsam: Gender in Social Studies und Gender in Linguistik bedeuten vollkommen unterschiedliche Sachen, die Begriffe sind sich fremd, auch wenn sie graphemisch und phonetisch identisch scheinen. Gender in der Linguistik bedeutet letztendlich nicht mehr als sowas wie Genre und darüber, dass die Benennung dieser Genres mit den Begriffen männlich, weiblich, sächlich eventuell Bockmist war, wurde schon im antiken Griechenland gestritten.

Ich nenne die Maschine "sie" und den ChatBot "er", weil ich das Kind "es" nennen muss. So funktioniert die deutsche Sprache, auch wenn seit 30 Jahren immer wieder einzelne Studien behaupten, die von dir angedachte Geschlechterassotiation mache die Menschen wuschig, während genau diese in den Kulturwissenschaften hoch und runterrezitierten Studien bis jetzt alle nach genauer Betrachtung und Replikationsversuchen nicht überzeugt haben, also nicht belegt sind, auch wenn die ursprünglichen Studienautoren das in ihren Studien behauptet hatten. Bei der in den letzten 10 Jahren populärsten Studie mit dem "weiblichen Schlüssel" in Spanisch wurde sogar nachgewiesen, dass die Autor*in ihre Daten "botched" hatte. Auch was durchs Peer Review durch ist, kann sich später als falsch erweisen.

Also nein, allein dadurch ist eine Vermenschlichung nicht belegt. Und weil wir hier in einem Gamer-Forum sind: Das ist genau der Zoff, den wir mit Manfred Spitzer vor 25 Jahren hatten, als der behauptete, jeder, der Ego-Shooter spielt, erhöhe seine Chance, Amokläufer zu werden - was einfach ein Fehler in der Anwendung von Statistik ist, denn dann würde auch jeder, der Weizeneiweiß ist, seine Chance auf Dünndarmentzündung erhöhen, was nicht stimmt. Ich kann soviel Gluten essen, wie ich will, und meine Chance auf Dünndarmentzündung verändert sich nicht. Eine Fernverwandte von mir hat Zöliakie und die erhöht mit dem Essen eines Weizenbrötchens ihre Chance auf eine Dümmdarmentzündung auf nahezu 100%.
 
  • Gefällt mir
Reaktionen: prayhe
Negan75 schrieb:
Jetzt hat ers. vieleicht war er auch nur schlecht gelaunt :D
Die gängigen Tipps an der Stelle wären eigentlich die KI aufzufordern vorab im Netz nach aktuellen Benchmarks zu suchen, sich ausschließlich auf diese zu beziehen (nichts dazu erfinden) und die Quellen am Ende auch zu nennen.
-> Damit erhält man normalerweise deutlich bessere Ergebnisse als wenn er sich aus den (teils jahrealten) Trainingsdaten etwas zusammen halluziniert und das klappt dann meistens auch recht gut.

Mit Grafikkarten scheint aber mindestens der Copilot derzeit tatsächlich noch überfordert zu sein:
Im ersten Versuch nannte er eine RX 9090 XT und RX 9080 XT im Ranking, welche überhaupt nicht existieren. Im nächsten Versuch setzte er die RX 9070 XT pauschal auf den ersten Platz (weil seine einzige Quelle nach Preis-/Leistung und nicht max. Gesamtleistung ging) und im dritten Anlauf hat er komplett aufgegeben und meinte das sei unmöglich weil er nicht genügend seriöse Benchmarks zu aktuellen Karten finden könne.
Erst im vierten Anlauf, nachdem ich den Prompt erneut nochmals deutlich genauer mit Schritt für Schritt Anweisungen ausformuliert hatte, hat er dann ein halbwegs glaubhaftes Ranking ausgespuckt. -An dem Punkt wäre ich wohl doppelt so schnell zu einem Ergebnis gekommen, hätte ich selbst im Netz nach den Infos gesucht.

Klassisches googeln und von echten Menschen geschriebene Artikel / Beiträge lesen ist insbesondere für Faktenwissen dann doch manchmal besser... ;)
 
P.S.
Und um das, was ich gestern sagte, nochmal aufzugreifen: Im Umgang mit den ChatBots ist es nützlich, so mit ihnen zu reden, wie man mit demjenigen Menschen reden würde, mit dem man statt mit ihnen lieber reden würde, weil sie dann quasi diese Rolle "spielen" und einem entsprechende Antworten geben. Ein paar Menschen werden, wenn sie zu viel mit ChatBots reden, dafür anfällig, sich mit denen in einer echten Beziehung zu wähnen - nicht erst seit GPT3, sondern schon mindestens seit den Dating-ChatBots der späten 1990er im Web 1.0. Soweit trägt also das von dir angesprochene Unterbewusste bei manchen. Daraus kann man aber nicht darauf schließen, dass er jeder, der den Chatbot "er" nenne, von diesem Problem befallen wäre. Chatbot-Interaktion ist eine Theaterbühne, das ist OK so.
 
Snapuman schrieb:
So ein Quark ich weiss es nicht besser und hab das auch nicht behauptet. Ich habe formuliert "werden das sicherlich" nicht "haben das". Das ist lediglich meine Einschätzung und keine Tatsachenbehauptung.


Möglich. Ich sehe es nun mal aus benannten Gründen anders und wurde gefragt warum ich das so sehe. Das hab ich dann weiter ausgeführt


Beim tippen spart man sich natürlich immer Zeit wenn man Dinge weglässst, logisch...

Wieso ist es dir "herzlich egal" wenn du mit jemand darüber quatscht wie viel Zeit du für die Formulierung aufwendest, aber wen du etwas promptest muss es scheinbar so effizient wie nur irgend möglich sein?
Ja klar, Token kosten. Weiss ich, hab ich verstanden.

Wie gesagt, ich stimme ja auch zu, dass man es mit der Höflichkeit im Prompt sehr leicht übertreiben kann.
Mein Punkt war doch aber, dass z.B. ein einfaches bitte den Kohl nicht fett macht.
Die Zeit welche du dadurch sparst ist wie wenn dein Spiel 0, bis 1 FPS schneller läuft. Das ist vlt. messbar im Benchmark hat aber ansonsten keine relevante Auswirkung auf Praxis.

(Ich verwende btw. so eine Höflichkeitsform beim prompten, wenn überhaupt, meist auch nur beim Einstiegsprompt. Alle weiteren Nachfragen halte ich üblicherweise nüchtern und sachlich. Manchmal ergibt sich zwischendurch noch irgendwo ein Danke im Schreibfluss. Wir reden hier also von vlt 0.1% der Worte - das fasse ich persönlich definitiv als nicht relevante Größe auf.)

PS: Sinn kann sich nur ergeben, den kann man nicht machen



Aber Obacht, lieber 2 mal denken und lieber noch mal nachschauen bevor du irgendwelche Befehle einhämmerst und configs umschreibst.

Ralf Stockmann von der freakshow hatte in den letzten Sendungen (hier ab Kapitel 16) auch von seinen Erfahrungen Linux als Linux-Noob mit Hilfe von "AI" aufzusetzen und zu konfigurieren berichtet und sein Fazit war:
"in etlichen Bereichen funktioniert das ganz gut, bis es halt nicht mehr funktioniert. Und dann bist du in genau diesen LLM-Schleifen drin, die wir beim Vibe-Coding hier schon zigmal diskutiert haben"
Ach, du...das hat sowieso noch sehr viel Zeit. Solange ich mit Windoof 11 klar komme und nicht beim xxx-Schauen beobachtet werde (wobei ich da meine Zweifel habe), gehts noch. Lasse mir mit Linux noch viel Zeit. Vielleicht ja nach 2030, wenn ich den Great Reset überlebe.
 
Zurück
Oben