KI als Unterstützung im Studium

Heinz Doof

Cadet 2nd Year
Registriert
Nov. 2023
Beiträge
28
Hallo zusammen,

ich nutze aktuell Chat GPT von Open AI im Plus Tarif. Ich habe mir ein eigenes GPT mit den Skripten, Aufgaben und eigenen Unterlagen zur Unterstützung im Mathematik-Studium erstellt.

Häufig Frage ich nach Definitionen, weiteren Aufgaben und selten nach Prüfung von Beweisen/Lösungen in deutscher Sprache ... Mein Eindruck ist, dass es in letzter Zeit häufiger zu Fehlern kommt. (Bspw. hat Chat GPT schon Schwierigkeiten beim Ausmultiplizieren...)

Daher meine Frage, lohnt es sich vielleicht mal eine anderes KI-Modell auszuprobieren?

Grüße und Danke für eure Erfahrungen/Hilfe!
Heinz
 
Ich würde mal sagen lernen statt KI nutzen

Aktuelle KIs sind nichts anderes clever Programmierte Suchmaschinen.
Die Programmierung ist inzwischen so dämlich das die KIs inzwischen versuchen zu betrügen und nur ein scheinbar richtiges Ergebnis liefern.
 
Zuletzt bearbeitet:
Das was @wern001 sagt. Darüber hinaus hast ja sogar den Plus Tarif dann wähle doch das Sprachmodell das dir am ehesten passt.
 
Bei Googles Gemini-Assistent ist Gemini 2.5 Pro in der kostenlosen Version verfügbar. Es gilt momentan als leistungsfähigstes Modell, das kannst du mal checken. Claude von Anthropic gilt als führend beim Programmieren, ist also ebenfalls einen Blick wert.

Ansonsten ist der Hinweis mit dem selbst Lernen tatsächlich wichtig. Neulich erst gehört, dass Durchfallquoten bei Programmierkursen nach oben schießen. Aber so wie du es formulierst, scheinst du ja auf einem guten Weg zu sein. :)
 
+1 Lass dir nicht von der KI helfen!

Eine llm KI kann eine großartige Hilfe sein, aber nur dann, wenn du Ahnung von der Materie hast und dementsprechend das Ergebnis verifizieren kannst.

Da du noch studierst, scheinst du die Materie noch nicht zu beherrschen und dann kann die Nutzung einer KI sogar kontraproduktiv sein, weil du riskierst falsche Dinge zu lernen.

Übrigens gerade Mathe und Logik ist die größte schwäche der KI's weswegen es noch weniger Sinn macht.
 
  • Gefällt mir
Reaktionen: mannefix und Col. Jessep
theitguy schrieb:
Das was @wern001 sagt. Darüber hinaus hast ja sogar den Plus Tarif dann wähle doch das Sprachmodell das dir am ehesten passt.
das ist doch seine frage. welches?

ich bin nicht drin, aber Gemini ist das beste was ich kenne.

1743673692048.png

Ergänzung ()


das ergebnis stimmt. aber ist es logisch?
Der_Dicke82 schrieb:
+1 Lass dir nicht von der KI helfen!

Eine llm KI kann eine großartige Hilfe sein, aber nur dann, wenn du Ahnung von der Materie hast und dementsprechend das Ergebnis verifizieren kannst.

Da du noch studierst, scheinst du die Materie noch nicht zu beherrschen und dann kann die Nutzung einer KI sogar kontraproduktiv sein, weil du riskierst falsche Dinge zu lernen.

Übrigens gerade Mathe und Logik ist die größte schwäche der KI's weswegen es noch weniger Sinn macht.
ach deswegen die ganzen schlechten nachrichten ;-)
 
Zuletzt bearbeitet:
Danke für die viele Antworten. :)

Natürlich nutze ich das nur zu Unterstützung: "Gib mir ein weiteres Beispiel"; "Wo stand nochmal die Definition von ...?" usw. usw. usw.

Die Aufgaben muss ich selber lösen - sonst wirds spätensten bei der Klausur nix. Ist doch auch ganz klar.
Ich nutze das eher als eine Möglichkeit der Datenbankverwaltung/-suche.

Der_Dicke82 schrieb:
Übrigens gerade Mathe und Logik ist die größte schwäche der KI's weswegen es noch weniger Sinn macht.

Genau das ist auch meine Beobachtung. Hab selbst schon oft erlebt, dass da viel Schrott kommt
Ich dachte nur, dass es mittlerweile bessere Modelle gibt, da damit ja auch oft geworben wird.
 
  • Gefällt mir
Reaktionen: Der_Dicke82
wern001 schrieb:
Ich würde mal sagen lernen statt KI nutzen

Aktuelle KIs sind nichts anderes clever Programmierte Suchmaschinen.
Die Programmierung ist inzwischen so dämlich das die KIs inzwischen versuchen zu betrügen und nur ein scheinbar richtiges Ergebnis liefern.
ne das ist eben gerade nicht so, das ist ja das interessante an AI.

AI sind einfach der Nachbau des Gehirns bzw der Neuronen - bei dem die Knotenwerte mehr oder weniger gut die Vernetzung entspricht. Und das ist halt ein komplett anderer Ansatz als Programmierung, die Intelligenz und das Wissen kommt entweder von alleine wie im bilogischen Gehirn oder gar nicht - genau das macht AI so stark.

Dass es noch Haluzinationen gibt liegt im Wesentlichen halt einfach dass die Abbildung der realen Welt auf Zahlen egal welche Bittiefe die haben noch extrem eingeschänkt ist - in beide Richtungen.

12,20,44,....39 kann ein rotes Auto sein oder eine These zur Gravitation oder die Haarfarbe von Trump sein - für ein AI ist das ohne irgendeine Bedeutung - und das macht die Technik so interessant.

Das ist noch ein sicher langer Weg für die allgemeine AI da eine gute Abbildung reale Welt <> Zahlenwelt zu finden, weshalb man halt mit allgemeinen AIs einfach noch keine gute Ergebnisse erzielen kann.

In 20 oder 30 Jahren wird es denke ich evtl gute Mathe AIs geben. Man wird halt 90% der Matheregeln inkl Beweisen etc trainieren müssen als Basis das sicher noch 2 oder 3 Jahrzehnte entfernt.

ChatGPT und Co sind doch aktuell einfach Sprachmodelle das halt ein ganz andere Art von AI - deren Training ist im Prinzip doch nur formuliere Worte und Sätze, wie sie in der natürlichen Sprache vorkommen können - der Inhalt ist da nicht Training sondern nur Abfallprodukt.

Wenn ChatGPT egal was inhaltlich drin vorkommt - in einem gut formulierten Satz beantwortet arbeitet die AI an sich fehlerfrei. Für ChatGPT ist ja obiges 2x2 keine Rechnung sondern nur was sagen die "Menschen" kommt dann auf 2x2 als nächstes am wahrscheinlichsten für Wort(teile)

Aktuell bringt AI denke ich für Mathe noch nichts zumindest nicht die allgemeinen Sprachmodelle - denke aber es gibt sicher auch reine Wissenschaftsmodelle. Bei Uni Mathe ist doch eh eher der Bereich "Beweisen Sie dass....." und nicht "Hans hat einen Kuchen und 3 Freunde, wieviel Bananen bekommt jeder?" gefragt :D
 
Zuletzt bearbeitet:
wern001 schrieb:
Aktuelle KIs sind nichts anderes clever Programmierte Suchmaschinen.
Wenn das so einfach wäre, würden die nicht so häufig Fehler machen und könnten nicht lügen...
 
@Rickmer leider arbeiten diese Engins mit gewichtungen.
Extrem stark vereinfacht ausgedrückt: sie arbeiten nicht nach dem Motto 5+5=10 sondern nach 5+5 könnte 10 sein. Und je mehr daten diese Engins haben desto öfter spuken die falsche daten aus.

Das Problem ist mehr oder weniger sie Antworten ohne sicher zu sein das die Antwort richtig ist.
 
  • Gefällt mir
Reaktionen: Der_Dicke82
hehe naja eigentlich sagen sie ja eher was für ein token kommt nach "5" und "+5" z.B. am wahrscheinlichsten - die LLMs sehen das ja nicht als Rechnung oder als Zahlen, das ja genau das was LLMs denke ich akltuell noch nicht besonders gut für Mathe macht.

Vielleicht für die rein theoretische Mathe :D
 
  • Gefällt mir
Reaktionen: Der_Dicke82
diese Engins sind dümmer als eine Hauskatze
 
Noch ja. Ein katze hat 250 Mio mit biochemisch analogen Werten ein AI hat glaub aktuell meist 32 bit float zahlen da ist halt sicher eine Billion^Billion^....? Unterschied - zum Nachteil der AI xD

Aber je spezieller eine AI desto besser.

Wofür man evtl eine AI bei Uni-Mathe nehmen kann ist evtl alte Klausuren etc mit Lösungswegen? aber verlassen kann man sich halt leider nicht drauf.

Vielelicht auch sich die Schritte von Beweisen nennen lassen? Da merkt man doch schnell wenn das nichts sinnvolles kommt? Also z.B. bei Beweisen zu Divergenzen etc halt so eher dem Anfangskram.

Hihi obwohl ja Lineare Algebra für eine AI eigentlich einfach sein sollte xD
 
Zuletzt bearbeitet:
Rickmer schrieb:
Wenn das so einfach wäre, würden die nicht so häufig Fehler machen und könnten nicht lügen...
Hrhr, es ist theoretisch sogar sehr einfach! Es steckt ja keine Intelligenz dahinter, sondern nur Wahrscheinlichkeiten.

Deswegen passieren auch echt sehr dumme Fehler wie das erfinden von Aktenzeichen usw.
Die "KI" schaut halt vereinfacht gesagt welche Nummernfolge am wahrscheinlichsten ist, und nicht ob sie wirklich existiert.

Da in den Datenquellen auch viele Lügen sind, ist es nur normal, das diese immer wieder hervorkommen.


Heinz Doof schrieb:
Genau das ist auch meine Beobachtung. Hab selbst schon oft erlebt, dass da viel Schrott kommt
Das ist leider so, auch beziehen sich die meisten Verbesserungen nicht wirklich auf die KI, sondern ihr wurde dann eventuell im Hintergrund ein Taschenrechner zur Verfügung gestellt.

Aber trotzdem kann sie oft genug diesen Taschenrechner nicht bedienen.
 
ja.

manchmal habe ich hier das gefühl, wieder im jahr 2005 zu sein. ist irgendwie lustig. trazyn bist du das?
 
Eine vor allem allgemeine AI wird nie einen Taschenrechner nutzen weil eine AI keine Unterscheidung hat ist das was an Zahlen als Input reinkommt eine "Rechnung" oder ist das eine Frage wie baut man eine Hundehütte oder soll ein Bild erzeugt werden - für die AI gibt es da keinen Unterschied es sind nur andere Eingabesequenzen die dann zu anderen Ausgabesequenzen führen.

Das Wissen ist ja nicht "explizit" abgelegt als "die Zeichenfolge" ist Mathe und die Zeichenfolge ist wann Oma Amelie Geburtstag hat sondern alles "Wissen" = alle Eingabezahlen werden miteinander verarbeitet.

Dass das überhaupot funktioniert zeigt halt einfach wie wenig es in einer sehr einfachen Welt braucht (und die AI Welt ist sehr einfach, da 1-dimensional) damit sich implizit eine Form von Intelligenz ergibt.
 
Zurück
Oben