Bericht Large Language Models und Chatbots: Die Technologie hinter ChatGPT, Bing-Chat und Google Bard

Magellan schrieb:
Jetzt ist "Verständnis" natürlich ein zu definierender Begriff - für ChatGPT ist Bedeutung eine Einordnung in einem multidimensionalen Raum mit Verknüpfungen zu anderen eingeordneten Begriffen - aber letztlich macht unser Hirn ja ähnliche Dinge. Und Sprachmodelle sind eben beschränkt auf den Text, sie können den Wörtern nicht die anderen Sinneseindrücke und Emotionen zuordnen wie wir.
Auf etwas in die Richtung wollte ich hinaus. Zumal unsere Sprachen als Zwischenschicht die Präzision verwässern. Und mit formale(re)n Sprachen (z.B. Formeln) tun sich diese Sprachmodelle meiner Erfahrung nach schwerer.
 
  • Gefällt mir
Reaktionen: ErichH.
Danke für den Artikel. Gerne mehr aus dieser Rubrik und Machine Learning im Allgemeinen. :)
 
TheOneofAll schrieb:
Und mit formale(re)n Sprachen (z.B. Formeln) tun sich diese Sprachmodelle meiner Erfahrung nach schwerer.

Also ChatGPT tut sich definitiv schwer mit mathematischen Formeln. Ist auch wenig verwunderlich wenn man bedenkt, dass der an die Lösung ebenso rangeht wie an das Schreiben eines Textes - da fehlt noch irgendwo die "Weiche" dass das jetzt ein Mathematisches Problem ist und einfach gerechnet werden muss nachdem die passenden Formeln gefunden wurden und nicht kreativ ein Text erstellt werden muss.

Ein tolles Beispiel welches mir zufällig aufgefallen ist, ist folgende Aufgabestellung:
"Welches Volumen hat ein Oktaeder mit 2cm Kantenlänge?"

Er "versteht" was ich will, formuliert schöne Antworten, nennt relevante Formeln, erklärt sein Vorgehen aber das Ergebnis ist einfach immer falsch. Ich habe darauf noch nie die richtige Antwort erhalten, irgendwo beim Einsetzen und Ausrechnen macht er scheinbar Fehler.

Wenn man ihm dann sagt "Das ist falsch" geht er einen anderen Weg, kommt manchmal auf ein anderes Ergebnis (oder auch nicht) es ist aber in jedem Fall wieder falsch.

Eigentlich bräuchte man nur die Formel V = Sqrt(2) / 3 * a³ und dann kann das jeder Taschenrechner.

Edit: falls es Jemand schafft das korrekte Ergebnis aus ihm herauszuquetschen wäre ich an der Formulierung der Aufgabenstellung oder den helfenden Hinweisen interessiert :)
 
  • Gefällt mir
Reaktionen: TheOneofAll
blackiwid schrieb:
Das es Leute gibt die das coden können ist das kleinere Problem, das ist ja nicht hoch komplexe Technik die ist ja eigentlich sehr primitiv man braucht nur die Rechenpower. Ich mein es sind halt auch die gleichen Leute die bei Google und Co arbeiten oder von denen an ner Uni was lernen oder in Büchern von denen die dann das auch als Opensource umsetzen, nur bringst dir nichts mehr wenn du es coden kannst aber A Probleme hast Trainingsdaten zu kriegen und B es nicht mal ausführen kannst.
Datenschutz und damit lokale Ausführbarkeit sind natürlich auch sehr wichtig.

Aber als Entwickler ist mir selbstverständlich die Entwicklung schon wichtig, und da es immer so ein großes Thema ist wie Deutschland den Anschluss verliert, denke ich schon dass entsprechende Infrastruktur günstig verfügbar sein sollte, damit man überhaupt eine Chance hat mit Großen zu konkurrieren. Das war wie gesagt früher in der IT üblich, aber mittlerweile sind es vorallem Megafirmen die die IT bestimmen.

Das ist nicht nur für Entwickler schlecht, sondern auch für Kunden/Nutzer da so Monopole unausweichlich sind, und sich auch so Geld immer mehr bei den Gleichen anhäuft, da die anderen nur mit Glück einen Proof-Of-Concept entwickeln und experimentieren können, um überhaupt die notwendige Finanzierung zu bekommen.

Dachte bei einem BGE-Verfechter würde das auf fruchtbaren Boden stoßen, denn die Idee ist die gleiche: Teilhabe ermöglichen.

Es geht ja nicht nur um ChatGPT oder Kopien anderer existierender Software, sondern die Entwicklung neuer Lösungen auf Basis von machine learning, die auch als Kombination existierender Ansätze entstehen können.

Ich denke das wäre eine Chance für Deutschland und Europa. Hier lässt sich mit Experimentieren und Entwickeln viel erreichen, wenn nicht die Rechenleistung das Problem wäre.

P.S.: Es sind nicht nur die Leute aus Google und Co die hier was auf die Beine stellen, höchstens es geht um Kopien von schon existierende Lösungen. Es gibt durchaus viele Privatleute die einiges nützliches erzeugen, aber halt nicht in dem großen Stil wie die kommerziellen Systeme. Das ist aber kein grundsätzliches Problem, wenn eine Lösung ausreichend weit entwickelt ist, kann man eine Finanzierung finden um diese zu hosten, bzw. zu optimieren, dass es mit weniger Rechenleistung läuft. Training ist immer deutliche aufwändiger als Inferenz/Ausführung.

Man muss aufpassen dass man da nicht an selbsterfüllende Prophezeihungen glaubt: nur die Großen können das. Beim IBM-PC gab es auch erst die Marktvielfalt durch Antirustentscheidungen/Zugang. Hier braucht es halt andere Hilfsmittel (u.a. Rechenleistung). Dann kommen durchaus interessante Lösungen heraus, die nützlich sind ohne gleich so gigantisch zu sein wie die von großen Firmen.
 
Zuletzt bearbeitet:
Magellan schrieb:
Eigentlich bräuchte man nur die Formel V = Sqrt(2) / 3 * a³ und dann kann das jeder Taschenrechner.

Edit: falls es Jemand schafft das korrekte Ergebnis aus ihm herauszuquetschen wäre ich an der Formulierung der Aufgabenstellung oder den helfenden Hinweisen interessiert :)

Das ist tatsächlich interessant. Die Antworten sind immer irgendwie falsch

1678183794378.png



sqrt(2) wäre in dem Fall 1,4137 statt 1,4142.


Beim nächsten Mal war das Ergebnis richtig, aber auch nur weil ich in der Konversation vorher explizit auf dieses Ergebnis hingewiesen habe.


1678184058474.png




Beim nächsten Versuch war das Ergebnis wieder komplett falsch.
 
Zuletzt bearbeitet:
@Magellan
Grundsätzlich sind ChatGPT und alle seine Verwandten nicht auf konkrete Berechnungen trainiert. Aber in der Tat könnte es aus seinem Wissensschatz zumidnest Formeln doer dergleichen abrufen können.

Generell muss man halt wissen, was diese Modelle können (sollen) und was nicht.
Es sind Sprachmodelle, die mit Sprache umgehen können. Um das zu lernen, haben sie Texte zu lesen bekommen, die natürlich auch Wissen enthalten. Da aber bei den meisten Anwendungen dieser Modelle ein Zufallsfaktor einfließt, um die Sprachantworten abwechslungsreich zu gestalten, sind natürlich auch abgefragte "Fakten" von der Zufälligkeit mit betroffen.

Also, sie sind gut um mit Sprache zu arbeiten, zum Beispiel Texte zusammenzufassen, übersetzen oder aus bereitgestellten Texten gezielt spezifische Fakten zu extrahieren. Sie sind aber keine expliziten Rechenmodelle und keine verlässlichen Wissensdatenbanken.
 
*Dieser Artikel wurde ihnen Präsentiert von ChatGPT :daumen:
 
4nanai schrieb:
Beim nächsten Mal war das Ergebnis richtig, aber auch nur weil ich in der Konversation vorher explizit auf dieses Ergebnis hingewiesen habe.

Wenn ich ihm korrekte Ergebnisse einzelner Schritte "vorgesagt" habe dann habe ich auch schon das korrekte Ergebnis gesehen, aber rein mit Hinweisen was falsch ist oder wo er scheinbar Fehler macht kam ich in meinen Tests nie zum korrekten Ergebnis.

ErichH. schrieb:
Grundsätzlich sind ChatGPT und alle seine Verwandten nicht auf konkrete Berechnungen trainiert.
Das ist schon klar, ich finde es einfach eine interessante Spielerei die Grenzen dessen was GPT kann bzw nicht kann auszuloten. Insgesamt muss man ja sagen, es kann erstaunlich viel dafür dass es "nur" ein Sprachmodell ist.

Beeindruckend finde ich auch seine Fähigkeiten Quellcode zu schreiben und zu beurteilen, er findet Logikfehler im Code, kann "hässlichen" Code moderner und eleganter umschreiben usw, erschließt sich Bedeutungen von unkommentierten Codeteilen anhand derer Funktion und Variablennamen (sieht man dann in seinen ergänzten Kommentaren)...
 
Streng genommen ist ChatGPT die perfekte Labertasche.
Er kann dir zu allem was sagen und es klingt auch allermeistens irgendwie gut und "eloquent", aber inhaltiche Ahnung ist nicht explizit vorhanden.
 
denglisch schrieb:
Es sind nicht nur die Leute aus Google und Co die hier was auf die Beine stellen,
Das sollte man immer berücksichtigen. Open-AI ist bei weitem nicht allein unterwegs. Der Markt für KI-Lösungen ist groß, wächst weiter und bekommt durch den Hype rund um ChatGPT wahrscheinlich einen sichtbaren Schub in den kommenden Jahren. Nur sind amerikanische Firmen noch immer im Vorteil, wenn es darum geht, schnell marktreife Produkte daraus zu entwickeln.

Das europäische "Gegenstück": https://www.aleph-alpha.com/
Start-Up eines bekannten, deutschen Forschers: https://you.com/
Coaching-KI: https://www.cass.ai/

Nur um ein paar Beispiele zu nennen.
 
denglisch schrieb:
Aber als Entwickler ist mir selbstverständlich die Entwicklung schon wichtig, und da es immer so ein großes Thema ist wie Deutschland den Anschluss verliert,
Ja sag nicht das das nicht auch ein wichtiger Aspekt ist, das eine ist aber halt irgendwie ob man in ner Branche Geld verdienen kann, das andere basalste Freiheit ob man noch arbeiten kann ohne sich einer Großfirma zu versklaven müssen.

Solange es opensource ist, ist mir egal ob die Software von Amis / Europaern Asiaten oder Russen kommt oder noch anderen. Auch wenn ich Entwickler bin brauch ich eben nicht immer das beste technologien auf dem Stand von vor 5 Jahren sind meist gut genug, man will nur nicht 20-30 Jahre hinten liegen (in der Regel) :D
 
flaphoschi schrieb:
Leider zeigt die Vergangenheit schon mal Besorgnis erregende Resultate. Über die letzten Jahre sinkend die durchschnittlichen IQ-Werte bei Tests. Vermutlich eine Hinweis auf Fehler im Bildungssystem als auch das Leben mit zu vielen „Helferlein“.
Nicht wirklich.
Du kannst heutige Testergebnisse nicht mit denen von vor 30 Jahren vergleichen.
Denn wir hatten spätestens in den 90ern das Problem, dass die IQ-Werte immer höher wurden.
Nennt sich Flynn-Effekt. So und daher müssen wir die hin und wieder neu normieren. Das hat aber zu Folge, dass die Zahlenwerte sich ohne Kenntnis des zugrundeliegenden Tests und dessen Normierung nicht vergleichen lassen.
Zudem weiß man nicht woher der Flynn-Effekt kommt. Es gibt vermutungen, aber eindeutig weiß man es nicht. Er existiert aber.

Dann gibt es noch unterschiedliche Tests und die haben dann auch wieder andere Normierungen usw.
Generell haben IQ-Tests und der IQ-Wert ein großes Problem. Er wird vom großteil der Bevölkerung nicht als das verwendet was er ist. IQ-Werte basieren nur auf dem jeweiligen Test und da es keine wissenschaftlich anerkannte, einheitliche Definition von intelligenz gibt, sind auch IQ-Werte und deren Vergleich abstrus, wenn man nicht den Test und dessen Normierung kennt.
Soweit dazu.

Zum Artikel.
Ich finde das echt beeindruckend. Noch beeindruckender finde ich aber die Möglichkeit von bestimmten Algorythmen Stimmen zu kopieren und dann damit neue Sätze zu erstellen.
bestes Beispiel dafür ist ist die Masse an Morrowind Videos auf Youtube wo Dagoth Ur (der Oberbösewicht) zu jedem Quatsch ne Meinung hat und sogar erklärt wie man Morrowind richtig moddet. Es ist schon abgefahren das die Stimmen sich fast zu 100% gleichen. Und was damit möglich ist.
Neben allerlei Schabernack, kann man damit dann ganze Spiele wie eben Morrowind vertonen (auch das hat einer schon gemacht, zumindest die letzte konversation zwischen PC und Dagoth Ur) oder aus nem text Adventure nen Hörbuch machen (Sich alles mit der Stimme von Rufus Beck vorlesen zu lassen hätte schon was ^^) und vieles mehr.
 
  • Gefällt mir
Reaktionen: flaphoschi
edenjung schrieb:
Nicht wirklich.
Du kannst heutige Testergebnisse nicht mit denen von vor 30 Jahren vergleichen.
Denn wir hatten spätestens in den 90ern das Problem, dass die IQ-Werte immer höher wurden.
Nennt sich Flynn-Effekt. So und daher müssen wir die hin und wieder neu normieren. Das hat aber zu Folge, dass die Zahlenwerte sich ohne Kenntnis des zugrundeliegenden Tests und dessen Normierung nicht vergleichen lassen.
Zudem weiß man nicht woher der Flynn-Effekt kommt. Es gibt vermutungen, aber eindeutig weiß man es nicht. Er existiert aber.
https://de.wikipedia.org/wiki/Flynn-Effekt

Müsste man nicht eher von Flynn-Effekten reden? Da eine Zunahme und eine Abnahme beobachtet wird. Leider viele Vermutungen.

Das Thema kenne ich vielleicht aus der Presse. Aber ausgerechnet der Link zur Zeit endet in der Paywall.
 
denglisch schrieb:
Irgendeine Form von formaler Logik wird es trotzdem brauchen, denn gewisse Sachen lassen sich statistisch/durch Wahrscheinlichkeiten schlecht abbilden.
denglisch schrieb:
Diese Logikmodelle/Constraints kann man händisch codieren, aber sie zu trainieren ist nochmal eine ganz andere Sache.
Deine Bedenken sind berechtigt. Ich schätze allerdings, dass die Forderung nach einem System, welches ein belastbares, logisches Weltverständnis hat, schon sehr stark in Richtung einer Universal-KI tendiert. Davon sind wird in der Forschung aber noch weit entfernt. Wir können ja nicht einmal vollständig modellieren, was die menschliche Logik überhaupt ausmacht. Ganz zu schweigen von den Dingen, die durch Intuition und Bewusstsein beeinflusst werden - in meinen Augen beides Dinge, ohne die ich mir ein differenziertes Denken nur schwer vorstellen kann.

Bis auf Weiteres müssen wir uns also mit anwendungsspezifischen Modellen zufriedengeben. Im Falle unseres Bildungssystems werden wir um ein strenges Guided Learning auch nicht herumkommen. Dafür ist das, was vermittelt werden soll, einfach zu wichtig, um es der Willkür eines LLM auszusetzen.
Wenn man das Frage-Modell verstärkt und dadurch deutlich mehr Rekursivität im Ausgabepfad anregt, wenn man qualitativ selektierten Lernstoff einspeist und fortlaufend evaluiert, dann wird man für den Moment denke ich aber schon ganz gute Ergebnisse bekommen, die bereits bestehende E-Learning-Plattformen gut unterstützen können.

Davon abgesehen halte ich es für methodisch äußerst gefährlich, ein didaktisches Modell lediglich auf die Ausgabe von fachbezogenen Antworten auf vordefinierte Fragen zu reduzieren. ChatGPT sollte hier nicht unreflektiert implementiert werden. Das eigentlich Ziel lautet nämlich, Schüler und Studierenden das selbstständige, differenzierte Lernen beizubringen. Auf dem Weg dahin braucht es viel mehr Fragen als Antworten, um nämlich ein reflektiertes Denken zu trainieren. In diesem Sinne halte ich ChatGPT derzeit für viel zu einseitig, weil es lediglich Abkürzungen vorschlägt und dadurch Selbständigkeit abbaut.

denglisch schrieb:
Hast du dafür Beispiele welche Fragen keine Fehler erzeugen können?
Fehlerfrei sind die derzeitigen Modelle sicher nicht. Aber wenn ich allgemeines Fachwissen abklopfe, zum Beispiel aus den Geistes- und Kulturwissenschaften, dann erscheinen mir die bisherigen Outputs eigentlich recht plausibel. ChatGPT zum Beispiel kann gut zusammenfassen und Kontexte darlegen. Wenn es solche Dinge nicht könnte, dann bliebe wahrscheinlich auch nicht viel übrig, was den derzeitigen Hype noch rechtfertigen könnte. ^^

Allerdings:
Wenn ich bspw. frage, welche die drei populärsten Kunsttheorien sind, die sich mit der Materialität des Werks auseinandersetzen, dann bekomme ich mit jeder Anfrage variierende Beispiele und Rankings. Das liegt daran, dass die Frage schlicht zu unspezifisch formuliert ist und das statistisch-probabilistische Modell je nach zeitlicher Eingrenzung und Kontext von Materialität innerhalb einer Iteration ganz unterschiedliche Beispiele heranzieht. Dahingehend müssen diese LLM also deutlich stärker darauf trainiert werden, statistische Uneindeutigkeiten kenntlich zu machen und sich in der Tonalität etwas zurückzunehmen, wenn es um die Abbildung von Fakten geht.
 
Zuletzt bearbeitet:
GuruRHM schrieb:
Schön, daß der Autor genau beschrieb, was hochparametrisiertes Programmieren ist. Allein KI ist das nicht. Allerhöchstens AI.
Ist KI (Künstliche Intelligenz) nicht einfach deutsch für Artificial Intelligence (AI)?
Wo siehst du da den Unterschied?
 
  • Gefällt mir
Reaktionen: Dual-O, ZeusTheGod und denglisch
Nope. Aritifical beshreibt in Englisch nicht das gleiche, was im deutschen unter Intelligent bezeichnet wird. Ein klassischer Fehler. Das hab ich bereits vor 25 Jahren in Systeminformatik gelernt. Gleich zu Beginn einer Vorlesung namens KIZ (Künstliche Intelligenz). Und ja, ich habe auch in den wirklichen KI-Sprachen entwickelt. Z.B. Lisp.

Das englische Intelligence bezeichnet etwas, bei dem zwei Fakten einen anderen Fakt ergeben. Im Prinzip ist im englischen Sprachgebrauch bereits der billigste Taschenrechner intelligent. Eine Sache, die man im Deutschen nicht mal anflugsweise als intelligent bezeichnen würde.
 
feidl74 schrieb:
Mensch entscheidet nicht alleine nach Mustern und er füttert sich selbst mit Daten, da braucht er keine externen dazu.

Wofür sind dann deiner Meinung nach Lehrer/Ausbilder/Professoren/Mentoren da?
Mensch füttert sich vielleicht selbst, aber sicherlich nicht, woher denn auch, aus eigens erhobenen Daten - sondern eben aus denen von anderen Menschen?!

feidl74 schrieb:
Ich denke ki ist die neue Form der menschlichen Faulheit

Nö, KI kann das was Menschen abtrainiert ist und wurde, nämlich mal ein klein wenig über den Horizont schauen und andere Blickwinkel als den eigenen [ja auch iwo gesunden] Egoismus bieten. Ganz sachlich, ohne viel Wertung. Da Menschen auch gelernt haben, Computern mehr zu trauen als sich selbst (Ich verweise mal auf Fahrassistenzsysteme/Autopiloten/Taschenrechner) ist das nur der nächst logische Schritt gewesen.

feidl74 schrieb:
dass er der vermeintlich schlauen Software aufgetragen habe, seine Biografie zu verfassen – "es war eigentlich alles falsch", so Dück, "wie können sich denn Leute von sowas beeindrucken lassen?

Dann existieren über seine Person offenbar viele Unstimmigkeiten oder Unwahrheiten, das ist ja nicht wirklich was neues in der Medienwelt, oder allgemein frei verfügbaren Publikationen. Umso besser, dass er es besser weiß - dann kann er es ja für alle Zukunft korrigieren. Ganz einfach, einmalig. So wie Shapiro es auch getan hat.

feidl74 schrieb:
Ist das menschliche Gehirn in den letzten 200jahren durch technologischen Fortschritt und Industrialisierung schon so geschrumpft?

Ja.
Ergänzung ()

TheOneofAll schrieb:
In meinen Augen wird aber nicht klar genug herausgestellt

Das stimmt - möchte aber wohl der Verständlichkeit zum Opfer gefallen sein.

Das Thema ist nicht umsonst das derzeit mit riesigem Abstand absolut teuerste und intensivste was im Netz zu finden ist, ganz allgemein, auch in spezialisierteren Bereichen wie Malerei, Excelformelerstellung, Musikproduktion, Kochrezepten, sonstwas.

Es spaart Monate, wenn nicht komplette 45 Jahre Arbeitnehmertum an EINEM Tag.
Denn die 45 Jahre sind geclustert in mehrere Angestellte/Schulungen/Weiterbildungen/ZEIT!

Da ist ein neuer Markt im kommen, dieser ist NOCH kostenfrei, weil er aktive Daten braucht. Später ersetzt dir sowas aber die komplette Geschäftsführung bis zum Millardenkonzern - einfach weil der IQ weit über allem liegt was du überhaupt einstellen kannst und es extrem viel billiger ist dem "Ding" Daten hinzuschmeißen als einem Menschen.
 
Zuletzt bearbeitet:
Also, biologisch gesehen ist das menschliche Gehirn gewachsen.
Das aber nicht alle Ressourcen/bereiche des gehirns genutzt werden, ich sag Mal je nach "Anwendungsszenario".
Die ki ist nur so schlau, wie der Mensch sie vorher programmiert hat, somit sind auch in einer ki "menschliche Eigenheiten" mit drin wie z.b. "menschliche Horizontbegrenzungen".
Zu dem ex-ibmler, die ki sollte in der Lage sein,die richtigen Informationen zu finden, ansonsten braucht man keine ki. Ich vertraue keinem PC, Taschenrechner oder Fahrassistenzsystemen, wenn dann nutze ich sie. Vertrauen habe ich in mich selber, die Ergebnisse von PC, Taschenrechner whatever immer zu prüfen und mich nicht blind darauf zu verlassen. Durch mein (gesundes)Misstrauen Software gegenüber, habe ich z.b. eine Nachzahlung Lohn von 700€ bekommen. Der personalverrechner hat der cloudbasierten abrechnungssoftware vertraut😉. Ich bin nicht gegen ki, aber ich brauche sie im Alltag nicht überall und ständig.
 
feidl74 schrieb:
Die ki ist nur so schlau, wie der Mensch sie vorher programmiert hat

Du scheinst KI ganz allgemein nicht zu verstehen, ich mein's auch nicht abwertend oder bös'. Das Pathfinding der Mobs aus Valheim ist jedenfalls keine.

feidl74 schrieb:
Zu dem ex-ibmler, die ki sollte in der Lage sein,die richtigen Informationen zu finden, ansonsten braucht man keine ki.

Schön für seine Meinung, die du nun kopierst. Das tun Menschen. KI nicht.

feidl74 schrieb:
Ich vertraue keinem PC, Taschenrechner oder Fahrassistenzsystemen, wenn dann nutze ich sie.

Wo ziehst du da den Strich zur Unterscheidung? Du nutzt, stellst du aber infrage? Gib mal im Taschenrechner PI hoch 23 ein, da rechnest du also schriftlich aus eigens erlernter (gefütterter) Mathematik nach bevor DU das Ergebnis in was einträgst?

feidl74 schrieb:
Durch mein (gesundes)Misstrauen Software gegenüber, habe ich z.b. eine Nachzahlung Lohn von 700€ bekommen. Der personalverrechner hat der cloudbasierten abrechnungssoftware vertraut😉.

Dazu bist du sogar verpflichtet. Selbst schuld wenn du das auslagern wolltest und deiner Prüfpflicht zur korrekten Abrechnung nicht nachkommst..... Just saying.

feidl74 schrieb:
Ich bin nicht gegen ki, aber ich brauche sie im Alltag nicht überall und ständig.

Ich wüsste auch nicht wie mir das Ding Bier kauft oder Wäsche wäscht, aber es spaart mir STUNDEN an begrenzter Lebenszeit bei anderen Problemen. Beispielsweise wenn ich nicht lernen will wie man von einem root auf einen anderen ohne Downloads zu sich komplette Ordnerstrukturen verschlüsselt schiebt.
Kontrollieren was das Ding tut und dann schauen ist halt einfacher als sich das mühselig zusammen zu lernen, vor allem wenn man da wie du denkst und das wirklich selbst durch irgendein Trial+Error zusammen bekommen mag, statt auf das zu schauen was ein anderer Mensch geschrieben hat.

Nein, du fütterst dich eben nicht selbst. Wenn doch und es für dich funktioniert so zu Leben ist das ja toll, aber leider wohl wenig Wahr. ;-)
 
Zuletzt bearbeitet:
Zurück
Oben