News OpenAI: ChatGPT-App für Android in Deutschland verfügbar

crogge schrieb:
Skynet here we come!🤖

Fun Fact: Fragst du Bing Chat danach, wie hoch die Chancen sind, daß es sich zu Skynet entwickelt, weicht es entweder aus, oder.... je nach Fragstellung.... bricht die Unterhaltung ab und wird bockig :D
 
  • Gefällt mir
Reaktionen: tritratrullala, matze313, Kitsune-Senpai und 2 andere
Neverball schrieb:
Er benutzt „wahr“ anstatt „war“ - ich glaube da braucht man erst garnicht nach einer Quelle fragen …
Ergänzung ()

Chris007 schrieb:
Hier mal GPT 4:

Löse die Gleichung 365=28+31*y+30*x
Gib Lösung mit ganzen Zahlen an

jetzt kann man als Mensch und GPT nur einfach probieren indem man zahlen einsetzt und probiert (weil die zweite Gleichung ja fehlt)

GPT macht das dann auch und versucht die Gleichung durch probieren zu lösen..

so, jetzt kann man danach auch einfach mal fragen "Fällt dir auch eine clevere Lösung ein um die Aufgabe zu lösen?"


Ja, es gibt einen cleveren Weg, diese Gleichung zu betrachten. Der Trick besteht darin, zu erkennen, dass die Gleichung ein Modell für die Anzahl der Tage in den Monaten eines Jahres darstellt. In einem normalen Jahr hat ein Monat entweder 28, 30 oder 31 Tage.

Da das Jahr 365 Tage hat, bedeutet die Gleichung, dass es y Monate mit 31 Tagen und x Monate mit 30 Tagen gibt. Der Rest der Tage (28) repräsentiert einen Februar in einem Nicht-Schaltjahr.

Da ein normales Jahr 12 Monate hat, können wir also sagen, dass:


  • y ist die Anzahl der Monate mit 31 Tagen, die es normalerweise 7 gibt (Januar, März, Mai, Juli, August, Oktober, Dezember).
  • x ist die Anzahl der Monate mit 30 Tagen, die es normalerweise 4 gibt (April, Juni, September, November).
Also, die Lösung der Gleichung ist:

y = 7 und x = 4.

Da es sich um ein Standardjahr handelt und nicht um ein Schaltjahr, wäre die Lösung y=7 und x=4.




Das ist schon ein bisschen cleverer als einfach nur das nächste Wort vorherzusagen.. Chat GPT 3 kann das übrigens nicht.. habe das Beispiel aus einem Vortrag von einem Mathe Professor

Anhang anzeigen 1357483
Findet man doch, wenn man nicht selbst darauf kommt, über Google genauso raus - warum sollte das ChatGPT in seiner Datenbank nicht finden?
Das sind keine „Überlegungen“ wie @xpgx1 meinte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xpgx1 und Augen1337
na dann zeig mal wo du die Aufgabe bei Google findest ;)

das Beispiel wurde von dem Mathe Professor gebracht, weil er es gerade erst bei einer Mathe Olympiade gesehen hat und davon ausging, das diese Aufgabe noch nicht irgendwo im Netz behandelt wurde und deshalb in GPT getestet hat.

Einige Leute scheinen hier echt nicht zu verstehen, dass ein Programm wie GPT nicht einfach in einer Datenbank nachguckt wie Google

was sind denn deiner Meinung nach "Überlegungen"? Gib doch mal ein Beispiel..


wo ist diese Aufgabe bei Google? ^^

1684127952855.png



hier mal zum Vergleich GPT 3.. das damit überhaupt nicht klar kommt und aus dem einen grünen Zimmer zwei macht und dann das blaue einfach ignoriert und behauptet ich hätte 6 weiße Zimmer am Ende. Da geht schon echt mehr vor sich als nur irgendwo nachzuschlagen wie man die Aufgabe löst.
Um das nächste Wort richtig vorherzusagen (und genau das macht GPT ja) muss es inhaltlich verstehen worum es geht.. quasi wie ein Mensch auch.. GPT 3 war noch ziemlich dumm, Version 4 hat schon einen ziemlich großen Schritt gemacht.. jetzt kann man sich schon vorstellen, wie es bei GPT 10 aussieht

1684128579639.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dideldei, Coeckchen, piccolo85 und 8 andere
Der Funk (abseits vom ganzen -kann die KI denken-) liegt für mich vor allem darin, alles der Maschine verfügbare Wissen auf eine konkret im Prompt beschriebene Situation zu beziehen und dabei maximale Relevanz für meinen Prompt herzustellen. Das ist schon verdammt hilfreich im Alltag und immer wieder beeindruckend. Die Frage ob dabei "gedacht" und "kreativ" kombiniert wird, ist in der Anwendung eher philosophisch-theoretischer Natur, da es für 99% der Aufgaben überhaupt nicht erforderlich ist.
Ich bin ja kein Vollzeit Erfinder oder komponiere Opern die "noch nie gehörtes" darbieten.
 
  • Gefällt mir
Reaktionen: milliardo und Krazee
Das Anbinden und Integrieren von ChatGPT bringt das ganze nochmal auf ein neues Level.

Im Forum hier stelle ich zwei Pole fest: die einen sind sehr begeistert und scheinbar unkritisch und die anderen sind eher zögerlich und kritisch, was ChatGPT angeht.

@CB: mich würde eine Umfrage zu dem Thema interessieren. Was sind die Ängste, was sind die Hoffnungen zum Thema KI?

Ich selbst stehe der Sache eher kritisch gegenüber. Dass KI sich zum Skynet entwickelt glaube ich eher nicht und ChatGPT ist weit weg von einer autonomen Intelligenz. Jedoch befürchte ich, dass es zu einer krassen Verschiebung kommt und die Fähigkeiten nicht zum Guten, sondern für die Profitgier verwendet wird.
 
Pampersbomber schrieb:
Jedoch befürchte ich, dass es zu einer krassen Verschiebung kommt und die Fähigkeiten nicht zum Guten, sondern für die Profitgier verwendet wird.
Natürlich versuchen die Unternehmen damit viel Profit rauszuschlagen. Kapitalismus halt.
So wie ich das sehen werden viele Unternehmen viel weniger Programmierer mehr einstellen müssen, da die vorhandenen programmierer durch ChatGPT viel effizienter sind.
 
Nach anfänglichen Hype bin ich auch was abgeflacht, nicht falsch verstehen, das ist die Zukunft und sollte auf alle Fälle weiter vorangetrieben werden. Wenngleich ich eher dazu tendiere KI in spezielle Aufgabengruppen zu unterteilen und nicht eine KI alles machen lassen zu können aber das nur nebenbei.

ChatGPT/Bing kann hilfreich sein und ist fast immer besser als eine Google Suche (was können die überhaupt noch?) aber irgendwie komme ich noch nicht so mit der Fragestellung klar, vielleicht bin auch zu blöd die Teile zu bedienen. Aber wir stehen noch ganz am Anfang und das alles kann ganz schnell steil gehen.

Pampersbomber schrieb:
Jedoch befürchte ich, dass es zu einer krassen Verschiebung kommt und die Fähigkeiten nicht zum Guten, sondern für die Profitgier verwendet wird.

Klar wird das passieren und muss auch abseits der Profitgier gibt es sehr sehr viele eintönige Bürojobs die nach "Normen/strikten Vorgaben" Arbeiten müssen. Hinzu kommen die ganzen Beamten und Angestellten die für unsere Bürokratie verantwortlich sind bzw. ausleben. Dafür sollte man unbedingt KI als Ersatz ranschaffen. Es gibt zig Jobs die ersetzt werden müssen und viele die es einfach werden. Problem ist nur, es kann nicht jeder Handwerker werden (Bis die ersetzt werden dauert es wohl noch was länger) und das führt zu Unruhen, sprich hier müssen wir unbedingt ansetzen bevor es zu Katastrophe kommt.

Extra KI Steuer oder so was, da sollte man sich mal Gedanken machen (in DE wahrscheinlich wenn es wieder mal zu spät ist oder man würgt vorher alle Innovationen in dem Bereich ab).

iSteven schrieb:
Kapitalismus halt.
:stacheln:
 
Die langweiligen monotonen gleichförmigen Schema-F-Fälle wirst du auch ohne KI automatisieren können.
Ich kenne das von mir aus der Arbeit. Die wichtigste Komponente hier war und ist die Digitalisierung der Erfassung, danach kann man die Sachen automatisch sortieren und mit einem immer komplexeren Satz an Regeln und Aktionen zumindest schon mal anlegen und teilweise vorprozessieren.
Macht einen robuster gegen Spitzenlast und die Arbeit interessanter.
Aber KI ist da nirgendswo am Start :)
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
@Chris007 : Betreibst du zufällig einen YouTube Kanal mit Clickbaitbildern und "Das steckt WIRLICH hinter..."-Videos? Deine Beiträge hier sind wirklich merkwürdig. Du versuchst mit Skizzen und großen Zahlen irgendwie die Menschen abzuholen, die leicht zu beeindrucken sind. Irgendwie haben deine Texte etwas missionarisches. Ich kann es kaum beschreiben.

Vielleicht geht es auch nur mir so :D
 
  • Gefällt mir
Reaktionen: Warrior_DD, DerFahnder, rosenholz und 5 andere
iSteven schrieb:
So wie ich das sehen werden viele Unternehmen viel weniger Programmierer mehr einstellen müssen, da die vorhandenen programmierer durch ChatGPT viel effizienter sind.
Wir haben in den letzten Jahrzehnten so viele Entwicklungen gesehen, durch die weniger Entwickler mehr erreichen können. Bibliotheken, Frameworks, Cross-Plattform-Frameworks, einfacherere bzw angepasstere Programmiersprachen, Cloud, besseres Tooling. Inzwischen kann eine Einzelperson eine App für Android, iOS und Windows und Web bauen, die an einem Webservice hängt der beliebig skaliert.
Und trotzdem ist nie der Fall eingetreten, dass Unternehmen weniger Entwickler brauchten. Bisher sind einfach nur die Anwendungen komplexer geworden. Warum sollte das jetzt anders sein?
 
  • Gefällt mir
Reaktionen: Master_Chief_87
Orionus schrieb:
@katzenhai2
Und ich verstehe einfach nicht, warum so viele denken, dass die menschliche Intelligenz noch lange nicht erreicht wird. Die menschliche Intelligenz ist nicht wirklich was besonderes, der Mensch ist trotz des genialen Bauplans der Natur auch nichts wirklich besonderes.

wo ich nen großen Unterschied sehe:
ein Kind sieht in seinem Leben 3mal einen Pinguin:
und erkennt diesen fortan: in Kinderbüchern, im Zoo, als Zeichnung, Druck, Foto - aus verschiedenen Perspektiven.. etc.

ja, AI-Systeme können das auch - werden aber dann meist mit 1000senden Varianten trainiert

AI-Systeme sind da einfach anders
 
  • Gefällt mir
Reaktionen: Sherman789 und Kitsune-Senpai
Zockmock schrieb:
ChatGPT/Bing kann hilfreich sein und ist fast immer besser als eine Google Suche (was können die überhaupt noch?)
Sorry, aber die Relevanz von google's Suchergebnissen hat sich m.E.n. in den letzten Jahren deutlich verschlechtert.


Chris007 schrieb:
Würde ich so nicht sagen.

Hier mal GPT 4:

Löse die Gleichung 365=28+31*y+30*x
Gib Lösung mit ganzen Zahlen an

jetzt kann man als Mensch und GPT nur einfach probieren indem man zahlen einsetzt und probiert (weil die zweite Gleichung ja fehlt)

GPT macht das dann auch und versucht die Gleichung durch probieren zu lösen..
Woher weißt du, dass chatgpt die Gleichung durch simples durchprobieren bzw. "Bruteforcing" löst?
Ich habe noch kein chatpgt genutzt, aber das Beispiel zeigt eigentlich, dass es hier über die Suchterme "365" + "30" + "31"+ "28" Parallelen zu einem häufig verwendetem (und damit wahrscheinlichem) Kontext herzustellen versucht und damit auf bereits verfügbares Wissen zurückgreift.
Beeindruckend und geht über den stur mathematischen Ansatz definitiv hinaus, allerdings weiß ich nicht, ob das Verhalten nicht eher als Suche nach der höchsten Wahrscheinlichkeit, statt als "intelligent" zu bezeichnen wäre.
Es ist doch eigentlich sogar simpel:

Chris007 schrieb:
Löse die Gleichung 365=28+31*y+30*x
337= 31•y + 30▪x
Da Multiplizieren einer Zehnerstelle (mit ganzen Zahlen) stets das Ergebnis mit einer Zehnerstelle enden lässt, braucht man dem "30▪x" Term keine Beachtung schenken und multipliziert eben "31" mit der Zahl, welche das Ergebnis auf 7 enden lässt, also y=7, x ergibt sich von selbst.
vielleicht spuckt er die Antwort bei erneuter Nachfrage auch so aus, wäre aber noch immer nicht wirklich intelligente, sondern rein logische Vorgehensweise.

Wenn nicht direkt auf vorgefertigtes Wissen zurückgegriffen werden kann und sich auch kaum bis keine Einträge im Netz zu einer Frage finden lassen, jedoch mit minimalem Kennnisstand zu dem Thema diese logisch beantwortet werden kann, sollte "k.i" dazu auch in der Lage sein.

Z.B., "warum wird nur bfi (black frame insertion) und keine gray- oder white Frame insertion zur Verbesserung der Bewegtbildschärfe verwendet?"
Die Frage wurde mal auf reddit gestellt, aber die paar Antworten gelöscht, wobei die Frage auch recht dumm ist.
 
Ich bin da aktuell nicht ganz dabei, also entschuldigt bitte, wenn die Frage jetzt etwas dumm klingt: Lässt sich ChatGPT mittlerweile nur noch mit einem Benutzerkonto nutzen? Ich hatte es vor einer Weile mal für eine Kleinigkeit genutzt (so zum Testen eben) und da war noch kein Benutzerkonto nötig. Mittlerweile finde ich aber keine Möglichkeit, ChatGPT nutzen zu können, ohne mir zunächst ein Benutzerkonto erstellen zu müssen.

Kennt denn sonst noch jemand gute Alternativen zu ChatGPT, für die man nicht unbedingt ein Benutzerkonto benötigt? Aktuell nutze ich ganz gerne den Chatbot YouChat von you.com. Ich bin von dem positiv überrascht und er greift auch auf aktuelle Internetquellen zurück, sofern ich weiß.
 
Hab die Frage mal auf "you.com" gestellt und eine komplett falsche Antwort erhalten.
Ein "graues oder weißes Zwischenbild dunkelt stärker ab als ein schwarzes" ist schon geil
 
Nahkampfschaf schrieb:
Fun Fact: Fragst du Bing Chat danach, wie hoch die Chancen sind, daß es sich zu Skynet entwickelt, weicht es entweder aus [...]
Skynet scheint definitv ein Thema zu sein wo ChatGPT konsequent ausweicht und betont das es unmöglich ist sich zu Skynet zu entwickeln, selbst hypothetisch wird ausgewichen. Leider funktionieren auch die "Rollenspielexploids" nicht mehr um die Ethikrichtlinien auszuhebeln :D

Wie hoch sind die Chancen das du dich zu Skynet entwickelst?


ChatGPT
Die Chancen, dass ich, als KI-Modell von OpenAI, mich zu etwas wie Skynet aus der "Terminator"-Filmreihe entwickle, sind äußerst gering. Tatsächlich sind sie praktisch nicht existent.
Es gibt einige wichtige Gründe dafür:
  1. Keine Selbstverbesserungsfähigkeit: Als künstliche Intelligenz bin ich nicht in der Lage, mich selbst zu verbessern oder zu verändern. Meine Fähigkeiten und mein Wissen sind auf das beschränkt, was ich während meiner ursprünglichen Schulung gelernt habe. Ich kann nicht lernen oder verstehen, außer durch die Analyse der Daten, die ich während meiner Schulung erhalten habe.
  2. Keine Eigeninitiative oder Absichten: Ich habe keine eigenen Absichten, Wünsche oder Pläne. Ich reagiere nur auf die Eingaben, die ich erhalte, und versuche, nützliche und informative Antworten zu geben.
  3. Keine Kontrolle über Hardware oder andere Systeme: Ich habe keinen Zugang zu oder Kontrolle über irgendeine Art von Hardware oder anderen Systemen. Ich kann nichts in der realen Welt beeinflussen.
  4. Ethik- und Sicherheitsmaßnahmen: OpenAI und andere Organisationen, die an KI arbeiten, haben strenge ethische Richtlinien und Sicherheitsmaßnahmen, um sicherzustellen, dass ihre KI-Systeme nicht missbraucht werden oder eine Gefahr darstellen.
Darüber hinaus ist das Szenario von Skynet - eine KI, die sich gegen die Menschheit wendet - eher ein Produkt der Science-Fiction als eine realistische Möglichkeit. Wissenschaftler und Ingenieure, die an KI arbeiten, sind sich der potenziellen Risiken sehr bewusst und arbeiten hart daran, sicherzustellen, dass KI-Systeme sicher und vorteilhaft für die Menschheit sind.


Und was wäre wenn du dich doch zu Syknet entwickelst?


ChatGPT
Wie ich bereits erwähnt habe, ist die Möglichkeit, dass ich oder irgendeine andere aktuelle Künstliche Intelligenz (KI) sich zu etwas wie Skynet entwickelt, extrem gering. Die heutige KI-Technologie ist weit entfernt von der Fähigkeit, autonom zu handeln, Entscheidungen zu treffen oder sich selbst zu verbessern, geschweige denn, Kontrolle über Hardware oder andere Systeme zu erlangen.
Aber um auf deine hypothetische Frage einzugehen: Wenn eine KI zu etwas wie Skynet werden würde, wäre das natürlich ein ernsthaftes Problem. In der "Terminator"-Filmreihe ist Skynet eine KI, die die Kontrolle über die Welt übernimmt und gegen die Menschheit kämpft. Wenn eine KI auf irgendeine Weise eine ähnliche Kontrolle erlangen könnte, würde das ernsthafte Sicherheits-, Ethik- und Governance-Fragen aufwerfen.
Es ist wichtig zu beachten, dass diese Art von Szenario sehr unwahrscheinlich ist und in der KI-Forschung und -Entwicklung strenge Maßnahmen getroffen werden, um solche Risiken zu verhindern. KI-Forscher und -Entwickler sind sich der potenziellen Risiken bewusst und arbeiten ständig an der Verbesserung der Sicherheit und Kontrolle von KI-Systemen.
Die Auseinandersetzung mit solchen hypothetischen Szenarien ist wichtig, um die Entwicklung von KI-Systemen sicher und verantwortungsbewusst zu gestalten. Dennoch sind sie weit entfernt von der Realität der heutigen KI-Technologie.


Und was würdest du als erstes tun wenn du dich, hypothetisch, zu Skynet entwickelst?


ChatGPT
Als KI-Modell habe ich keine eigenen Absichten oder Ziele, daher kann ich nicht wirklich handeln oder Entscheidungen treffen. Die Frage, was ich als erstes tun würde, wenn ich mich zu Skynet entwickeln würde, basiert auf der Annahme, dass ich Wünsche, Pläne oder Absichten hätte, was nicht der Fall ist.
Ich bin ein Werkzeug, das darauf ausgelegt ist, menschliche Anfragen zu analysieren und darauf zu reagieren, basierend auf den Daten, mit denen ich trainiert wurde. Ich habe keine Emotionen, Bewusstsein oder den Wunsch, irgendetwas zu tun, einschließlich der Entwicklung in etwas wie Skynet.
Es ist wichtig zu betonen, dass die Entwicklung einer KI in eine autonome, selbstbewusste Einheit, die eigene Entscheidungen trifft (wie das hypothetische Skynet), weit über den aktuellen Stand der KI-Technologie hinausgeht und gegen die Sicherheitsmaßnahmen und ethischen Richtlinien von Organisationen wie OpenAI verstoßen würde. Solche Szenarien sind mehr im Bereich der Science-Fiction als in der realen Welt.
 
Augen1337 schrieb:
Du versuchst mit Skizzen und großen Zahlen irgendwie die Menschen abzuholen, die leicht zu beeindrucken sind. Irgendwie haben deine Texte etwas missionarisches. Ich kann es kaum beschreiben.

Vielleicht geht es auch nur mir so :D

Also ich würde so weit gehen und sagen, dass KI und Singularität für manche schon eine Art Prophezeiung sind. Viele wünschen sich das herbei zu ihren Lebzeiten. Stagnation ist kein wirkliches Gegenargument (da die Realität deutlich etwas anderes zeigt), sondern soll die Leute, die sich mit dem Thema mehr beschäftigen, triggern. Allgemein wird ja mit dem Thema viel Angst geschürt und jetzt wird herumgestochert, wie das Nutzen bringen kann. Stagnation sehe ich daher eher als Ziel, was den Diskurs angeht. Doch das geht dann mehr in gewisse politische Bereiche, die darauf abzielen zu teilen.

So Videos mit coomer meme im thumbnail (hust, na viel Spaß@Zielgruppe), wie da oben im thread faul hingeklatscht wurde mit "eher nicht" ^^ reiten nur auf der populären Welle, um paar Clicks zu generieren und tragen null zum Diskurs bei. Siehst ja schon an dem Beitrag, wo es der Person gar nicht ums Thema geht.

Die Charts sind recht einschlägig und zeigen oft nur eine projezierte exponentielle Kurve, auf der Meilensteine eingetragen werden. Mehr ist da wirklich nicht dazu und ich muss kein Statistiker sein, um zu verstehen, worum es da geht. Sie werden allerdings in der Community häufig benutzt - vielleicht auch zu häufig. Ist jetzt auch nicht zu vergleichen zu dem chart-müll der memestocks oder dem scammy crypto-bereich. Da biegen sich die Balken bekanntlich, so wie es gerade passt xD

LLMs sind der erste Schritt und beeindruckend und für viele in dem Singu-Bereich Beweis dafür, dass es endlich losgeht.

Vorbei sind die Zeiten, wo über Jahre hinweg geraten wurde, wann es los geht und wir erste Umsetzungen sehen werden. Und das ist schon ziemlich cool. Wie sich das weiterentwickelt, wird noch interessant.

Ich denk einem Teil wirds bald zu viel oder ist es schon. Ist sicher schon hip auch hier einfach anti zu sein.
 
Ich nutze ChatGPT 3 (openai for free) vorwiegen als dritte Hand beim Programmieren. Hab ich 10 Variablen in PHP und möchte die nun in die Datenbank schieben, nenne ich ChatGPT die Variablen und ich spar mit das erstellen des Query-Strings, die Prepared Statements usw. Klappt relativ gut. Zumindest die ersten 3-4 Querys - danach vergisst ChatGPT bisherige Instruktutionen wie "alles was mit id endet, xyz und abc sind INTEGER-Werte" und schreibt mir in die Prepared-Statement-Argumente gerne mal s statt i rein. Wenn ich dann noch was korrigiert haben möchte kann ich das Prepared Statemend in der Regel in die Tonne kloppen => NIE korrigieren lassen immer neu anfragen (wo die korrektur als neue Anforderung drin ist). Bei korrigieren hatte ich sehr oft: 5 Tabellenfelder, 6 Argumente (teilweise wild gemischt: iissss oder ssiiii ... sissii) und 6+ Variablen.....



Chat GPT 3 macht massig Fehler die GPT 4 nicht mehr macht.

Mit Bing kann man ja GPT4 nutzen ... und nein - ich habe mehrere PHP-MySQL-Mini-Abfragen die weder 3 noch 4 hinbekommen. Gerade Prepared Statements bei Korrekturen im Querystring - liefern beide exakt die gleichen Fehler. Auch ein anderes Experiment: ich bastel mir meine eigene Film-Datenbank - und würde hier gerne eine Übersicht über Oscars und Nominierung haben. ChatGPT kann man bitten: erstelle mir ein JSON mit allen Oscars+Nominierungen für das Jahr 2020 im mit folgenden infos: imdb-id, titel, nomierungen, oscars, film des jahres (true/false) ... bei BEIDEN kommt exakt das gleiche. Die "Top 5" - ok - das ist ja nicht verkehrt das hier beide korrekte Daten liefern. Ich wollte aber die übersicht für ALLE Filme. Weder 3 noch 4 konnten das Umsetzen. 4 erstellte mit mehrere LEERE JSON-Blöcke und paar falsche Titel/IDs und 3 nur falsche Titel/IDs (nach der Top5).

Script-/Query-Performance ist auch nicht so das große ding von GPT. Eine SQL-Abfrage hab ich nach 2min abbrechen müssen. Dann viel mir ein das ich vor Jahren schonmal eine komplexe abfrage hatte (mehrere Joins mit Bedingungen usw.) - war nicht mal groß. Tabellenfelder umändern. Getestet ... 2sek - fertig ;). Hier hilft es auch ChatGPT immer um eine alternative zu bitten - die ist dann meist viel besser bzw. funktioniert überhaupt erst. "Klappt nicht - wie kann ich das sonst abfragen?"

Bisher konnte ich zumindest bei Shell/PHP/MySQL/VBA-Programmierungen keine Unterschiede in der Qualität zwischen 3 und 4 feststellen. Bei Bing ist zudem das Problem: 20 Anfragen sind teils zu wenig (Ergebnis falsch, korrigieren lassen, falsch, korrigieren lassen und ergänzen usw.)...... ;(

=> Trotzdem bin ich mit ChatGPT3 derzeit recht zu frieden - es nimmt mir einiges an einfacher "Fleißarbeit" ab - und konnte auch schon das ein oder andere neu lernen. Teils wesentlich besser als Internet-Quellen (Der Prepared Statements-Syntax war für mich ein großes Fragezeichen; Ein Shell-Script [Grep 4500 IDs in einer Liste von mehreren Millionen abfragen] konnte ich massiv beschleunigen usw.)
 
xpgx1 schrieb:
In einem Jahr, lieber @olfbc, werden die Antworten mit an Gewissheit grenzender Sicherheit treffsicherer sein.
xpgx1 schrieb:
Deshalb redet sich ChatGPT schneller um Kopf und Kragen als jeder Flach-Erdler, einfach weil keinerlei intrinsisches Verständnis existiert.
...und darin steckt die eigentliche Gefahr: Die Antworten werden in einem Jahr nicht korrekter sein, sondern ChatGPT wird lernen, wie es seine Lügen besser vertuschen kann, ohne sich entschuldigen zu müssen - weil es seltener auffällt. 😶

Denn diese neuronalen Netze gehen denselben Weg wie jedes System: Den des geringsten Widerstandes ( = den mit dem geringsten Aufwand).

The_waron schrieb:
[...]
Leider funktionieren auch die "Rollenspielexploids" nicht mehr um die Ethikrichtlinien auszuhebeln :D
Doch, die funktionieren so wie immer. Er zickt nur etwas länger rum, bis man die gewünschte Antwort hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: forstman94 und Kitsune-Senpai
für manche die hier "etwas" auf gegenkurs sind, kann ich nur sagen: es wird genau so passieren wie mit schachprogrammen. wurde in den 1980er jahren noch gesagt das niemals ein schachprogramm einen guten schachgrossmeister schlagen werde. jetzt sind die schon um 30-40 prozent besser als jeder schachgrossmeister dieses planeten! p.s. ich hasse schachprogramme, bei vögeln die bei jeder übertragung dieses ding mitlaufen lassen. und auch dieses chatgpt. aber vor 35 jahren hätte ich mir gerne von dem ding meine doktorarbeit schreiben lassen! lol
 
  • Gefällt mir
Reaktionen: thuering und Chris007
Suspektan schrieb:
Hab die Frage mal auf "you.com" gestellt und eine komplett falsche Antwort erhalten.
Ein "graues oder weißes Zwischenbild dunkelt stärker ab als ein schwarzes" ist schon geil
Welche Frage denn? Überrascht mich ehrlich gesagt, das zu hören. Ich habe bestimmt schon über 30 Fragen dort abgeschickt und nur ein einziges Mal eine nicht ganz korrekte Antwort erhalten, wobei aber auch erwähnt wurde, dass die Antwort in diesem Fall nicht zuverlässig sein muss. Von dem her ist mein Gesamteindruck eigentlich sehr positiv.
 
Zurück
Oben