News Googles ChatGPT-Konkurrent: Bard erhält in Deutschland das schnelle Gemini-Pro-Modell

Was passiert wenn man gezielt nach Informationen sucht und jeder LLM Betreiber ein anderes Ergebnis ausspuckt, man alle Modelle miteinander konfrontiert und jedes für sich behauptet die "Source of Truth" zu sein?

Hmm..
 
Was passiert wenn die Bild, der Spiegel und die FAZ behauptet Recht zu haben?
 
Xiaolong schrieb:
Das ist das selbe wie mit DeepL. Vor Jahren wirklich brauchbar gewesen, da konnte ich Texte fast 1:1 so übernehmen. Mittlerweile bin ich fast schneller wenn ich selber Sachen übersetze....

Meine Theorie geht dahingehend, dass man zu viele DAUs darauf losgelassen hat und das Modell von denen gelernt hat und das kann einfach nicht gutgehen :)

Da hatte Microsoft/Twitter doch vor Jahren mal so einen Chatbot oder? Der dann auf das Internet losgelassen wurde und nach 8 Stunden zum Nazi oder so wurde, da war doch mal was... Selbes Prinzip auch hier

Edit: Gefunden: https://www.computerbase.de/2016-03/microsoft-twitter-tay-bot/
Naja, dann gäbe es kein Facebook oder Twitter oder? ;-)

Nein, das hat denke ich wohl eher mit Kohle, Gewinn oder Kosten zu tun. Sein wir doch ehrlich, wen etwas richtig gut, oder zumindest viel besser war, und dann plötzlich nicht mehr, dann liegt das doch fast immer daran, das aus notwendigkeit oder gier der rotstift angelegt wurde.....

Aber genau deshalb habe ich ja auch Computerbase gefragt, da ja schon meistens doch sehr Kundige leute hier unterwegs sind. Aber AI ist halt auch eine gewaltige Blackbox bzw.... sehr viel Zufall und Würfeln.... Würde mir allgemein dort mehr Artikel wünschen die dort etwas tiefer booren und etwas allgemeinverständliches zum Vorschein bringen. Ist halt sehr viel Mathe und auch sehr Abstrackt.
 
lynx007 schrieb:
Würde mir allgemein dort mehr Artikel wünschen die dort etwas tiefer booren und etwas allgemeinverständliches zum Vorschein bringen. Ist halt sehr viel Mathe und auch sehr Abstrackt.
Die Frage ist, ob sich das im Rahmen eines Artikels oder einer Artikelserie sich auf entsprechend darstellen lässt. Das Thema ist recht umfangreich und wenn dann eher durch ein Buch zu erschlagen. Mal davon abgesehen, das solche Artikel auch sehr aufwendig sind (gut; man könnte sie durch natürlich ChatGPT und Co schreiben lassen :)).
Auf der anderen Seite gibts auch schon sehr viele Materialien zu dem Thema. Wäre vielleicht sogar sinnvoller, wenn man darauf verweist.
Denn geben tut es ja Vieles. Die Schwierigkeit ist meistens zwischen den ganzen Kram die Perlen zu finden, die da durch und durch lesenswert sind.
 
  • Gefällt mir
Reaktionen: lynx007
[i}Gut gut, werft Google all eure persönlichen Daten hinterher. Verknüpft bitte alle eure Dienste mit dieser AI, damit die Ergebnisse noch besser auf euch abgestimmt werden.[/i]

1706891419322.jpeg


Ich warte dann lieber noch ein Jahr, bis die OpenSource-Modelle auf Gemini Ultra-Niveau angekommen und dazu noch kostenlos UND anonym sind 🙂
 
  • Gefällt mir
Reaktionen: andy_m4
lynx007 schrieb:
Naja, dann gäbe es kein Facebook oder Twitter oder? ;-)
Ja gibt es und die Inhalte dort sind zu 90% menschenverblödend. Genauso wie YouTube, das ist mittlerweile schlimmer als das RTL TrashTV, aber das ist scheinbar das was die große Masse will. Was den Zustand unserer gesellschaft besser beschreibt als jeder Soziologe...

lynx007 schrieb:
Nein, das hat denke ich wohl eher mit Kohle, Gewinn oder Kosten zu tun. Sein wir doch ehrlich, wen etwas richtig gut, oder zumindest viel besser war, und dann plötzlich nicht mehr, dann liegt das doch fast immer daran, das aus notwendigkeit oder gier der rotstift angelegt wurde.....
Nein, bei DeepL hat auch die Bezahlversion ziemlich federn lassen. nicht nur die Free. Das war am Anfang deutlich besser, als das es heute der Fall ist.
 
  • Gefällt mir
Reaktionen: andy_m4
Mcmeider schrieb:
Ich benutze Bard hier und da zum Coden, und die Antworten sind brauchbar. Es wird nicht viel über Bard berichtet, aber der Status ist schon ok - wenn man bedenkt wie weit ChatGPT 3.5/4, LLama 2 oder auch Mixtral 8x7B sind.

Ich bin gespannt. Die Situation ist wirklich komfortabel
IntelliJ hat nun auch eine eingebaute KI, konnte ich aber noch nicht testen da auf Arbeit noch nicht nutzbar. Diese allgemeinen AIs taugen nicht so viel, kommt viel Blödsin rum - u.a. auch deprecated code.
 
RobZ- schrieb:
Diese allgemeinen AIs taugen nicht so viel, kommt viel Blödsin rum - u.a. auch deprecated code
Kommt drauf ab was du mit der "toolbox" AI machst.
Texte zusammenfassen oder Einladungen, Soc8al Media Poats schreiben usw. Geht ganz gut. Da muss ich nur noch anpassen und nicht alles selbst schreiben.

für komplexe Arbeiten, dann im Business, neue gibt’s dann Enterprise AIs, wie zum Beispiel WatsonX von IBM
 
  • Gefällt mir
Reaktionen: lynx007
andy_m4 schrieb:
(gut; man könnte sie durch natürlich ChatGPT und Co schreiben lassen :)).

Nicht wirklich. Ich habe schon oft GPT oder auch Bard gefragt wie sie Funktionieren, und da kommt mitlerweile nur überflächliche Rotze raus.

Was AIs relativ gut hinbekommen, Fachgebiete aufzulisten, Bücher oder Webseiten empfehlen zu lassen.... Aber wie schon angemerkt, das sind dann schnell üble Schinken.... Und übel oft vom Inhalt..... Da die richtigen Bücher zu finden.... Entweder es sind Bücher über AI, weil AI halt gerade hipp ist, und wovon die häfte des Buches handelt.... oder man landet sofort in Fachtermini wo ich wieder viel zu blöd binn.... Oder sie sind unbezahlr...

Lese ich ein Buch über coden, tja, dann ist das wie ne Perlenkette der man Folgen kann.... und man ist nach einem Buch auch kein Programierer.... aber man kann es schnell grob erfassen, mit dem richtigen Buch. Bei AI landet man entweder bei irgendwelchen farbigen Flipsharts für DAUs... oder man landit gleich in wilder Stochastik..... deren Formeln ich nicht mal entziffern kann, die trotz Fachabi für mich wie Hyroglyphen aussehen....
 
BAR86 schrieb:
Also blöde Frage: was macht es?
Ist zwar nicht direkt deine Frage, aber ich kann dir sagen, was ich damit mache:
  • Ziemlich häufig lass ich mich unterstützen beim Texte übersetzten. Ich kann den Text nicht normal kopieren (Bild/Video/Markierverinderung via JS/...) oder es sind mal wieder eine Sprache, die einen anderen Zeichensatz hat als unser Lateinischer -> Screenshot -> rein in das LLM -> übersetzten lassen. Funktioniert fantastisch.
  • Deutlich seltene kommt dann vor, dass ich mich unterstützen lasse beim der Bedinung eines Programms, was ich nur alle jubel Jahre mal benutze und dann wieder mal nicht mehr weiß, wie es ging. Anleitung erzeugen lassen, wenn ich nicht weiter komme, Screenshot vom Programm an der Stelle, wo es hakt, rein ins LLM und weiter gehts.
  • Zimlich selten, aber auch dass kommt vor, bei der Unterstüzung beim Coden ein PAP ersten und als Unterstützung zur Beschreibung rein. Verbessert die Ergebnisse zuweilen auch sehr gut.
  • Mehr just for fun ab und zu Dinge identifizieren lassen. Mit Gemini Pro gestern getestet, ob es ein Bild aus einem Artikel über die Legalisierung von Kanabis erkennt. Hatt die Blüten dann sehr schön beschrieben.
  • Identifizierung von Locations oder Personen wurde zumindest in GPT4-V komplett kastriert.
 
lynx007 schrieb:
Nicht wirklich. Ich habe schon oft GPT oder auch Bard gefragt wie sie Funktionieren, und da kommt mitlerweile nur überflächliche Rotze raus.
Ja. War ja auch nicht ganz ernst gemeint.

Ansonsten ja. diese Sprach-KIs taugt wenig dazu wirklich Wissen zu bekommen. Idealerweise setzt man die für ein Gebiet ein, wo man sich auskennt (so das man Fehler ggf. auch gleich bemerkt). Und dort aber auch nicht, wegen ihrer "Expertise", sondern für den Boilerplate-Anteil der Arbeit.
 
  • Gefällt mir
Reaktionen: Azdak und lynx007
Zurück
Oben