News Generative KI-Chatbots: Wie stark Gemini im Jahr 2025 auf ChatGPT aufgeholt hat

Find ich aber cool.
Mag ich ganz gern für Hintergrund Berieselung.


 
sh. schrieb:
Bin mal gespannt auf was Apple in Zukunft setzt.
Siri :mussweg:
Würde mich auch interessieren, weil hinter her kommen werden sie nicht mehr - bezweifle ich jedenfalls. Apple Märkte sind IPhones und MacBooks/iMacs - Apple TV liegt noch weit hinter der Konkurrenz, Apple Music ist etwas etablierter als Amazon Music und YouTube Music, aber da wird Google wahrscheinlich noch ordentlich aufholen. Apple Fitness+ ist ein absolutes Nischenprodukt und dennoch muss auch da investiert werden.

Apple hat es auf gut Deutsch gesagt "verkackt". Ein eigenes LLM wird EXTREM teuer werden, Gewinn wirds da nicht geben und falls doch wird es definitiv nicht an Gemini, ChatGPT und Co. rankommen. Ich bin zwar nicht in der Buchhaltung bei Apple, aber das wird ein verdammt teurer Spaß werden - oder der Aktienkurs wird deutlich leiden, wenn das nicht etwas sehr gescheites bei rum kommt oder gar "nichts" kommt.
 
sKiNDX schrieb:
kann dir t3.chat empfehlen, nutz ich selbst :daumen:
Habe mal 8$ zum testen investiert 😉 nur wie kann sich das rechnen? Normal zahlt man ja schon min. 10$ pro Monat für einen Anbieter.
 
Kraeuterbutter schrieb:
frag mich wie lange es bei KI dauern wird...

vor 15-20 Jahren haben viele beteuert, GPS nicht zu benutzen (weil man verblödet, Kartenlese verlernt, etc.)

heute?

schätze bei KI wirds ähnlich laufen..
heute noch die großmundigen Bekundungen sowas nicht zu verwenden, weil .....

in 10 - 15 Jahren wirds wohl kaum noch solche Aussagen geben
Das muss letztlich jeder für sich selbst entscheiden.

Ich arbeite in der IT und habe daher auch mal mehr und mal weniger mit dem Thema zu tun und sehe für mich persönlich keinen produktiven nutzen darin.

Genau aus diesem Grund versuche ich das KI-Thema privat so gut es geht außen vor zu lassen.
 
sh. schrieb:
Habe mal 8$ zum testen investiert 😉 nur wie kann sich das rechnen? Normal zahlt man ja schon min. 10$ pro Monat für einen Anbieter.
Du hast halt "nur" 100 Premium-Prompts. Ist mit 8 Cent pro Prompt allerdings wirklich ziemlich günstig. Wenn man einen längeren Code-Snippet reinwirft und in ganzer Länge verändert wieder ausgeben lässt, ist man da mit API eher bei 20-40 Cent mit GPT Thinking oder Gemini Pro.

Allerdings halt nicht mit einer IDE nutzbar. Hab gerade ein Vibe-Projekt mit 15000+ Zeilen C++ in Antigravity am laufen, und da hat man bei Google sogar mittlerweile auch anständig Opus 4.5 Token.

Nächstes Jahr wird es richtig eskalieren mit Multi-Agent-IDEs und besseren und effizienteren Modellen.
 
Beide noch strunzdumm und geben absolut sinnlose Antworten bei etwas spezielleren Fragen.
 
sh. schrieb:
Der Fax oder Museum Thread war glaube ich woanders ;)
Ich nutze verschiedene ki Modelle parallel und jede hat mich schon bei einer scheinbar einfachen Aufgabe maßlos enttäuscht.
Da werden Dinge als Fakten dargestellt obwohl es absoluter Unsinn ist. Auf Nachfrage kommt dann nur lapidar: ach meistens ist das so also habe ich es hier ebenfalls angenommen....

So kann ich die ki doch niemals produktiv einsetzen o_O

Hier auf der Arbeit werden meistens nur lustige Bilder erstellt und damit werden sie wohl kaum Geld verdienen :D
 
  • Gefällt mir
Reaktionen: Galatian
Dann postet doch mal eure Prompts hier bitte. Ich würde mal behaupten das es fast immer an die Unfähigkeit liegt vernünftige Prompts zu erstellen…
 
  • Gefällt mir
Reaktionen: Xiaolong und bobitsch
testwurst200 schrieb:
Da werden Dinge als Fakten dargestellt obwohl es absoluter Unsinn ist.
So kann ich die ki doch niemals produktiv einsetzen o_O
Besteht denn deine Arbeit aus Fakten sammeln? :) Wenn das eine nur mäßig funktioniert, kann es bei anderen Dingen aber trotzdem eine gute Hilfe sein. Und um so mehr man die zu durchsuchende Datenmenge eingrenzt, um so weniger Unsinn kommt da raus. Meiner Erfahrung nach. Und eingrenzen kann man das mit dem Prompt oder Systemvorgaben.
 
  • Gefällt mir
Reaktionen: Xiaolong
Naja
Selbst so etwas Simples wie "Mit welcher Formel berechne ich die Verstärkung einer spannungsrückgekoppelten Common-Source Schaltung.", "Mit welcher Formel berechne ich die Miller-Kapazität in einem Operationsverstärker.", "Hat Germanium eine direkte Bandlücke?".

Geht meist schief. Sowohl auf Deutsch, als auch auf Englisch.
Wenn ich ohnehin alles per Hand verifizieren muss, kann ich es auch sein lassen.

Komplexere Anfragen, welche sich z.B. auf einen bestimmten IC oder eine bestimmte Funktion von Cadence beziehen, kann man komplett vergessen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: testwurst200
@Kuristina, @sh.

In der Tat muss ich auf der Arbeit oft Fakten sammeln. Datenblätter vergleichen, was ist vergleichbar, was wäre als Alternative zu gebrauchen etc

Bei dem Beispiel ging es ganz konkret um das Vergleichen zweier Monitore. Beide hatten usb c und er hat bei beiden behauptet, dass diese PD mit 60 watt beherrschen würden. Nach einer kurzen Google Suche stellte ich fest, bei dem einem Monitor kann am usb c generell nichts geladen werden.

Wer bei solch einer einfachen Aufgabe schon versagt, dem kann ich doch nichts "wichtigeres" anvertrauen vor allem weil solche Schnitzer schon oft passiert sind.
 
@STM64 naja, bei deinen Promts könnte aber auch der Fehler vor dem Monitor sitzen.
Stell dir vor du hast es in der Hand und kannst bestimmen wem du die Frage stellst. Einen Experten oder einem Laien? Woher soll die KI Wissen auf was sich deine Frage bezieht. Die Antwort wird Stück für Stück mit Wahrscheinlichkeit berechnet.

Einfache Frage: was ist eine Kartoffel
Ein Biologe wird dir eine andere Antwort als ein Kind oder ein Landwirt geben.

Beginne doch mal mit: Du bist ein Elektrotechnik-Experte
Damit macht du die Bandbreite der Antwortmöglichkeiten bereits kleiner.

Gerne kannst du am Ende noch die Frage stellen: Wenn keine Frage bestehen, formulieren mir eine Formel zu Berechnung der Miller-Kapazität in einem Operationsverstärker.

Je nach KI kommen tatsächliche Rückfragen, die sehr hilfreich sein können und lassen begreifen an was man bei der ursprünglichen Fragestellung/Promt nicht gedacht hat.

Sollte die Antwort ebenso wenig Zufriedenstellend sein, entschuldige ich mich für deine verschwendete Lebenszeit.
 
  • Gefällt mir
Reaktionen: Kuristina
eloy schrieb:
Einen Experten oder einem Laien?
In keinem Falle sollte eine grob falsche Antwort oder eine falsche Formel ausgespuckt werden.

eloy schrieb:
Gerne kannst du am Ende noch die Frage stellen: Wenn keine Frage bestehen, formulieren mir eine Formel zu Berechnung der Miller-Kapazität in einem Operationsverstärker.

Je nach KI kommen tatsächliche Rückfragen, die sehr hilfreich sein können und lassen begreifen an was man bei der ursprünglichen Fragestellung/Promt nicht gedacht hat.

Also weder ChatGPT, noch Gemini 3 haben dazu jetzt eine Rückfrage gestellt.
Da wurde einfach voller Überzeugung dieselbe falsche Antwort gegeben.

Bei zwei von dreien konnte ich immerhin Gemini überreden, mir nach ein paar Nachfragen zu sagen, warum das Ergebnis falsch ist, das richtige auszuspucken.
 
  • Gefällt mir
Reaktionen: Fighter1993 und Rockstar85
Ich kann mir kaum vorstellen, dass eine halbwegs aktuelle KI eine Frage wie "hat Germanium eine direkte Bandlücke?" in letzter Zeit falsch beantwortet haben soll. Es gibt Kategorien von Fragen mit denen tun sich LLMs manchmal schwer. Ein Beispiel dafür sind meiner Erfahrung nach Aufgaben, wo Zahlendaten, vor allen zeitliche Daten vorkommen. Die Fragen zur Miller-Kapazität, Bandlücke usw. sind aber überhaupt nichts, was KIs Probleme bereiten sollte.

Interessant zu erfahren wäre, was genau gefragt wurde und wie die korrekten Antworten lauten.
 
Zuletzt bearbeitet:
KI kann in die Breite gehen, nicht so gut in die Tiefe..

bei MMLU-Tests z.b. schneidet sie oft recht gut ab, besser als der durchschnitt der Menschen.

bei GPQA (Doktoreanden-Härtetest) hingegen ist sie noch hinten...

aber durch die Medien geistert immer wieder, wie gut diese oder jene KI diesen ohne jenen extrem schwierigen Test gemeister hat oder hätte..

das KI jetzt auf Maturanten-Niveau ist..
das KI jetzt auf Master-Niveau ist
ja, das KI jetzt auf Doktoranden-Niveau sei..

und dann leg ich einen Test meiner Freundin den sie in der 3ten Volksschule ihren Schülern gibt der KI vor, und sie scheitert grandios

oder versuche es mit den Rätseln aus dem PM-Logik-Trainer-Heften..
es kommt ne tolles Ergebnis - nach Sekunden - was mich beeindruckt hat.. (weil man selber hier 10-20MInuten oder länger dran sitzt)

dann doch mal kurz hinten in die Lösung geschaut und -> 70% falsch

NOCH muss man genau wissen, wie man KI einsetzt, und wo sie einem helfen kann
 
  • Gefällt mir
Reaktionen: Rockstar85
Rockstar85 schrieb:
Nur das Open Ai halt kein Geld mit ChatGPT macht und Google wohl schon
Auch Google wird da Geld verbrennen. Mit dem Unterschied: Google macht in 3 quartalen soviel Gewinn, wie OpenAI seit Anbeginn verbrannt hat. Die haben noch für 1,4 Billionen offene Aufträge in den Büchern und negativen Cashflow. Keine Ahnung, wie lange sich die Investoren das noch angucken.
Woanders ist es nicht anders. XAI verbrennt 1 Mrd im Monat.
Ergänzung ()

Cool Master schrieb:
Das soll aber nur Übergang sein, kein dauerhafter Zustand.
Es glaubt doch keiner, dass bei Apple da jemals noch was kommt.
 
Zuletzt bearbeitet: (Nicht 2,4 Billionen, war ein typo)
Alphanerd schrieb:
Auch Google wird da Geld verbrennen. Mit dem Unterschied: Google macht in 3 quartalen soviel Gewinn, wie OpenAI seit Anbeginn verbrannt hat.
Stimmt schon. Und Google ist die nötige Infrastruktur. Ich sagte auch mehrfach, dass ich in AI keine Tulpenzwiebeln sehe, wohl aber eine völlig überdimensionierte Tech Spekulations Bubble, wogegen die DotCom ein feuchter Flutschi ist.

Und die Markt-Kornsequenzen von Handy bis zum PC, werden wir alle noch spüren. Es fühlt sich derzeit nach einem Spielzeug für Milliardäre an, ohne einen echten Mehrwert zu liefern. Und diese AI Modelle arbeiten halt nach: garbage in -> garbage Out, ich sage dazu nur das halluzinieren.

In meinem Augen haben wir derzeit Goldrausch Stimmung und das ganze aufrecht gehalten durch Nvidia und Co. Ich möchte mir nicht die GPU Preise Ausmalen, wenn eine 5080Super nachher auch plattenweise nach Asien verkauft wird, weil es eben für generative AI reicht.


Die Videos von kurzgesagt und ultralativ sagen es sehr unmissverständlich: für uns Menschen reicht's halt ;)
Für meine berufliche Arbeit ist KI nicht nutzbar und unser AI Bot Werner in Teilen schlechter als die Datenbank suche nach Unterlagen, Normen oder Betriebsanleitungen. Daher suche ich auf die alte Tour und arbeite halt quellenkritisch.
Mir tun in Summe halt nur wir Spieler leid und der Impact auf den Konsolenmarkt wird ebenso heftig werden.
 
  • Gefällt mir
Reaktionen: Alphanerd
Zurück
Oben