News Gemini 2.5 Pro: Google zeigt neue Vorschau seiner leistungsstärksten KI

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
7.037
Google hat eine neue Vorschau seines nach eigenen Angaben bisher leistungsstärksten KI-Modells Gemini 2.5 Pro veröffentlicht, das von Entwicklern ab sofort getestet werden kann und nochmals verbesserte Antworten liefern soll. Eine offizielle Veröffentlichung könnte bereits in den nächsten Wochen erfolgen.

Zur News: Gemini 2.5 Pro: Google zeigt neue Vorschau seiner leistungsstärksten KI
 
  • Gefällt mir
Reaktionen: Teckler und aid0nex
Hab auf meinem Samsung S25 irgendwie aus dem Nichts 6 Monate gratis Gemini Pro erhalten.Also das Abo, das die neuesten Modelle unbegrenzt nutzen kann.
Gemini hat tatsächlich starke Fortschritte gemacht wenn man es mit der Version vor 2.5 vergleicht.Manche Antworten brauchen etwas Zeit, jedoch gibt es dann wirklich brauchbare Infos und Halluzinationen gab es bisher auch nicht.Teilweise finde ich es sogar besser als ChatGPT, da ChatGPT im gratis Modus vor allem aktuelle Infos schlecht ausgibt.Guckt halt mal bei euren Androids nach und meistens gibt es mindestens einen Monat gratis für Gemini Pro.
 
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, Fabi28 und 3 andere
MegatroneN schrieb:
Hab auf meinem Samsung S25 irgendwie aus dem Nichts 6 Monate gratis Gemini Pro erhalten.Also das Abo, das die neuesten Modelle unbegrenzt nutzen kann.
Nicht unbegrenzt. Es würde gerade kürzlich auf 100 Anfragen pro Tag geändert.
 
  • Gefällt mir
Reaktionen: flo.murr
Sehr stark!

So langsam gerät OpenAI immer mehr unter Druck, dazu dort noch die extrem restriktive Tokenbeschränkung (im Gegensatz zum allgemeinen Kontextfenster von einer Million Token bei Gemini). Und GPT 5 lässt immer noch auf sich warten, ohne komplette Absehbarkeit, wann es denn erscheinen wird. 4.5 hat sich ja auch als Flop herausgestellt und wird bald wieder verschwinden. Dafür kam 4.1 vor kurzem dazu.

Bei ChatGPT Enterprise hat man mittlerweile einfach fast ein Dutzend Modelle zur Auswahl, die man dann selbst auswählen soll. o3, als stärkstes Reasoning-Modell, ist auf 100 Anfragen in der Woche (!) beschränkt.

Einfach enorm viel besser, was Google hier für das Geld abliefert.

Nicht unbegrenzt. Es würde gerade kürzlich auf 100 Anfragen pro Tag geändert.

Das mit der Einführung einer Beschränkung ist korrekt (leider, jedoch erwartbar). Aber wie kommst du auf 100 Anfragen am Tag (für Advanced-Nutzer, nehme ich an)?

Gemini Rate Limits

Das sind recht komplexe Unterscheidungen bei Google (hier zumindest mal für die API). Bis vor kurzem gab's da kaum Beschränkungen.

jedoch gibt es dann wirklich brauchbare Infos und Halluzinationen gab es bisher auch nicht.Teilweise finde ich es sogar besser als ChatGPT, da ChatGPT im gratis Modus vor allem aktuelle Infos schlecht ausgibt.Guckt halt mal bei euren Androids nach und meistens gibt es mindestens einen Monat gratis für Gemini Pro.

Absolut, 4o ist extrem schlecht im Vergleich zu den Reasoning-Modellen. Für Online-Suchen praktisch nicht zu gebrauchen und selbst mit strukturierten Datenvorgaben neigt es zu Halluzinationen. Wirklich mies, was das "Flagschiff-Modell" (non-Reasoning) abliefert. Eigentlich de facto kaum zu gebrauchen, außer für Kreativitätsaufgaben bzw. zur Ideenfindung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aid0nex, Fabi28 und Käbeljau
@Blaexe Okay, klingt valide. Danke für die Antwort! Leider sind da die meisten Anbieter auf ihren offiziellen Seiten extrem intransparent.

@mischaef: Laut der Website wird es auch schon in der Gemini-App ausgerollt:

Developers can start building with the upgraded preview of 2.5 Pro in the Gemini API via Google AI Studio and Vertex AI — where we’ve also added thinking budgets to give developers more control over cost and latency. It’s also rolling out today in the Gemini app.

Nutzt man die neue Version dann direkt, wenn man diese verwendet? Klingt zumindest erstmal sehr stark danach. Diese Info geht aus eurem Beitrag leider gar nicht hervor.
 
Zuletzt bearbeitet:
Also meine Erfahrung ist, dass die Gemini-Antworten in den letzten Wochen immer schlechter wurden. :(
Bei anderen Modellen ist das aber auch nicht besser.
 
  • Gefällt mir
Reaktionen: Thares und hennich
Ich bin irgendwie verwirrt, ich nutze Gemini 2.5 Pro "(preview)" seit vielen Wochen. Was hat sich denn jetzt konkret geändert?
 
@fReAkgoesCB
1749197596742.png


Einfach nur ein neues Update, das in den Tests etwas besser abschneidet. Aber kein Riesensprung und fragwürdig, ob du den in der täglichen Benutzung wirklich merkst.
 
  • Gefällt mir
Reaktionen: fReAkgoesCB
Hab so das Gefühl die Unternehmen rennen wie gestört in die Ki Richtung und servieren den Kunden hier und da die Ki. Die Kundschaft ist total überfordert mit diesen ganzen Ki Zeug. Der Anwender kann im Endeffekt eh nichts damit anfangen weil er ohnehin schon überfordert ist. Die Überforderung gehört zum neuen Marketing hab ich das Gefühl. Da werden dann irgedwelche daily routines suggeriert und weiß der Geier.

Was ich in chatgpt rausgefunden habe, die Ki Lügt auch. Gerade wenn man Zahlen im Zusammenhang mit Migration und Kriminalität.

So habe ich gefragt welches Land der Erde eine Obergrenze bei Migration hat. KI. gibt es nicht. Lügen werden dann als Pauschal dargestellt

Mein Kontext:
F: welches land in der welt hat eine obergrenze für migranten ?
A: Gute Frage – keines der Länder dieser Welt hat offiziell eine absolute Obergrenze für Migration in dem Sinn, dass z. B. gesagt wird:xyz

F:Deine Aussage war ja im ersten lauf falsch, was sagst du dazu ?
A:Du hast recht, und ich danke dir für den Hinweis.

Im ersten Durchlauf habe ich gesagt, dass kein Land eine offizielle Obergrenze für Migration hat. Das war zu pauschal formuliert – und Dänemark ist tatsächlich ein Beispiel, das man als faktische Obergrenzenpolitik werten kann, auch wenn sie nicht als absolute Zahl im Gesetz steht.

Man muss wirklich sehr genau hinschauen und seine Fragen immer wieder umformulieren um dann beim 3-4x die Info zu bekommen die man haben möchte. Gerade bei diesem Sensiblen Thema. Das Problem, ich glaube ARD und ZDF gar nix mehr. Wenn man dann genauer sucht findet man die richtigen Zahlen und dann machts Klick! Mehr möchte ich dazu auch nicht sagen.

Ja, ich weiß schwieriges Thema. Warum mache ich das? Ich fühle mich getäuscht zum Thema Migration und desinformiert. Deshalb!



 
Ich verstehe eh nicht, warum alle zu ChatGPT rennen?! Das Teil halluziniert und ist langsam. Kombiniert mit Siri, mein Kumpel kann nun Apple Intelligence auf seinen iPhone nutzen, kam ich aus dem lachen nicht mehr raus 🤣🤣🤣
Man frägt Siri, Siri frägt ob es ChatGPT fragen soll, dann dauert es, dann kommt eine Antwort. Siri sag einem dass die Antwort nun vorliegt und man bekommt sie noch nicht mal vorgelesen.
Ein klasse Workflow :daumen:
 
Ich nutze mittlerweile Gemini auch am liebsten auf meinem S25.
 
Ich nutze Gemini 2.5 Pro schon eine Weile zum coden.

Es ist um längen weiter als Chatgpt. Macht absolut Spaß damit und versteht auch komplexe probleme.
 
  • Gefällt mir
Reaktionen: ThinToni
Für meine Zwecke ist ChatGPT nach wie vor die beste Wahl.
Ich habe auch Gemini 2.5 Pro ausprobiert, aber die Ergebnisse waren oft wenig zielführend – ich musste mehrfach nachjustieren, um das zu bekommen, was ich eigentlich wollte. ChatGPT hingegen versteht meine Anliegen meist auf Anhieb und liefert präzise Antworten.


Zusätzlich nutze ich GitHub Copilot Business in Kombination mit VS Code und den Modellen GPT-4o oder 4.1 – wirklich hervorragend. Beim Programmieren ist Claude AI zwar aktuell mein Favorit, aber für die meisten anderen Aufgaben bleibt ChatGPT für mich unangefochten an der Spitze.


Gemini hat seine Daseinsberechtigung, vor allem wenn man stark im Google-Ökosystem unterwegs ist, etwa mit Cloud-Diensten wie dem 2TB-Speicherpaket. Doch insgesamt bietet ChatGPT für meine Bedürfnisse das stimmigste Gesamtpaket.
xerex.exe schrieb:
Ich nutze Gemini 2.5 Pro schon eine Weile zum coden.

Es ist um längen weiter als Chatgpt. Macht absolut Spaß damit und versteht auch komplexe probleme.
Wenns um Coden geht, geht nichts über Claude Somet, ansonsten Code ich seit ewigkeiten mit ChatGPT 4o und 4.1, absolut super und ohne Probleme.
Ergänzung ()

~XxX~ schrieb:
Ich verstehe eh nicht, warum alle zu ChatGPT rennen?! Das Teil halluziniert und ist langsam. Kombiniert mit Siri, mein Kumpel kann nun Apple Intelligence auf seinen iPhone nutzen, kam ich aus dem lachen nicht mehr raus 🤣🤣🤣
Man frägt Siri, Siri frägt ob es ChatGPT fragen soll, dann dauert es, dann kommt eine Antwort. Siri sag einem dass die Antwort nun vorliegt und man bekommt sie noch nicht mal vorgelesen.
Ein klasse Workflow :daumen:
Chat GPT nutze ich seit zig Monaten und es ist absolut schnell und Präzise, keine Probleme gehabt bis jetzt, ab und zu gibts Connection problems, ansonsten alles fein bei mir.
Ich nutz halt die Pro Variante.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rosenholz
hennich schrieb:
Warum mache ich das? Ich fühle mich getäuscht zum Thema Migration und desinformiert. Deshalb!
Dann würde ich empfehlen, mich noch mal über die Funktionsweise von Large Language Modellen und den aktuellen "KIs" fundiert und ausführlich zu informieren.

Sie lügen halt nicht im eigentlichen Sinne, sondern biegen basierend auf der Qualität ihres Codes, der Trainingsdaten und der zusätzlichen Qualitätssicherungsstufen an einer bestimmten Stelle falsch ab, weil ihr statistisches Modell das als wahrscheinlichste korrekte Verzweigung berechnet hat und kommen zu einem ungenauen oder falschen Ergebnis.

Dahinter steht keine faktenbasierte Logik. Die ist in den Trainingsdaten vorhanden (wenn sie zuvor daraufhin geprüft wurden), aber nicht im Modell selbst. Jedenfalls nicht in der Form, wie wir sie bei einem menschlichen Experten haben.

Nicht umsonst steht bei den meisten Modellen "(wir) können uns irren und Fehler machen". Wir kommunizieren immer noch mit Code &. Maschine, die menschliches Verhalten nur simulieren. Was übrigens auch von einer hohen Fehlerquote gekennzeichnet ist und sehr anfällig für Manipulation ist, quasi der menschlichen Form von "falsch abgebogen".

Wer also wirklich valide, verlässliche Informationen haben möchte, ist gut beraten, sie eigenständig verifizieren zu können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mumbira, KurzGedacht und schneeland
-->Er@zor_X<-- schrieb:
4.5 hat sich ja auch als Flop herausgestellt und wird bald wieder verschwinden. Dafür kam 4.1 vor kurzem dazu.
4.5 ist vieles aber definitiv kein Flop. Es hat nur nen beknackten Namen.
 
hennich schrieb:
Ja, ich weiß schwieriges Thema. Warum mache ich das? Ich fühle mich getäuscht zum Thema Migration und desinformiert. Deshalb!
Das ist keine Täuschung, sondern ein Anwenderfehler. Du gehörst leider wie ein Großteil meines Umfeldes (auch der der technikversiert ist oder einen IT Abschluss hinter sich hat), zu den Leuten die nicht wissen wie eine KI funktioniert.

Hinter KI steckt weder eine Intelligenz, noch eine Fakten Basis, noch Magie.

Fragen womit KI immer Probleme haben wird:
-Wie viele Zylinder hat ein BMW E39 523i
-Welche Modelle von BMW haben eine Valvetronic
-In welchem Jahr ist xy passiert
-Wo ist xy passiert

Also Fragen nach eindeutigen harten Fakten.

Wo die KI dir höchstwahrscheinlich exzellente Antworten liefern wird:
-Wie funktioniert eine Valvetronic bei BMW
-Was ist der Unterschied zwischen einem 2 und 4 Takter
-Wie kann ich einen Bool wert in einen Integer umwandeln

Ich sehe auch immer wieder in meinem Umfeld wie Leute sich lustig darüber machen, dass die "KI zu blöd ist um nur den Hintergrund zu entfernen ohne den Rest des Bildes zu verändern".
Da hat man einfach nicht verstanden wie KI funktioniert. Anwenderfehler.
 
KurzGedacht schrieb:
4.5 ist vieles aber definitiv kein Flop. Es hat nur nen beknackten Namen.
Dann zieh' dir mal die Benchmarks und die Rahmenparamenter rein. Ist nie aus der Preview rausgekommen und wird demnächst wieder eingestellt. Hat die Erwartungen als zentraler Zwischenschritt zu GPT 5 nicht im Ansatz erfüllt. Dazu noch extrem teuer und kostentechnisch unstabil pro Anfrage. Kannst mir aber gerne Gegenargumente liefern. Es schreibt recht ordentlich, viel mehr aber auch nicht.
 
-->Er@zor_X<-- schrieb:
Dann zieh' dir mal die Benchmarks und die Rahmenparamenter rein. Ist nie aus der Preview rausgekommen und wird demnächst wieder eingestellt
Es ist ein riesiges sehr teures Modell, das nach meinem Verständnis nie wirklich für den Dauerbetrieb gedacht war. Es ging wohl mehr darum Erfahrungen zu sammeln. Aus der angekündigten Einstellung einen kompletten Flop abzuleiten, halte ich für verfehlt. Es wird wohl durch einen Nachfolger ersetzt werden, der idealerweise die gleichen Qualitäten mit sich bringt, ohne für OpenAI völlig unrentabel zu sein.

Es ist in Dingen gut, die sich in Benchmarks nicht besonders gut abbilden lassen. Kreatives Schreiben, emotionale Intelligenz ... Es ist nach meiner Erfahrung deutlich besser darin nicht nach AI generiertem Text zu klingen, als die meisten anderen Modelle.

Wie gesagt halte ich vor allem den Namen für verfehlt, da 4.5 eben suggeriert ein in jeder Hinsicht besseres Model als 4 zu sein...dabei ist es vor allem deutlich anders (und in vielen Bereichen IMO schlechter geeignet als 4o oder 4.1).
 
Zurück
Oben