News AI-Chatbot Claude: Anthropic bietet Max-Abonnement für Vielnutzer

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
7.040
Anthropic reagiert auf die Kritik von Nutzern, die trotz eines Pro-Abonnements bei der Nutzung des AI-Chatbots schnell an das festgelegte Nutzungslimit stießen und anschließend eine Wartezeit in Kauf nehmen mussten, bevor sie Claude weiter nutzen konnten. Als Reaktion darauf hat das Unternehmen nun den Max-Tarif eingeführt.

Zur News: AI-Chatbot Claude: Anthropic bietet Max-Abonnement für Vielnutzer
 
  • Gefällt mir
Reaktionen: konkretor
Jaja, vorher wurde man schon geködert mit priorisierten Anfragen. Das ist jetzt wieder hinfällig und verschiebt sich Abo um Abo nach hinten.

Ich werde es nicht zahlen, könnte aber wetten dass da nach ein paar Wochen auch wieder Flaschenhals angesagt ist.
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: Heinz Doof und hennich
Ich mag Claude von allen LLM wirklich am meisten für meine Bedürfnisse. Co-Pilot und ChatGPT halluzinieren mir viel zu sehr und landen gern in "Mache A" (geht nicht) -> "Mache B" (geht auch nicht) -> "Mache A"-Loops, die einfach das Geld nicht wert sind, da sie mehr Zeit kosten als sparen. Aber das undurchsichtige Billing (von Anthropic) macht es echt schwer das im Unternehmen zu verargumentieren.

Claude funktioniert (wie gesagt für mich) viel besser (fühlt sich oftmals wirklich an wie ein Coding Buddy und nicht so strunzdoof wie Co-Pilot/ChatGPT), aber die Abrechnung ist schwierig: "x more then..." hilft halt auch keinem weiter. dass Claude Code API-Billing hat auch nicht.

Was man Anthropic zugute halten kann: sie versuchen halt verbrauchsabhängig abzurechnen (müssen vermutlich etwas nachhaltiger/kosteneffizienter sein als das "go big or die trying" von OpenAI/Microsoft), was aber halt im Entwicklungs-/Chatbot-Kontext extrem schwer zu ermitteln ist: "Hey Chef, es gibt jetzt Claude Code für IDE Integration" - "Cool, was kostet das im Monat?" - "Keine Ahnung, kommt auf die verbrauchten Token an" - "Magst du nicht lieber bei Co-Pilot bleiben?" - ":skull_alt:"
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Obvision, Sp3ll, sioh und eine weitere Person
Kunden: eure Tarife sind uns zu undurchsichtig und zu Limitierend.

Anthropic: Liebe Kunden wir haben euch gehört hier nehmt diese höher bepreisten Tarife mit dem x Fachen des vorher unklar limitierten Tarif.
Deal?
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: konkretor, Miguel14.05 und FrAGgi
cmi777 schrieb:
"Hey Chef, es gibt jetzt Claude Code für IDE Integration" - "Cool, was kostet das im Monat?" - "Keine Ahnung, kommt auf die verbrauchten Token an" - "Magst du nicht lieber bei Co-Pilot bleiben?" - ":skull_alt:"
Wir dürfen gar keine Integration verwenden, aus copy right Gründen, wenn dann muss das 100% lokal oder auf Firmen Servern laufen und für jeden Kunden komplett getrennt.
 
Wieso gibt es nicht Tiers wie:
Du kriegst x Queries/ Stunde, und sie stacken bis max. y Queries auf Vorrat.

Und dann:
S tier - 1 Queries/h + 5 Query stack
M tier - 4 Queries/h + 10 Query stack
L tuer - 8 Queries/h + 10 Query stack

mMn könnte auch nach Modellen differenzieren, aber keine Lust das aufzuschreiben. Wäre zumindest offensichtlich und transparent was man kriegt 🤷‍♂️

Ein Rabatt wenn man mehrere Modelle bucht wäre auch denkbar, und würde auch dem User zu denken geben an welches Modell die Query gehen soll.

Soweit nutze ich immer nur das fetteste Modell, das mir zur Verfügung steht, weil wieso nicht...
 
  • Gefällt mir
Reaktionen: cmi777
JustAnotherTux schrieb:
Wir dürfen gar keine Integration verwenden, aus copy right Gründen, wenn dann muss das 100% lokal oder auf Firmen Servern laufen und für jeden Kunden komplett getrennt.
Das ist noch mal ein weiteres Thema. Als (Firmen?)Kunde kannst du bei CoPilot/ChatGPT/Gemini zumindest ausschließen, dass deine eigene Daten zum Training genutzt werden. Keine Ahnung wie das bei Claude ist.

Aber egal ob Integration oder Chatbot (was mir auch reichen würde): es ist halt dumm, wenn du als Free-Kunde immer wieder in Limitierungen läufst und dann bei Pro nur liest "up to X times more" und das ganze von zig Parametern abhängig ist. Wie gesagt, ich glaube die Gründe bei Anthropic dafür zu erahnen, aber aus Kundensicht ist es halt verdammt blöd.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JustAnotherTux
cmi777 schrieb:
Als (Firmen?)Kunde kannst du bei CoPilot/ChatGPT/Gemini zumindest ausschließen, dass deine eigene Daten zum Training genutzt werden. Keine Ahnung wie das bei Claude ist.
Sobald Daten das Firmen Netzwerk verlassen und es keine Server in Deutschland sind dürfen wir es nicht und wir haben viele Kunden für welche wir im Auftrag Software Entwickeln daher muss das zudem von einander getrennt sein.

Daher kommt das bei uns wohl erst wenn es auf einem Server bei uns oder der SAP läuft oder so.
 
cmi777 schrieb:
Was man Anthropic zugute halten kann: sie versuchen halt verbrauchsabhängig abzurechnen (müssen vermutlich etwas nachhaltiger/kosteneffizienter sein als das "go big or die trying" von OpenAI/Microsoft), ...

Anthrophic spielt bei den Finanzen auch ganz vorne mit. 14 Milliarden $ in der letzten Finanzierungsrunde und dort sitzt vor allem Amazon (mehr als Google) und Google (min. 14% Anteil) mit ordentlichem Anteil mit drin. Auch soll Anthropic so wohl gute Preise bei AWS bekommen...

Facebook mit Llama und X mit Grok hat natürlich Persönlichkeiten im Hintergrund, die nach belieben investieren können, aber am Ende ist Anthropic auch in einer sehr guten Position.
 
Grok3 hat ja jetzt auch endlich die API freigegeben.

abacus.ai kann ich jedem nur empfehlen, da gibt's für 10$ Zugriff auf viele LLM



Screenshot_20250411-061444.Firefox.png.

Bis jetzt bin ich mit dem Limit klar gekommen. Die nutzen die API der Anbieter.
 
mir wird das alles zu unübersichtlich.

Habe mit openai pro rumgespielt, sowie mit perplexity. Aber so richtig warm werde ich mit keinem. ChatGPT wirkt natürlicher, aber diese A-B-A loops nerven wirklich, auch wenn man diese mit promting in den Griff bekommen kann.

Was erwarte ich eigentlich?
  • Vernünftige Onlinesuche
  • Deep Research nach bedarf
  • gute Integration in vscode (eher selten genutzt)

Habe den Überblick vollständig verloren :(
 
Ayo34 schrieb:
Facebook mit Llama und X mit Grok hat natürlich Persönlichkeiten im Hintergrund, die nach belieben investieren können, aber am Ende ist Anthropic auch in einer sehr guten Position.
Danke für den Einblick. Hatte ich nicht auf dem Schirm, dachte die sind eher ein Underdog, die finanziell sehr stark haushalten müssen (im Vergleich zu den anderen)
 
Zurück
Oben