Claude 4 Sitzungslimit obwohl PRO Version gekauft für 21 USD

Hallo @Uzer1510 habe ich mir auch schon mal überlegt. Einen Chatbot programmieren lassen von einer KI und dann einfach mit Openrouter verwenden. Aber ich muss Dir sagen CEREBRAS API KEY ist um einiges besser. 14000 Abfragen pro Tag. Fast keine Fehlermeldungen. Aber ist nur meine Meinung. ! Gruß Mike
 
  • Gefällt mir
Reaktionen: Uzer1510
Ggf. sich, wenn man denn Softwareentwicklung macht, auch Github Copilot anschauen, das hat zwar auch ziemlich viele Limits, aber zumindest via Copilot CLI mit den GPT Modellen reichen die Premium Requests die man bekommt relativ lange.
 
Jasmin83 schrieb:
Hab ich früher eine Woche an einer Fehlersuche in Matlab gesessen oder um ein Programm zu optimieren, geht das heute in wenigen Stunden, aber auch nur deshalb, weil ich mich mit Matlab halbwegs auskenne und weiß wie man halbwegs brauchbar zum Ergebnis relativ effektiv kommt, mit einer KI.
GLM 5.1 ist z.B. richtig richtig gut im Optimieren wäre für Dich vielleicht ein Blick dann wert wenn Du in dem Bereich öfters was machst - das geht WEIT über einfache Optimierung hinaus - wirklich sehr weit, inkl internem Benchmarking und optimiert ohne Userinput. Das ist wenn das Kontextfenster reicht echt ein gutes Optimierungstool was Laufzeit (oder Ram - das noch nich getestet) etc angeht.
 
Hallo wieder einmal ich, Ja, habe ich mir vor einiger Zeit ebenfalls angesehen Github Copliot. Die Integration und die Möglichkeiten sind durchaus interessant, gerade im Kontext von Softwareentwicklung.

Allerdings bin ich persönlich kein großer Fan von Modellen, die auf Credit-, Token- oder nutzungsbasierten Abrechnungssystemen beruhen. Ich bevorzuge transparente und planbare Preismodelle, bei denen man im Vorfeld klar abschätzen kann, welche Kosten entstehen, ohne ständig den Verbrauch im Blick behalten zu müssen.

Daher ist das für meinen Anwendungsfall aktuell eher weniger attraktiv auch wenn der technische Ansatz sicherlich seine Stärken hat. Oder hat sich das jetzt geändert bei Gitbuh Colpilot ? 10 Euro pro Monat wäre ja okay.

Gruß Mike
 
LogicFlux schrieb:
Allerdings bin ich persönlich kein großer Fan von Modellen, die auf Credit-, Token- oder nutzungsbasierten Abrechnungssystemen beruhen. Ich bevorzuge transparente und planbare Preismodelle, bei denen man im Vorfeld klar abschätzen kann, welche Kosten entstehen, ohne ständig den Verbrauch im Blick behalten zu müssen.

Du hast im Schnitt 10 Requests pro Tag, inkl. Wochenende. Ist das mehr oder weniger als du jetzt nutzen kannst?
Die Requestkosten sind transparent: Je nach Model kostet jede "Nachricht" zwischen 0x und 3x Requests.
Es sind zwar mittlerweile auch zusätzliche rate limits aktiv, aber die sind vergleichsweise viel, viel laxer.
Wenn du das "normal", nicht parallelisiert nutzt und auch mal ein paar Tage Pause hast, ist es fast wie eine Flatrate.
Vor allem liegt der höhere Tarif dann bei $40 und nicht bei 100 oder 200.
 
  • Gefällt mir
Reaktionen: Tornhoof
Ja ich finde feste Abomodelle zwar auch sinnvoller - aber gerade jetzt wo AI noch in der Anfangsphase ist macht das doch auch Spass mal andere Modelle schnell auszuprobieren.

Und es kommen doch immer mal wieder echt interessante Modelle raus. Auch wnen es keinen Risenspruing gibt manche sind doch interessant.

Und wie wiell man auch sonst rausfinden ob sich ein eigener lokaler AI Server lohnt von der Qualität - eifnach kaufen ist ja hmmm nicht so optimal wenn der dann nicht ausreichend tut.

Als nicht so extrem heavy user finde ich das openrouter Modell aktuell für mich ganz interessant.
 
LogicFlux schrieb:
Daher ist das für meinen Anwendungsfall aktuell eher weniger attraktiv auch wenn der technische Ansatz sicherlich seine Stärken hat. Oder hat sich das jetzt geändert bei Gitbuh Colpilot ? 10 Euro pro Monat wäre ja okay.
Du hast halt N Premium Requests, jeder Premium Request ist praktisch eine Eingabe von dir. Wenn du also in der Lage bist einen Prompt zu schreiben der alles für dich macht was du machen willst, dann kann ein einzelner Premium Request sehr lange reichen. Wenn du aber dauerhaft nachkorrigieren musst, dann summiert sich das schnell auf.

Einfaches Beispiel:
Du planst ein Software Feature, im Planmodus von Copilot CLI diskutierst du den Plan mit dem LLM durch, das benötigt sagen wir mal 10 Premium Requests, weil du ihm 9x Feedback geben musst. Den Plan umzusetzen, den er dann erzeugt hat im autopilot modus, benötigt dann z.b. 1 Premium Request.

Das angenommen mit GPT 5.4 xhigh, das hat einen Faktor von 1x. Claude Opus hat einen Faktor von 3x.

Wenn du mit copilot cli und GPT 5.4 in xhigh deine Probleme lösen kannst, dann reichen 300 Premium Requests, potentiell den ganzen Monat.

Aber auch Github ändert alle paar Tage ihre internen Limits und dann bekommt man Fehlermeldungen und muss ggf. auf ein anderes Modell umsteigen.

Das alles ist sehr im Flux aktuell.
 
Tornhoof schrieb:
Du planst ein Software Feature, im Planmodus von Copilot CLI diskutierst du den Plan mit dem LLM durch, das benötigt sagen wir mal 10 Premium Requests, weil du ihm 9x Feedback geben musst.
Fun fact: Gute/neue Models wie 5.4 benutzen im plan mode das ask-Tool für Präzisierungen. Antworten darüber (multiple choice, oft auch Freitext) kosten keine Requests. Also wenn man nicht erst das ganze Konzept entwickeln muss, reicht auch oft 1-2x Plan.
 
  • Gefällt mir
Reaktionen: Tornhoof
Uzer1510 schrieb:
GLM 5.1 ist z.B. richtig richtig gut im Optimieren wäre für Dich vielleicht ein Blick dann wert wenn Du in dem Bereich öfters was machst
probiere ich mal aus. Hatte auch schon das vergnügen mit gemini, war aber ein ähnlicher misserfolg wie chatgpt. das hauptproblem der meisten KI ist einerseits, das sie nicht auf Matlab 2024b trainiert sind und wenn doch, würfeln die auch gerne mal mit dem alten sessionbased dataaquisition von matlab hin und her, da war claude auch mit abstand am besten und hat vorallem nicht ständig vergessen worum es ging, wie chatgpt 5 eingaben später und fing dann noch das fantasieren an. Und das obwohl ich von vornherein nur den GUIDE Code auf AppDesigner nach Migration in Matlab 2024b überprüft und bereinigt haben wollte. an einem punkt hat mich das so genervt. und als dann das mit der us regierung raus kam, hab ich den sack zu gemacht und war vollständig zu claude gewechselt, inkl. pro abo
 
Ja klar AIs haben natürlich noch viele Grenzen aktuell - aber Versuchen ist ja immer mal wieder wert.

Aus China kommen inzwischen die ersten Modelle, die sich selber alleine aus ihrem Vorgänger optimieren - das halt schon cool und sollte dann auch den Prozess beschleunigen - meine das sind die MiniMax Modelle.

Mathlab ist natürlich schon eher weit oben was Komplexität angeht das könnte noch eine Weile dauern.
 
Uzer1510 schrieb:
Ich bin aktuell mal am Überlegen mal https://openrouter.ai/ zu nutzen also mit der Möglichkeit dann beliebig zu switchen - da ich eh immer am Überlegen bin ein lokales System zu kaufen (und sich das ja erst ab 256 Gbyte Unified lohnt) wäre für mich das sicher auch finanziell 100x sinnvoller :D
Kann ich erstmal so mitgehen, openrouter kannte ich noch nicht.
Gäbs bei openrouter die Möglichkeit "seine" Computetime zu teilen mit andren im Netzwerk, bekäme ich sogar als return obendrauf noch meinen eigenen "Aufwand" bezahlt, ähnlich wie mit bitcoin würde ich fast 100% mitgehen! Danke für den Tipp mit openrouter.ai !:)
 
Uzer1510 schrieb:
Und wie wiell man auch sonst rausfinden ob sich ein eigener lokaler AI Server lohnt von der Qualität - eifnach kaufen ist ja hmmm nicht so optimal wenn der dann nicht ausreichend tut.
Ja, lohnt sich, muss nicht so ein Monster sein wie bei uns, aber ein Mac Studio M4 Max mit 512GB Ram kannst du große LLM hosten und du kannst Un-Censoring machen (die politische Korrektheit) und Direct Preference Optimization (die KI erzählt dir keinen Roman dazu, sondern hier deine Antwort).

Des Weiteren hast du bei Cloud-Modellen ja immer da ein Problem, wenn viel los ist, hast du weniger Token zur Verfügung; bei einer eigenen hast du konstant deine Token für dich allein.
Ergänzung ()
 
Zuletzt bearbeitet:
Smockil schrieb:
Ja, lohnt sich, muss nicht so ein Monster sein wie bei uns, aber ein Mac Studio M4 Max mit 512GB Ram kannst du große LLM hosten und du kannst Un-Censoring machen (die politische Korrektheit) und Direct Preference Optimization (die KI erzählt dir keinen Roman dazu, sondern hier deine Antwort).
Hmmm Apple habe ich mir natürlich angeschaut - denke das macht jeder der über lokale AI nachdenkt - aber es gibt doch beim M4 Max nur max 128 und beim M3 Ultra max 256 (die 512er Variante wurde ja leider eingestellt) Ich denke du meinst den M3 Ultra 512 oder? also das immer noch absolute Biest für lokale AI. Das natürlich super wenn man sowas im Zugriff hat.

Glaube der ist zum Teil besser als das was "grosse" AI Server der Top Modelle an aktiven Paramtern pro User haben?

Zumindest in Deutschland ist die Auswahl leider etwas dünn geworden https://www.apple.com/de/mac-studio/

Dual DGX wäre halt eine Alternative aber Speicherdurchsatz beim DGX ist halt hmmmm :D und für so 8000 kann man halt auch super viel Credits kaufen.

Man kann halt schnell wechseln bei openrouter wenn was wo eng ist - für zumindest meine Aufgaben ist das fast egal welches der Top Modelle man nimmt - die China Modelle sind langsam auch top und selten so extrem überlaufen.

GLM 5.1 kann man meine ich runterladen - auch als 1.5 Tbyte full Modell :D echt nice
 
Zuletzt bearbeitet:
Uzer1510 schrieb:
Hmmm Apple habe ich mir natürlich angeschaut - denke das macht jeder der über lokale AI nachdenkt - aber es gibt doch beim M4 Max nur max 128 und beim M3 Ultra max 256 (die 512er Variante wurde ja leider eingestellt)

Zumindest in Deutschland?

https://www.apple.com/de/mac-studio/
Ohhh peinlich meinte natürlich den m3 Ultra 512 GB, selbst der Studio hier ist kein m4 oh gott wie peinlich
 
ist halt schade dass es den Ultra mit "nur" noch 256 gibt - Apple war - bzw ist bei denen die das Glück haben einen zu haben - bei lokaler AI mit dem 512er der König.
 
  • Gefällt mir
Reaktionen: Smockil
Uzer1510 schrieb:
Glaube der ist zum Teil besser als das was "grosse" AI Server der Top Modelle an aktiven Paramtern pro User haben?

Zumindest in Deutschland ist die Auswahl leider etwas dünn geworden https://www.apple.com/de/mac-studio/

Dual DGX wäre halt eine Alternative aber Speicherdurchsatz beim DGX ist halt hmmmm :D und für so 8000 kann man halt auch super viel Credits kaufen.

Man kann halt schnell wechseln bei openrouter wenn was wo eng ist - für zumindest meine Aufgaben ist das fast egal welches der Top Modelle man nimmt - die China Modelle sind langsam auch top und selten so extrem überlaufen.

Natürlich haben die mehr Leistung im Gesamtsystem. Je nach Abo hast du halt demnächst entsprechend zugeteilte Leistung. Bei einer lokalen LLM hast du halt immer exklusiv die Leistung für dich. Du kannst die LLM auf deine Bedürfnisse anpassen (alles, was du nicht brauchst, raus).

Was mich etwas beim Dual DGX abschrecken würde, ist der geringe RAM. Wären dann ja 256GB wird dann halt nichts mit FP8 bei einem großen Modell.
Ergänzung ()

Uzer1510 schrieb:
ist halt schade dass es den Ultra mit "nur" noch 256 gibt - Apple war - bzw ist bei denen die das Glück haben einen zu haben - bei lokaler AI mit dem 512er der König.

ja war auch verwundert, jetzt erinnere mich deswegen sind wir ja weg von Mac Studio und haben nur die arbeitsplätze damit ausgestattet.
 
Zurück
Oben