Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsWindsurf: Anthropic soll Zugang zu Claude-KI-Modellen einschränken
Das ist halt das Problem, wenn 95% der KI-Produkte einfach nur die API irgendeines Anbieters anzapfen und dann scheinbar keine vernünftigen Verträge existieren bezüglich Verfügbarkeit, Fristen etc.
Dass Windsurf nach der Übernahme durch OpenAI früher oder später eh von allem außer ChatGPT weg gehen wird, ist für mich so gut wie sicher. Da ergibt Anthropics Move aus meiner Sicht absolut Sinn, wenn sie glauben, damit Schaden anrichten zu können.
Aber hey, wenn der Wert von Windsurf unabhängig vom verwendeten KI-Modell ist, ist das doch gar kein Problem. Oder?
Ja lol, sich von OpenAI teuer kaufen lassen und dann heulen, dass andere Anbieter die Tür zu machen. „Meine Handlungen haben Konsequenzen? Ach was…“, genau mein Humor
Aus meiner Sicht zeigt sich hier viel mehr die Gefahr, wenn eine Technologie nur von wenigen Unternehmen kontrolliert wird. Bei KI bilden sich gerade die selben unheiligen Technologiemonopole, die wir schon kennen. (GAFAM). Insb. die Begründung "Sicherheit" finde ich Scheinheilig. Sie bedeutet nichts anderes als "Wir können damit umgehen. Du aber nicht!". Wenn es um Sicherheit ginge, dann müssten diese Firmen reguliert werden. Werden sie aber nicht. Ergo ist es reine Machtpolitik.
Kleine Haarspalterei: Ich würde "KI-Code-Editor" umformulieren, so liest es sich sonst, als ob es um einen Editor für KI-Code handelt.
Conqi schrieb:
Das ist halt das Problem, wenn 95% der KI-Produkte einfach nur die API irgendeines Anbieters anzapfen und dann scheinbar keine vernünftigen Verträge existieren bezüglich Verfügbarkeit, Fristen etc.
Natürlich gibt es vernünftige Verträge; "Wir behalten uns das Recht vor, jederzeit alles machen zu können was wir wollen."
Ich glaube aber, dass sich das mit der Zeit einpendeln wird; Nach solchen News werden es sich andere Unternehmen zwei Mal überlegen, ob sie einen Service auf Claude aufbauen wollen. Da schneidet man sich schon ins eigene Fleisch, selbst wenn der aktuelle Dienst/die aktuelle Preisgestaltung der API nicht lohnend ist.
Azdak schrieb:
Aus meiner Sicht zeigt sich hier viel mehr die Gefahr, wenn eine Technologie nur von wenigen Unternehmen kontrolliert wird.
Meh, das ist nicht wirklich gegeben. Wir haben zwar ein paar Unternehmen die dominieren, aber wirklich kontrollieren tut den Markt keiner. ChatGPT, Gemini, Claude, dazu "offene" Modelle wie LLama und DeepSeek, und tausend Derivate frei im Netz.
Konsolidierung wird mit der Zeit sicherlich einsetzen, aber momentan haben wir eher die umgekehrte Entwicklung, wo die Anzahl Konkurrenten eher steigt als sinkt.
Sehe ich aus KI-API Nutzersicht nicht so dramatisch, da du jedes dieser LLM praktisch gleich ansprechen kannst, kannst du ja beliebig viele APIs integrieren und nach Bedarf jederzeit andere nutzen.
Keines der Modelle ist so überlegen, dass dessen Ausfall wirklich dramatisch wäre.
Mit Anthropic, OpenAI, xAI, Meta, Google usw hat man ja genug große Player am Markt die sich auch nicht mal eben gegenseitig schlucken werden.
Ich weiß nicht, ob ich OpenAI da so viel mehr trauen würde. Die werden ja zum Beispiel nicht tatenlos zusehen, sollte ein anderer Editor an Windsurf vorbeiziehen.
Bright0001 schrieb:
ChatGPT, Gemini, Claude, dazu "offene" Modelle wie LLama und DeepSeek, und tausend Derivate frei im Netz.
Wobei die Modelle zum selbst hosten wieder ungleich schwieriger zu hosten und zu skalieren sind als einfach Geld auf ChatGPT und Co. zu werfen. Außerdem bieten die neben reinen LLM-Fähigkeiten ja auch Bilderkennung, Bildgenerierung etc. Je nachdem was man braucht, ist das dann schon wieder komplex.
Ich sehe allerdings aktuell auch erstmal genug Big Player am Markt.
ich benutze hauptächlich Claude 4 über GitHub - mich hat sehr gefreut dass es direkt verfügbar war, aber selbst hier läuft es nicht immer rund - man bekommt einige Errors die auf Überlastung und andere Probleme hindeuten.
Claude ist tatsächlich besser als die anderen für Code. Der Abstand ist aber nicht sehr groß, und Claude macht die gleichen Fehler und hat die gleichen Schwächen wie die anderen bei diesen Aufgaben.
Ich weiß nicht, ob ich OpenAI da so viel mehr trauen würde. Die werden ja zum Beispiel nicht tatenlos zusehen, sollte ein anderer Editor an Windsurf vorbeiziehen.
Ne, auf gar keinen Fall - besonders in diesem Fall muss man ja auch an Copilot denken, wo Microsoft durchaus Eigeninteresse hat Konkurrenz zu behindern.
Der einzig vernünftige Weg ist imo den Service ungekoppelt zu entwerfen, sodass er generell mit allen relevanten APIs funktioniert, so wie es bspw. ein SillyTavern für Heimzwecke schon heute macht.
Conqi schrieb:
Wobei die Modelle zum selbst hosten wieder ungleich schwieriger zu hosten und zu skalieren sind als einfach Geld auf ChatGPT und Co. zu werfen. Außerdem bieten die neben reinen LLM-Fähigkeiten ja auch Bilderkennung, Bildgenerierung etc. Je nachdem was man braucht, ist das dann schon wieder komplex.
Naja, jemand anderen dafür zu bezahlen sich um die Infrastruktur zu kümmern ist immer einfacher als es selbst zu tun. Und ein Multimodales System aufzusetzen ist (zumindest für Entwickler) nicht so kompliziert, wie man vielleicht denkt - wenn ich das allein auf einem Heim-PC hinbekomme, dann bekommt man das mit 150 Mio. $ Investorengeld in der Tasche sicherlich auch gebacken.
Bisheriges Problem war da eher die Qualität: Freie Modelle waren vor noch nicht allzu langer Zeit weit weg von GPT4 und co. - was sich aber mittlerweile komplett geändert hat. LLama und Deepseek sind echte Alternativen, und da beißen sich bestimmt einige in den Hintern, dass sie sich nur auf große/etablierte Player konzentriert haben.
Bisheriges Problem war da eher die Qualität: Freie Modelle waren vor noch nicht allzu langer Zeit weit weg von GPT4 und co. - was sich aber mittlerweile komplett geändert hat. LLama und Deepseek sind echte Alternativen, und da beißen sich bestimmt einige in den Hintern, dass sie sich nur auf große/etablierte Player konzentriert haben.
Es kommt immer auf den UseCase auch an. Die freien Modelle sind (bis auf Deepseek) nachwievor recht weit hinterher. Klar nicht mehr weit weg von GPT4, aber das ist eben auch nicht mehr der Maßstab. Da reden wir von Claude 4, o3 und Gemini 2.5 pro bei den LLMs, vieleicht noch Grok. Das sehe ich also völlig anders als du.
Bitte nicht falsch verstehen, die Entwicklung der open-weights-Modelle geht auch stetig und schnell vorran und da geht auch einiges. Ich setze hier auch viel Hoffnung hinein. Aber wirklich Parole bieten können sie aktuell nicht (Spezialdomains mal außen vor).
Ich hoffe, du und @Conqi haben recht, die Entwicklung sieht für mich leider etwas anders aus. Den Rest wird die Geschichte beantworten.
@Azdak
DeepSeek-R1-0528 hat doch schon wieder mit o3 und gemini 2.5 Pro gleichgezogen....
Ich denke es gibt hier 2 Probleme:
Diverse Workflows sind auf Claude abgestimmt und einfach das Modell ändern funktioniert eben nicht so einfach. Jedes Model funktioniert etwas anders und eine andere Interpretation einer Aufgabe macht ganze Workflows kaputt.
Es geht auch um die Rechenzentrum-Kapazitäten. Ist ja nicht so, dass die Rechenzentren alle Kapazitäten frei haben. Und kurzfristig Ersatz bekommen ist sehr schwierig oder einiges teurer.
Abgesehen davon, bei Coding gilt Sonnet 4 und vor allem Opus 4 als am Besten und viele Coder lieben die Anthropic Modelle.
Der Krieg beginnt.
Kein KI Projekt ist profitabel(chatgpt vielleicht dieses Jahr)
Energie bedarf steigt täglich, immer weniger Investoren.
Weiterhin wird gehypt.
Die Preise werden massiv steigen in der nächsten Zeit wenn genug Abhängigkeit geschafft wurde.
Und die Menschheit verblödet zusehends.
Willkommen in der schönen neuen Welt, in der ein paar tec Unternehmen dir sagen was du tun musst. Dir News geben egal ob sie stimmen.
Wie sagte chatgpt so schön, willkommen im digitalen Feudalismus.
Gehörst du nicht zu "Adel" bist du nur "Sklave" bist du nicht mehr gebraucht wirst.
Unabhängigkeit ist das Schlagwort, Chance jetzt nutzen wo immer mehr kluge Köpfe die USA verlassen.
Gemeinsam als EU, schwierig mit dem rechten Deppen.
Zurück zu den Tugenden, den Denkern.
Erstmal locker durch die Hose atmen …
PS: In Potsdam arbeitet bereits eine Professorin aus der USA für KI. dH die Abwanderung hat längst begonnen. Das HPI baut parallel einen neuen Campus und Amazon will 8 Milliarden (!!!) in Cloud Infrastruktur in Brandenburg stecken. Deutschland ist ein langsames Schiff, aber es fährt… Und wenn es erstmal in Fahrt ist, stoppt das Schiff auch nicht mehr. (Siehe auch das Ziel bis 2030 die schlagkräftigste Truppe Europas zu haben… Alles das kostet unfassbar viel Zeit aber es passiert)