News Autonom Exploits entwickeln: Anthropics neues Modell ist so stark, dass es nicht veröffentlicht wird

calluna schrieb:
Viele benutzen die Worte Coder, Programmierer, Softwareentwickler … synonym.
Diese Begriffe sind nicht synonym. Es sagt in der Regel sehr viel über die Leute aus die das für synonym halten. Die Ausnahmen sind Leute mit einer genialen Intuition, aber die sind nicht so häufig.
calluna schrieb:
Gerald M. Weinberg benutzte diese Angabe durch all seine Bücher.

Es gab in den 60ern Messungen.

Gerald M. Weinberg war in ca 1000 Softwareprojekte involviert, und ich traue im durchaus zu das beurteilen zu können.

Das was ich selbst mitbekommen habe, gibt mir keinen Anlass diese Zahl zu bezweifeln.
calluna schrieb:
Eines der großen Probleme von Software, besonders im industriellen Umfeld, ist: dass sie nur ungenügend die Anforderungen erfüllt - darum geht es oft in der Literatur
"Nicht die Anforderung erfüllen" ist nichts sagend es gibt 1000 Wege die Anforderung nicht zu erfüllen.
calluna schrieb:
… und um Strategien für den Umgang mit den begrenzten kognitiven Fähigkeiten von Menschen.
Auch das ist nichts sagend. Es gibt 1000 Wege Menschen bei der Softwareerstellung zu unterstützen.
Ergänzung ()

swage schrieb:
Das ist alles schön und gut. Ja, es gibt einen positiven Aspekt. Augmentation. Leute die keine Software geschrieben haben (oder zu faul waren) können das jetzt.
Ja das ist ein ganz wichtiger Faktor, dass solche AI-Assistenten die Hürde senken. Du hast einen ganz wichtigen Punkt vergessen, keine Zeit dazu hatten.
swage schrieb:
Ja.
swage schrieb:
Das Problem an dem "gute Softwareentwickler steigern ihren Output" Szenario ist: um gut zu sein muss man seine Skills nutzen, das macht einen erst gut. Den produktiven Teil an die Ki auszusourcen auch wenn es schnell ist, auch wenn die Person einen immensen Wissensvorsprung hat kann aber nur ein Resultat erzielen: Verkümmerung des Skillsets das die Ki übernimmt.
Klingt irgendwie nach Real Programmers Don`t Use Pascal".
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Diese Begriffe sind nicht synonym.

Das sind keine Fachbegriffe und es gibt keine einheitliche Definition. (Zumal die meisten ohnehin die programmierenden Fachexperten wie Naturwissenschaftler und Ingenieure ausblenden…)

Was sagt es denn über die Leute aus? Die meisten Menschen interessiert es nicht. Und ich rede dabei jetzt von Menschen aus dem beruflichen Umfeld …

Und wo hat Gerald M. Weinberg diesen Faktor als belastbare empirische Aussage dargestellt? Seine Arbeiten basieren auf qualitativen Beobachtungen.

PS: ich bestreite nicht, dass es da große Unterschiede gibt zwischen der Leistungsfähigkeit von Menschen… aber selten ist das sinnvoll messbar.

Besonders mit KI ist da gerne von x10, x100, x1000 die Rede… ohne dass klar ist, was das bedeuten soll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kuristina
Der Witz hat noch eine weitere Pointe.

Ein User im Heise-Forum fasst es gut zusammen:
Was für ein Glück, dass

Anthropic als erstes diesen Stand erreicht hat:

Was wären die Folgen, wenn es anders gewesen wäre?
OpenAI => ausschließlich die US-Regierung bekommt es und hackt alles, was nicht bei 3 auf den Bäumen ist...
Grok => Elon ruft "free speech" und gibt es sofort für alle frei...
Gemini => Google baut es in alles ein, was sie haben und hackt sich selber...

Keine Ahnung, ich glaube was Anthropic da macht ist mehr als Marketing und eine wirklich gute Idee.
 
Zuletzt bearbeitet:
Na ja, dieser User vermutet aber auch nur, dass die anderen nicht so weit sind. Nur... woran macht er das fest? Prinzip Hoffnung. Nachvollziehbar, aber nicht hilfreich auf der Suche nach Fakten. Weil andere nicht darüber reden, bedeutet nicht, dass sie nicht ein ähnliches Niveau erreicht haben. Insbesondere gilt das für "nicht kommerzielle Einrichtungen" diverser Regierungen.

Der Use Case, KI zur Schwachstellen- und Angriffs-Vektoren-Analyse einzusetzen liegt auf der Hand. Der Rest ist Ressourcen-Allokation und Fokussierung.

Ich bleibe eher dabei, wenn es Anthropic kann, können es andere auch.
 
  • Gefällt mir
Reaktionen: Sinush und Kuristina
Vigilant schrieb:
Na ja, dieser User vermutet aber auch nur, dass die anderen nicht so weit sind. Nur... woran macht er das fest? Prinzip Hoffnung. Nachvollziehbar, aber nicht hilfreich auf der Suche nach Fakten. Weil andere nicht darüber reden, bedeutet nicht, dass sie nicht ein ähnliches Niveau erreicht haben.
Es ist aber sehr stark anzunehmen. Denn AI ist derzeit ein Rattenrennen. Alle großen genannten Firmen gehen davon aus, dass irgendwann einer "gewinnen" wird und alle anderen obsolet macht. Deshalb investieren sie enorme Summen, um der eine Sieger zu sein. Entweder gewinnen sie, oder gehen pleite. Und wenn es danach aussieht, als ob jemand anders gewinnt, dann ist das existenzbedrohend.

Niemand kann es sich leisten, einen solchen Schritt nach vorne zu verschweigen, denn es geht dabei um viele Milliarden Investorengelder.
 
Möglich, aber ich teile diese Ansicht nicht. Weil wir schlicht nicht wissen, was in den Unternehmensführungen warum entschieden wird.

OpenAI könnte sich jetzt denken: "Schön Anthropic, aber wir arbeiten in diesem Sektor schon mit dem US-Militär zusammen". Oder China: "Ach, seid ihr auch endlich soweit?"

Spekulativ? Sicher. Aber in diesem Kontext neige ich dazu vom Worst Case auszugehen.

Positiv an Anthropics "Outing" ist, dass das generelle Bewusstsein für diese Aspekte geschärft und in die Öffentlichkeit getragen wird. In diesem Kontext wäre es dann weniger ein "Schaut mal, was wir draufhaben", sondern auch ein "Seid vorsichtig! Das Zeug hat auch hohes Schadenspotential."

Mir gefällt die Analogie, dass hier Kinder mit einem Chemiebaukasten herumspielen, der für Erwachsene gedacht ist. Leider ist die Anzahl verantwortungsbewusster Erwachsener in weitreichenden Entscheidungspositionen anscheinend rückläufig.

https://www.computerbase.de/news/ap...quenzen-von-modellen-wie-claude-mythos.96853/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stefan92x und Sinush
Vigilant schrieb:
Ich bleibe eher dabei, wenn es Anthropic kann, können es andere auch.
Prinzipiell hast Du recht.

Aber die eine Frage ist, wann können sie "es". Hier hat OpenAI den Vorteil mit ChatGPT den Vorteil der erste gewesen zu sein und bezieht seit Jahren sehr viel Momentum daraus.

Die andere Frage ist auf welches Featureset wurde "es" optimiert. Was ich mitbekomme hat Athropic was Code generieren angeht schon seit einiger Zeit einen sehr guten Ruf.

Anthropic hat mit mit Claude-Code auf Basis von Opus 4.5/4.6 ein brutales Momentum bei den Softwarentwicklern.

Allerdings hat Anthropic sich zu wenig Rechenkapazität gesichert. so dass seit März viele Klagen zirkulieren, Claude-Code wäre zu langsam geworden.

Hinzu kommt so etwas verstörendes wie das:
https://github.com/anthropics/claude-code/issues/42796

Was man so hört ist OpenAI Codex auf Basis GPT 5.4 sehr gut.
 

Hatten wir des schon?
 
  • Gefällt mir
Reaktionen: Azdak und Sinush

Hm so spanned ist das nicht wenn man genauer draufschaut

Eigentlich ist es sogar ziemlich junky


Das heißt nicht das solches Testing nicht sinnvoll ist und noch verbessert wird bis es wirklich sinnvoll ist. Und das wird auf die eine oder andere Weise kommen (dafür wird man dann wahrscheinlich auch keine LLMs brauchen und kann es lokal in der IDE laufen lassen).

Aber Mythos ist ein passender gewählter Name als ursprünglich gedacht
 
  • Gefällt mir
Reaktionen: Sinush
Spannender fänd ich mal eine Stimme von "innen" zu hören, also außer Anthropic - die aus naheliegenden Gründen ihr Produkt natürlich gut dastehen lassen wollen - eine der 40 an Project Glasswing beteiligten Unternehmen. Sind die eher so:

1775987928115.png


oder eher so:

1775988045998.png


Denn alles andere wird eigentlich schon im ersten Video direkt zu Anfang sinngemäß gut gesagt:
"Wir haben keinen Einblick, wir stehen außen vor, wir können nur anhand der bekannten Informationen spekulieren."
 
Wenn interessiert es was irgendwelche YouTuber herum labern?
Sinush schrieb:
Denn alles andere wird eigentlich schon im ersten Video direkt zu Anfang sinngemäß gut gesagt:
"Wir haben keinen Einblick, wir stehen außen vor, wir können nur anhand der bekannten Informationen spekulieren."
Und dann labbern die über etwas von dem sie nichts wissen über 20 Minuten?

Was ich schon in Beitrag #107 geschrieben habe, Anthropic hat es verbockt und sich zu wenig Rechenkapazität besorgt. Seit Mitte März gibt es viele Beschwerden das Claude Code sehr langsam geworden ist.

Natürlich kann Anthropic kein Modell das mehr Rechenkapazität benötigt aktuell breit verfügbar machen.

Viel schlimmer für Anthropic ist, dass viele User über eine Regression von Claude Code klagen. Siehe z. B. den Link in Git aus #107 . Tenor der klagen Claude Code ist aktuell nicht mehr für komplexe Aufgaben zu gebrauchen. Über die Performance von Anfang Januar waren alle begeistert und haben zum Teil ihre Workflows umgestellt. Die nun nicht mehr funkltionieren weil Claude Code inzwischen zu schlechte Ergebnisse liefert.
 
Zurück
Oben