News Copilot-Training: GitHub nimmt sich Daten der Nutzer per Opt-out

@DeusExMachina
Ich will dir ja keine Unwissenheit unterstellen, aber ich basiere meine Behauptungen auf eigene Erfahrungen und so ziemlich jeden Dev in meinem Team.

Ich arbeite seit über einem Jahr produktiv mit KI-Agenten, nicht aus Tutorials oder Hype-Posts. Mehrere Agenten parallel, jeder mit eigenem Kontext, mit echten MCP-Integrationen in GitHub, Jira, Kibana etc. auf einer gewachsenen Enterprise-SaaS-Plattform, nicht Hello-World-Projekten. Keine Simpel-Tasks, sondern Security Hardening, Refactorings in komplexem Legacy-Code, neue Features quer durch den Stack, Debugging mit Produktionslogs. Nichts davon ist trivial. Während du hier meine Kompetenz in Frage stellst, laufen hier gerade mehrere Agenten gleichzeitig und arbeiten an 2-3 User Stories parallel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TomH22
DevPandi schrieb:
KI kann bei der Softwareentwicklung Fluch und Segen sein. Ich liebe auf der einen Seite in InteliJ die KI und manchmal HASSE ICH SIE!

Es gibt echt Momente, da schreib ich zwei Zeichen und drücke nur noch Tab und der gewünschte Codeblock ist in 99,99 % der Zeit passend und braucht in der Regel nur minimale Änderungen, weil er halt mal ein "kleiner" statt ein "größer" gemacht hat.
Wobei ich sagen muss, dass Copilot, das Intellij-Zeug usw eher Spielzeug sind im Vergleich zu dem, was gerade die großen Läden intern nutzen.
Das von dir beschriebene nutze ich privat, den krassen Kram beruflich beim AG. Das macht beim AG schon mehr Spaß.
 
  • Gefällt mir
Reaktionen: TomH22
douggy schrieb:
Ich bin kein Programmierer, aber bei bestimmten Aufgaben kann da doch schon ein Vielfaches an Zeit eingespart werden?
Nein, nie im Leben Faktor 5.
Wie schon von jemandem geschrieben, das sind Zahlen fern jeder Realität.

Bei Kleinen one-man Helferscripts kann man mal kurzzeitig auf so einen Faktor kommen.

Ansonsten nicht.
Ergänzung ()

SheepShaver schrieb:
Nichts davon ist trivial. Während du hier meine Kompetenz in Frage stellst, laufen hier gerade mehrere Agenten gleichzeitig und arbeiten an 2–3 User Stories parallel.
Nuja.

Es ist wie immer: wenn es so genau spezifiziert ist dass der Agent es kann, ist es auch für den menschlichen Dev ganz gut machbar.

Nur blöd dass die Arbeit halt in der spec steckte mit Diskussionen und Research.

Und warum nur 2-3? Warum nicht 100 und morgen für dieses Jahr fertig sein?
KI ermöglicht tatsächlich, (endlich) aus purer Rechenleistung und Speicher Produktivität zu steigern. Das skalierte bisher nicht.
Aber: die Baustellen bei großen Projekten sind Abstimmungen, Anforderungen, Legacy-Daten, Operations und die Entscheidung über wichtige Grundsätze (at least once etc) & Co.
 
Zuletzt bearbeitet:
@SheepShaver Und nichts davon glaube ich dir.

Von dem was du da erzählst habe ich vieles gesehen die letzten 2 Jahre und nichts hat seine Versprechen gehalten. Und so wie du es erzählst klingt es erstmal na buzzword bingo.

Und wenn es stimmen würde was du behauptest wärst du nicht hier sondern würdest dir überlegen ein größeres Boot zu kaufen um das Bargeld zu lagern.


douggy schrieb:
@DeusExMachina

Ich bin ja ein Freund der 50%-Methode, also Hälfte wahr, Hälfte übertrieben.

Da kommen wir auf fünf Mal effizienter. Ist das bei bestimmten Aufgaben, wie der Analyse, nicht drin?
Wie waren helfende Tools vor KI?

Ich bin kein Programmierer, aber bei bestimmten Aufgaben kann da doch schon ein Vielfaches an Zeit eingespart werden?

Sicher kann es das

Aber bisher gibt es ausser fantastischen Behauptungen und paar netten tech demos die bei einer echten Prüfung auseinander fallen keine echten Umsetzungen.

5x Schneller ist immer noch sehr unrealistisch in der Verallgemeinerung
In Einzelfällen klar

Hab selber schon sowas gemacht wo Prozesse durch automatisierung von mehrstündigen manuellen Schritten der User und ihrer Feedbackschleifen auf den Bruchteil einer Sekunde reduziert werden konnten.

Das hatte aber nichts mit KI zu tu sondern damit den Prozess zu verstehen.
In und Output klar zu definieren und das ganze Robust und selbstheilend abzubilden so das nur im Falle neuer Fehler eingegriffen werden muss.

Und dafür zu sorgen das die Automatisierung da eingebunden wird wo sie gebraucht wird.

Dafür braucht man aber keine Obscuren Agenten oder irgendwelchen snake oil chi chi.
 
  • Gefällt mir
Reaktionen: douggy, Animal Mother und Alphanerd
R4Z3R schrieb:
Nein, nie im Leben Faktor 5.
Wie schon von jemandem geschrieben, das sind Zahlen fern jeder Realität.
Wir haben zum Beispiel einen Agenten gebaut, der Issues reproduziert und dann noch diese fixen kann. Da wird aus ner Aufgabe über 1-2 Tage ein paar Tastendrücke und dann etwas Review (in der Wartezeit kann man was anderes arbeiten). Das ist mehr als Faktor 5 und das ist nicht das einzige in der Richtung bei uns.
 
  • Gefällt mir
Reaktionen: TomH22
DeusExMachina schrieb:
Und was hat das mit der unrealistischen Aussage 10x Effizienter zu tun?
Darauf habe ich mich garnicht bezogen. Sondern auf Dich:
DeusExMachina schrieb:
Aktuelle Untersuchungen zeigen eine effektive Leistungssteigerung von ca 25% in ganz spezifischen Szenarien
Deine nicht genannte Untersuchung in dem nicht genannten „spezifischen“ Szenario ist vermutlich nicht viel weniger anekdotisch als mein persönliches Beispiel. Ich habe auch nicht behauptet das mein Beispiel repräsentativ ist. Wieviel Gewinn KI auf den gesamten Software Lifecycle eines Produktes bringt, wird man erst nach einiger Zeit sehen. Da die Technik und auch ihre Anwendung neu sind, wird es mit Sicherheit auch Rückschläge und Enttäuschungen geben.

Aber KI in Form von LLMs und Agenten wird die Softwareentwicklung drastisch verändern, und zwar stärker als alles was es bisher gab.
 
Nö da kommt nicht mehr viel.
Aber man darf gespannt sein was danach kommt.

-----

In gewissen Rahmen sind solche Zahlen immer Anekdotisch

Hier aber ein Beispiel wo es 25% herum waren


Das Szenario ist aber wichtig zu beachten unter realen Bedingungen wäre es vermutlich weniger gewesen
 
frankyboy1967 schrieb:
Jeder der fragt, meint, ob man was zu verbergen hätte, bitte ich mal für 30 Tage einen 24/7 live Stream zu machen, Duschen ohne Duschvorhang, natürlich unverpixelt, beim S.x, Toiletten Besuch etc. ;-)
Man sollte nicht Äpfel mit Birnen vergleichen. Wenn ich z.B. die Daten eines sowieso öffentlich auf GitHub liegenden Repos mit öfffentlichen Commits für AI Training freigebe, teile ich nur meine Interaktionen mit dem Coding Agent, auch wann ich z.B. Vorschläge übernommen oder verworfen habe.
Es ist was anderes wenn es um KI Chats geht, in denen man z.B. Krankheiten oder Fragen zur Steuererklärung behandelt.
Hier geht es um Coding. Ich denke, jeder der KI Coding Agenten nutzt, sollte auch ein Interesse daran haben, dass sie besser werden.

R4Z3R schrieb:
Bei Kleinen one-man Helferscripts kann man mal kurzzeitig auf so einen Faktor kommen.
Bei Prototypen, Proof-of-concepts, bauen von Testcases, usw. auch. Und auch wenn das alles nicht Bestandteil des Kernprojektes ist, sind es auch Dinge die klassisch viel Zeit in Projekten fressen.
Ich habe mir z.B. kürzlich Coding mit zusätzlichen Logging Ausgaben angereichert um einem schwierig zu findenden Problem auf die Spur zu kommen. Nicht schwierig, aber normalerweise blöde Fleißarbeit, mit Format Strings, usw.
Coding besteht ja aus relativ vielen intellektuell nicht sehr anspruchsvollen aber trotzdem zeitintensiven Tätigketen. Manche davon bleiben auch gerne mal liegen, da sie niemanden Spaß machen.
Wenn die KI Entwicklern hier Arbeit abnimmt sind sie erstens motivierter und zweitens haben sie mehr Zeit für andere Aufgaben.

Klar davon, wird das Team nicht 5 mal schneller.

R4Z3R schrieb:
Nur blöd dass die Arbeit halt in der spec steckte mit Diskussionen und Research.
Auch in diesem Bereich kann ja KI schon helfen (Nicht in Diskussionen, aber in den anderen beiden Dingen).

R4Z3R schrieb:
Aber: die Baustellen bei großen Projekten sind Abstimmungen, Anforderungen, Legacy-Daten, Operations und die Entscheidung über wichtige Grundsätze (at least once etc) & Co.
Das bindet aber oft andere Kräfte als die Entwickler. Meine "Lebenserfahrung" als langjähriger Leiter einer Entwicklungsabteilung ist, dass es am Ende doch die simple Coding Kapazität das Bottleneck ist (auch weil Features dann doch länger in der Implementierung brauchen als gedacht).

Klar, mit Sicherheit wird der KI Hype den einen oder anderen Backlash bringen, z.B. Teams die ihren Code nicht mehr stabil bekommen, weil sie die Bugs, die die KI eingebaut hat, nicht mehr gefixt bekommen, da sie den Code nicht mehr verstehen, oder ähnliches.

Anderseits sehe ich eben auch Chancen. Es gibt z.B. jede Menge schwer wartbaren Legacy Code, den in der Vergangenheit deswegen niemand neu geschrieben hat, weil der Rewrite wirtschaftlich nicht vertretbar ist, und noch teurer als die Legacy Wartung ist. Wir haben z.B. im Unternehmen noch einiges an Delphi Code - die absolute Hölle. Aber selbst neuere Dinge sind schon Legacy, wie z.B. AngularJS (also "Angular 1") Code. Wir zahlen nicht wenig Geld an irgendwelche Firmen die Lifecycle Support für dieses und ähnliches Zeug anbieten.

Die Last die durch Legacy, Maintenance, Technical debt, usw. in Teams entsteht ist manchmal schwer zu quantifizieren, da sie überall "reinstreut". Hier sehe ich schon Möglichkeiten, dass KI diese Last reduzieren kann. Aber natürlich auch die Gefahr, dass wir in Zukunft dann mti "KI Debt" eine neue Bürde bekommen.
 
Das Dark Pattern Opt-Out als Default ist bedauerlich.

Man kann daraus natürlich auch jedes Mal ein Empörungsritual generieren. Das zieht gerade bei den großen Playern immer und garantiert verlässlich. Die Kleineren machen es zwar auch sehr häufig, da reicht es aber dann nicht für die große Welle.

Man kann allerdings auch einmal den Schalter umlegen. Glauben bzw. Vertrauen muss man so oder so.

Bei einem Punkt fehlt mir allerdings das Verständnis: Entweder ich mach etwas bedingungslos frei und öffentlich oder ich lasse es bleiben.
 
TomH22 schrieb:
Ich habe mir z.B. kürzlich Coding mit zusätzlichen Logging Ausgaben angereichert um einem schwierig zu findenden Problem auf die Spur zu kommen. Nicht schwierig, aber normalerweise blöde Fleißarbeit, mit Format Strings, usw.

Eigentlich nicht.
Entweder baust du das einmal als utility Modul
Und nutzt das immer wieder

Oder bindest eine vertrauenswürdige externe Abhängigkeit ein wo das andere gebaut haben.

Wenn du das immer wieder und wieder und wieder von Hand selbst machst dann bist bist du wirklich das was (oft unnötig abwertend) als coder bezeichnet wird.



Ansonsten hast du natürlich recht repetative stumpfe boiler Platte Aufgaben sollte man nicht immer selber machen.
Oft genug um sie zu verstehen aber dann ist auch gut.

Nur braucht man dafür keine KI Tools.
Diese Sachen können gute IDEs schon von Haus aus.

Wo KI toll wäre an anderen stellen.
Testplanung
Coverage Checks
Refaktoring oder dependency management

Aber das können die KI Tools bisher nicht.
Das sind bisher nur Stackoverflow Zitierhilfen in schlecht.

Das wäre tatsächlich ne interessante Funktion
Man schreibt was und die KI schaut ob ähnlicher Code bei anderen Projekten zu Fehlern geführt hat und schlägt tests vor

Aber das erfordert viel mehr Kontext bewusst sein als ein LLM technisch jemals erhalten könnte das ein Architektur Problem der LLMs
 
Termy schrieb:
Aber wenn sich selbst die Regierung zum Wohle der Pharmaunternehmen...ehrm, ich meine natürlich der Versicherten...für diese miese Taktik entscheidet, können wir da wohl leider lange drauf warten :freak:
Du meinst diese fragwürdige ePA, es war ein Skandal ich musste 8 mal widersprechen bis man es endlich akzeptiert hatte, 7 mal wurde es abgelehnt.
 
R4Z3R schrieb:
Nein, nie im Leben Faktor 5.
Doch
R4Z3R schrieb:
Es ist wie immer: wenn es so genau spezifiziert ist dass der Agent es kann, ist es auch für den menschlichen Dev ganz gut machbar.
Man sollte die KI nur etwas machen lassen, was man auch selber tun könnte (mit erheblich mehr Zeitaufwand). Ownership of Intent vs Ownership of Code.
R4Z3R schrieb:
Und warum nur 2-3? Warum nicht 100
Weil niemand blind einer KI vertrauen sollte. Natürlich gibt es Reviews, natürlich muss man Agenten überwachen und ab und an lenkend eingreifen. Das skaliert nicht unendlich. Früher oder später laugt das aus.
DeusExMachina schrieb:
@SheepShaver Und nichts davon glaube ich dir.

Von dem was du da erzählst habe ich vieles gesehen die letzten 2 Jahre und nichts hat seine Versprechen gehalten. Und so wie du es erzählst klingt es erstmal na buzzword bingo.
Glaub es eben nicht. Was machst du beruflich? Ich bin 20 Jahre in der Softwareentwicklung, habe in großen und kleinen Teams gearbeitet und sowohl in der Entwicklung, Betrieb und Sicherheit Schlüsselrollen eingenommen. Wir gehen von klar definierten US aus mit detaillierten Acceptance Criteria und klaren Richtlinien und Contracts. Niemand redet davon, der KI einfach zu sagen: Mach mal.
DeusExMachina schrieb:
Und wenn es stimmen würde was du behauptest wärst du nicht hier sondern würdest dir überlegen ein größeres Boot zu kaufen um das Bargeld zu lagern.
Was hat das eine mit dem anderen zu tun?
DeusExMachina schrieb:
Sicher kann es das

Aber bisher gibt es ausser fantastischen Behauptungen und paar netten tech demos die bei einer echten Prüfung auseinander fallen keine echten Umsetzungen.

5x Schneller ist immer noch sehr unrealistisch in der Verallgemeinerung
Beispiel Loganalyse. Aufwand halbe Stunde statt ganzer Tag. Codeflow-Analyse von komplexen verteilten Systemen: Zeiteinsparung vergleichbar.
Refactoring der kompletten Codebase, neue Testsuite auf Basis der Contracts aufbauen, Kubernetes-Deployments erstellen etc. Die Velocity der Teams ist bei uns seit Einführung von KI steil nach oben gegangen. Jeder Mitarbeiter hat als Persönliche Zielvereinbahrung das Einsetzen von KI wo immer es auch möglich ist.
P.S.: mein Arbeitgeber ist ein amerikanischer Konzern. KI wird dementsprechend sehr aggressiv gepusht. Über die Skepsis der Deutschen runzelt hier so mancher die Stirn. Ohne KI würde uns die Konkurrenz davonlaufen, das steht außer Frage. Ansonsten ermöglicht einem die KI sich einfach nur noch komplett dem Thema Softwaredesign zu widmen. Die Gruntwork, also das pure Coden, macht hier niemand mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TomH22
DeusExMachina schrieb:
Eigentlich nicht.
Entweder baust du das einmal als utility Modul
Und nutzt das immer wieder
Das "Utilty Modul" in diesem Fall hieß einfach "print", die Arbeit bestand darin an den richtigen Stellen die richtigen Dinge auszugeben, irgendein sophisticted Logging Tool hätte da nicht viel geändert.
Der Wert der KI bestand aber unter anderem auch darin, die richtigen Properties von relevanten Objekten abzufragen, es waren in diesem Fall Klassen mit denen ich mich nicht im Detail auskannte.

DeusExMachina schrieb:
Nur braucht man dafür keine KI Tools.
Diese Sachen können gute IDEs schon von Haus aus.
Das können IDE meist nur für die Libaries für die der Hersteller der IDE oder der Library was passendes gebaut hat.
Wenn ich einen Nischenprojekt wie MyHDL verwende, wird es das nicht geben. Das schöne ist, dass die KI meinen Code liest und die dort enthaltenen Patterns erstaunlich gut selbst erkennt.

DeusExMachina schrieb:
Aber das können die KI Tools bisher nicht.
Das sind bisher nur Stackoverflow Zitierhilfen in schlecht.
Du arbeitest glaube nicht wirklich mit aktuellen KI Modellen oder hast eine so negative Grundhaltung, dass Du einen starken BIAS auf Fehlleistungen (die des bei der KI fraglos gibt) hast.

Ich nutze seit es KI gibt, kein Stackoverflow mehr. Die KI gibt mir sehr viel öfter eine ziemlich gut auf meine Frage passende Lösung als dass ich bei Stackoverflow was überhaupt halbwegs richtiges finde. Denn Stackoverflow ist über die Jahre immer zugemüllter geworden, während KIs kontinuerlich besser wurden.

Klar, ab und zu gibt es mal einen Griff ins Klo, wie halluzinierte API Calls oder Kommandozeilenoptionen. Ja und, merkt man ja sofort...
Lustigerweise sind gerade halluzinierte API Calls häufig eine Hinweis, dass eine API unvollständig ist.
Ich habe schon oft gedacht: Ja geil, wäre toll wenn es diesen Call gäbe...

Natürlich habe ich auch schon genug Situationen erlebt, wo sich die KI komplett verläuft, oder z.B. bei Fehleranalysen wilde Theorien herbeifantasiert. Aber erstens merkt man das relativ schnell und zweitens haben mir sogar diese Antworten manchmal schon Denkansätze gegeben.

DeusExMachina schrieb:
Aber das erfordert viel mehr Kontext bewusst sein als ein LLM technisch jemals erhalten könnte das ein Architektur Problem der LLMs
Die letzten zwei Jahre haben mich gelehrt, das man mit Worten wie "jemals" und "niemals" im Zusammenhang mit LLMs vorsichtig sein sollte.

Gerade Kontextlängen sind massiv größer geworden und sofern man halbwegs vernünftig prompted und KI Aufgaben in sinnvolle Größen einteilt, ist der Kontext in meinen Augen selten ein Problem.
Ergänzung ()

SheepShaver schrieb:
Man sollte die KI nur etwas machen lassen, was man auch selber tun könnte (mit erheblich mehr Zeitaufwand).
Absolut. Genau um den Zeitaufwand geht es ja, ich glaube das verstehen viele der Kritiker hier nicht.

Wenn Du, wie Du sagst, 20 Jahre in der Entwicklung arbeitest, hast Du 18 Jahre alles ohne KI hinbekommen. Wenn ich meine ersten Steps als Jugendlicher mitzähle, bin ich sogar 40 Jahre dabei, und bin in jeder neuen Programmiersprache und Umgebung ins kalte Wasser gesprungen und war nach sehr kurzer Zeit hochproduktiv. Aber die unzähligen Lernkurven waren auch nervig und anstrengend. Genauso wie das eintippen von Boilerplate Code oder ähnlichem.

Ich bin, wenn ich es selber mache, meistens überdurchschnittlich schnell, 40 Jahre Erfahrung helfen. Aber KI ist schneller, ist nun mal so...

Die einzige Angst ist natürlich, dass meine eigenen Coding Fähigkeiten im Laufe der Zeit mit KI verkümmern. Aber dafür werden meine Prompting Fähigkeiten besser.
Aber vielleicht schreibt in 10 Jahren auch niemand mehr selber Code.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SheepShaver
Interessante Ausführungen.

Aber wie sieht es mit Nachhaltigkeit aus?
Wie werden Neulinge eingeführt?
Wie sieht es mit der Weiterentwicklung der eigenen Skills aus?
Wie sieht es mit der Qualität aus, wenn die x-te Iteration der KI-basierten Inhalte durch die KI durchgenudelt werden?

Es wird irgendwie alles der Effizienz untergeordnet.
 
Zurück
Oben