News Copilot-Training: GitHub nimmt sich Daten der Nutzer per Opt-out

polyphase schrieb:
Liebe EU,
bitte macht eine Richtlinie, ein Gesetz, das Opt-Out verbietet und Opt-In zur Pflicht macht.
Damit ich nicht dauernd die News durchforsten und sowas abschalten muss.
Danke
Und am besten auch gleich für sämtliche Cookie Banner. Dann hätten wir zwei Fliegen mit einer Klappe geschlagen.
 
  • Gefällt mir
Reaktionen: GuckenWasGeht, trabifant, FLCL und eine weitere Person
12nebur27 schrieb:
Danke für die News. Da hab ich was worum ich mich kümmern muss.
Gestern schon gemacht. Ich soll die AI trainieren und gleichzeitig dafür zahlen?

Das ist für mich in dem ganzen Kontext mit das, was mich am meisten aufregt! Ich liefere die Daten zum Training und darf auch noch dafür zahlen! Für mich ist das ein Lose-Pay-Win, für GitHub ein Win-Win-Win. Etwas unausgeglichen. Wenn man hier wenigsten dann - wenn man zu stimmt - ein Goodie bekommt, okay.
argonfox schrieb:
Umzug zu Codeberg ist auch schnell gemacht:
Klar sind solche Umzüge schnell gemacht, allerdings auch mit „erheblichen“ Nachteilen verbunden, wenn du in einem Projekt früher oder später auf „Unterstützung“ setzt. Hier gilt quasi das WhatsApp-Problem.

Weder bei Gitlab noch Codeberg hast du die Menge an Entwicklern, UI-Designer und Co, wie auf GitHub. Dazu fehlt auch teilweise jede Sichtbarkeit, die einem Projekt helfen kann.

Große Projekte als auch weitgehend Soloprojekte können so einen gehen. Bist du groß genug, werden Entwickler die Folgen. Bist du alleine, ist es egal. Alle anderen haben mit massiven „Problemen“ zu kämpfen.

Komplizierte Lage.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 12nebur27 und polyphase
Privat344 schrieb:
Haben wohl gemerkt, dass die KI, die Microslop zum Vibe-Coding von Windows nutzt, zu beschissen ist, daher braucht die KI etwas Training, damit sich letztendlich User weniger beschweren.
/s
KI ist aus der Softwareentwicklung nicht mehr wegzudenken. Das hat nichts mit Vibe-Coding zu tun.
Als Senior-Softwareentwickler bist du eben mit ein paar Agenten mindestens 10x produktiver. Ist halt so. Keine Entwickler wird sich heutzutage noch durch 100.000 Zeilen Bestandscode quälen oder unendlich lange Logs selbst analysieren. Es sei denn, er ist masochistisch veranlagt.
 
  • Gefällt mir
Reaktionen: pseudopseudonym und TomH22
R4Z3R schrieb:
Du bist 2005 stehengeblieben.
Und du machst aus meiner kleinen sarkastischen Aussage gleich meinen kompletten Wissensstand. Das ML schon länger für solche Zwecke eingesetzt wird, ist mir bewusst und trotzdem ging es mir um den Unterschied zwischen „das Ganze wird entsprechend von jemanden der genug Hintergrundwissen hat geprüft“ und „jemand ballert es in einen KI Chat“.

Ich würde nie bezweifeln, dass man mit ML wissenschaftlich arbeiten kann. Das Problem in der aktuellen Zeit ist ja, dass es immer weniger getan wird. Kontrolle und Gründlichkeit geht dabei halt verloren.
Haldi schrieb:
Da WÜRDE ich dir gerne zustimmen wenn nicht ein Großteil der Wissenschaftlichen Arbeiten bereits mit KI geschrieben wurden....
Wie bereits geschrieben ging es mir mehr um den Unterschied wissenschaftliches Arbeiten (egal ob mit oder ohne KI) vs. jeder Dulli (und Arbeitgeber) denkt er könne durch einen kurzen Chat mit Herrn GPT alle Aufgaben ohne Wissen und Training erledigen.
 
ascer schrieb:
Hast du doch auch nicht...auf deinem System lokal läuft Copilot sowieso nicht und es ist auch nicht automatisch aktiv, du musst es schon konkret in deiner IDE aktivieren und nutzen. Und nur dann werden deine Daten ohne OptOut genutzt.

Das ist mir klar und das meinte ich anders.

Zum einen bemängelte ich, dass ich mich für das Training deren KI‑Systeme in keiner Weise verantwortlich fühle insofern müsste man mich fragen, ob ich überhaupt einwillige.

Ferner stellte ich einfach nur eines klar: dass ich den ganzen KI‑Scheiß ohnehin nicht benötige.

Inwiefern nun auf einem Copilot+ System Copilot nicht lokal läuft, keine Ahnung.
Ich würde ohnehin schauen, dass ich das Zeug so schnell wie möglich loswerde (deinstalliere, ggf. einfach das Binary lösche).
 
SheepShaver schrieb:
KI ist aus der Softwareentwicklung nicht mehr wegzudenken. Das hat nichts mit Vibe-Coding zu tun.
KI kann bei der Softwareentwicklung Fluch und Segen sein. Ich liebe auf der einen Seite in InteliJ die KI und manchmal HASSE ICH SIE!

Es gibt echt Momente, da schreib ich zwei Zeichen und drücke nur noch Tab und der gewünschte Codeblock ist in 99,99 % der Zeit passend und braucht in der Regel nur minimale Änderungen, weil er halt mal ein "kleiner" statt ein "größer" gemacht hat. Die eigentliche Intention hat die KI allerdings aus dem bisherigen Kontext super erfasst und damit quasi etwas, was mich 5 Minuten Tipp-Arbeit kostet - auf 30 Sekunden verkürzt.

Dann gibt es allerdings auch so Sachen, da flucht man regelrecht, weil davor die "algorithmische" Autovervollständigung DEUTLICH besser war. Wie oft mir die KI vollkommen falsche Namespaces und Co vorschlägt, geht auf keine Kuhhaut mehr. Selbst nach gefühlt nun 1000 Dateien, die im HAUPTNAMESPACE liegen, holt sich die KI Namespaces aus vollkommen schwachsinnigen Teilen von Abhängigkeiten DIE die sogar als Externe-Libraries gekennzeichnet sind. Es ist toll, dass die KI beim Programmieren erkennt, welche Abhängigkeit er gerade einbinden soll, gleichzeitig versagt sie bei so etwas simplem.
SheepShaver schrieb:
Als Senior-Softwareentwickler bist du eben mit ein paar Agenten mindestens 10x produktiver.
Auf jeden Fall, nur musst du für diese Produktivitätssteigeruing auch bereits um ein entsprechendes Wissen verfügen und dich mit den Vor- und Nachteilen der KI befassen, um auch wirklich dann die richtigen Entscheidungen zu treffen.

Wenn ich mir aktuell ansehe, was manche Kollegen - die alle absolut fachfremd sind - nun anstellen mit KI und Vibe-Coding - ist das auf der einen Seite für mich "entlastend" in 75 % der Fälle, nur in den anderen 25 % der Fälle habe ich deutlich mehr zutun, weil ich Sachen gerade biegen muss, weil da teilweise tiefgreifende Fehler dann sich summieren.

Das aktuell größte Problem ist, dass KI überwiegend von Menschen eingesetzt wird, die keine Ahnung haben und dann denken, sie haben dank der KI Ahnung.
 
  • Gefällt mir
Reaktionen: R4Z3R, TomH22 und MrNejo
aluis schrieb:
Das war doch der einzige Grund, warum Microsoft den Laden gekauft hat? 7,5 Milliarden waren ein richtiges Schnäppchen!
Och, ich kann mir schon vorstellen, dass ursprünglich vor allen Dingen Bedenken bei Microsoft bestanden, was passieren würde, wenn jemand sonst die Plattform kaufen würde. Der eigene Dev-Workflow wäre dann ja hin.

Dass sich das irgendwann auch für sie selbst auszahlen können würde, war dann das Sahnehäubchen.
 
  • Gefällt mir
Reaktionen: aluis
DevPandi schrieb:
Es ist toll, dass die KI beim Programmieren erkennt, welche Abhängigkeit er gerade einbinden soll, gleichzeitig versagt sie bei so etwas simplem.
Ich nutze mittlerweile viel GitHub CoPilot im Agent Modus, der Agent erstellt einen System Prompt in der Datei copilot-instructions.md, der man auch selber Anweisungen hinzufügen kann.
Das gilt aber nur für den Agent Chat, das autocomplete im Editor nutzt es nicht. Weil ich da auch immer sehr gemischte Ergebnisse bekomme, und ausserdem in VSCode manchmal kaum noch erkennbar ist, was jetzt gerade KI Vorschlag und existierender Code ist, schalte ich den Copilot im Editor meistens ab, und nutze lieber gezielt den Agent Prompt.
Das gilt übrigens auch für CoPilot in M365, die KI User Experience wird ja nicht umsonst manchmal mit dem „Karl Klammer“ verglichen.

DevPandi schrieb:
Für mich ist das ein Lose-Pay-Win, für GitHub ein Win-Win-Win. Etwas unausgeglichen. Wenn man hier wenigsten dann - wenn man zu stimmt - ein Goodie bekommt, okay.
Ich bin da noch unentschlossen. Der „Win“ ist ja, dass die KI besser wird.
Wenn z.B. die Daten ausgewertet werden, wann Du KI Output übernimmst und wann Du ihn verwirfst, dann kann man das sicher sinnvoll für zukünftiges Training verwenden.
 
Danke für den direkten Link zu den Einstellungen, ich habe es deaktiviert. Ich gehe den Wechsel nun aber endlich mal an, wobei das wohl nicht so einfach wird. Codeberg ist kein Freund von Private Repos, also werde ich hierfür erst einmal eine lokale Forgejo Instanz nutzen, wobei ich da noch Probleme mit bestimmten Runnern habe. Ich werde mir zudem CodeFloe anschauen. Das setzt ebenfalls auf Forgejo, aber ich brauche für ein paar Dinge Repos im Internet.

Hauptsache wech von die Amis ...
 
S.Evans schrieb:
Wenn solche "Features" veröffentlicht werden und Daten gesammelt werden, dann sollte es grundsätzlich Opt-In sein.
Deren Plattform, deren Regeln.
Git ist ja quelloffen, kann jeder der mag selber hosten
Ergänzung ()

polyphase schrieb:
Liebe EU,
bitte macht eine Richtlinie, ein Gesetz, das Opt-Out verbietet und Opt-In zur Pflicht macht.
Damit ich nicht dauernd die News durchforsten und sowas abschalten muss.
Danke
Die kesen hier nicht mit.
Es steht dir aber frei einen Abgeordneten anzuschreiben oder eine Petition zu starten.
 
GitLab ist im Grunde eine echte Alternative, welche auch recht gut funktioniert. Empfehlenswert, sofern man nichts mit MS möchte, allerdings kommt man nicht von GitHub weg, es fehlen einfach die zahlreichen Entwickler, so habe ich viele Projekte gesehen, die die Main Repo auf GitLab stellen, diese wiederum auf GitHub zusätzlich spiegeln, da dort mehr Support und Entwickler vorhanden sind. Etwas schade, aber was soll man machen? Verhält sich wie WhatsApp, denn die meisten werden nicht wechseln.
 
SheepShaver schrieb:
Als Senior-Softwareentwickler bist du eben mit ein paar Agenten mindestens 10x produktiver. Ist halt so.

Das einzige das halt so ist, ist das das nicht stimmt.

Aktuelle Untersuchungen zeigen eine effektive Leistungssteigerung von ca 25% in ganz spezifischen Szenarien bei den auch eine Qualitätsteigerung oder wenigstens ein Erhalt der Codequalität und Wartbarkeit Vorgaben war

Das wäre also 1.25x Produktiver/effizienter.

Überlege mal selber ganz kurz was 10x mal Effizienter bedeutet.

Ich habe sehr berechtigten Zweifel daran das du jetzt die Arbeit von 10 Manntagen an 1 schaffst.

Und wenn doch solltest du dringend überprüfen ob das was du da tust überhaupt diesen 1 wert ist


Ansonsten ist es wie mit Geschirrspülern:

 
  • Gefällt mir
Reaktionen: R4Z3R
DeusExMachina schrieb:
Aktuelle Untersuchungen zeigen eine effektive Leistungssteigerung von ca 25% in ganz spezifischen Szenarien bei den auch eine Qualitätsteigerung oder wenigstens ein Erhalt der Codequalität und Wartbarkeit Vorgaben war
Ich glaube die Leistungssteigerung kann extrem schwanken, und es kommt auch darauf an, was man misst. „Projektfortschritt“ wird sicher viel geringer sein (ein Projekt besteht ja nur zu einem überraschend kleinen Teil aus Coding) als ganz spezifische Tasks.

Ich habe kürzlich bei einem meiner Hobby Projekte mein selbstgebasteltes Python Test Framework (dass diesen Namen kaum verdiente…) durch pytest ersetzt, inklusive Aktualisierung aller readme files, Verbesserung diverser Tests (einige Tests waren nicht wirklich self-checking…). Das Projekt ist recht speziell, ein RISC-V Prozessor Core in MyHDL, eine Library die Hardwaredesign in Python ermöglicht, daher musste für die Verbesserung der Tests sogar RISC-V Assembler Code angepasst werden. Bei der Gelegenheit habe ich dann auch endlich eine GitHub Actions Pipeline realisiert. Ich hatte vorher noch nicht selber PyTest in eigenen Projekten verwendet.

Alles zusammen hat ungefähr 2 Tage Lead Time gehabt, wieviele Stunden von mir habe ich nicht genau gezählt, weil ich in der Zeit noch anderes zu tun hatte, aber ich schätze so 6-8. Keine Ahnung, wie lange es „zu Fuss“ gedauert hätte, aber sicher sehr viel mehr als 25% länger.

Selbstverständlich habe ich den Code reviewt, und der KI auch noch etliche Anweisungen zu Änderungen gegeben, wo mir Sachen stylisch nicht gefallen haben.
 
Ihr habt's gehört Leute. KI ist mehr oder weniger nutzlos, also kann euch doch egal sein ob mit den Daten trainiert wird.

/s
 
  • Gefällt mir
Reaktionen: R4Z3R
Jeder der fragt, meint, ob man was zu verbergen hätte, bitte ich mal für 30 Tage einen 24/7 live Stream zu machen, Duschen ohne Duschvorhang, natürlich unverpixelt, beim S.x, Toiletten Besuch etc. ;-)
 
@TomH22 Und was hat das mit der unrealistischen Aussage 10x Effizienter zu tun?

Anekdote ist nicht das Plural von Daten.

Und niemand bestreitet das richtig eingesetzt KI eine Hilfe sein kann. (Das sind aber schon ein paar zu viele Konjunktive für eine allgemeine Aussage)
 
Reichen etwa die Daten aus der Überwachung der Windowsnutzer nicht mehr aus? Schön die nächste Plattform an die Wand fahren...
 
Wenigstens haben sie 1 Monat vorher eine E-Mail gesendet und darüber informiert, inkl. Anleitung zur Abschaltung.
 
@DeusExMachina

Ich bin ja ein Freund der 50%-Methode, also Hälfte wahr, Hälfte übertrieben.

Da kommen wir auf fünf Mal effizienter. Ist das bei bestimmten Aufgaben, wie der Analyse, nicht drin?
Wie waren helfende Tools vor KI?

Ich bin kein Programmierer, aber bei bestimmten Aufgaben kann da doch schon ein Vielfaches an Zeit eingespart werden?
 
Zurück
Oben