News Copilot-Training: GitHub nimmt sich Daten der Nutzer per Opt-out

@DeusExMachina
Ich will dir ja keine Unwissenheit unterstellen, aber ich basiere meine Behauptungen auf eigene Erfahrungen und so ziemlich jeden Dev in meinem Team.

Ich arbeite seit über einem Jahr produktiv mit KI-Agenten, nicht aus Tutorials oder Hype-Posts. Mehrere Agenten parallel, jeder mit eigenem Kontext, mit echten MCP-Integrationen in GitHub, Jira, Kibana etc. auf einer gewachsenen Enterprise-SaaS-Plattform, nicht Hello-World-Projekten. Keine Simpel-Tasks, sondern Security Hardening, Refactorings in komplexem Legacy-Code, neue Features quer durch den Stack, Debugging mit Produktionslogs. Nichts davon ist trivial. Während du hier meine Kompetenz in Frage stellst, laufen hier gerade mehrere Agenten gleichzeitig und arbeiten an 2-3 User Stories parallel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TomH22
DevPandi schrieb:
KI kann bei der Softwareentwicklung Fluch und Segen sein. Ich liebe auf der einen Seite in InteliJ die KI und manchmal HASSE ICH SIE!

Es gibt echt Momente, da schreib ich zwei Zeichen und drücke nur noch Tab und der gewünschte Codeblock ist in 99,99 % der Zeit passend und braucht in der Regel nur minimale Änderungen, weil er halt mal ein "kleiner" statt ein "größer" gemacht hat.
Wobei ich sagen muss, dass Copilot, das Intellij-Zeug usw eher Spielzeug sind im Vergleich zu dem, was gerade die großen Läden intern nutzen.
Das von dir beschriebene nutze ich privat, den krassen Kram beruflich beim AG. Das macht beim AG schon mehr Spaß.
 
  • Gefällt mir
Reaktionen: TomH22
douggy schrieb:
Ich bin kein Programmierer, aber bei bestimmten Aufgaben kann da doch schon ein Vielfaches an Zeit eingespart werden?
Nein, nie im Leben Faktor 5.
Wie schon von jemandem geschrieben, das sind Zahlen fern jeder Realität.

Bei Kleinen one-man Helferscripts kann man mal kurzzeitig auf so einen Faktor kommen.

Ansonsten nicht.
Ergänzung ()

SheepShaver schrieb:
Nichts davon ist trivial. Während du hier meine Kompetenz in Frage stellst, laufen hier gerade mehrere Agenten gleichzeitig und arbeiten an 2–3 User Stories parallel.
Nuja.

Es ist wie immer: wenn es so genau spezifiziert ist dass der Agent es kann, ist es auch für den menschlichen Dev ganz gut machbar.

Nur blöd dass die Arbeit halt in der spec steckte mit Diskussionen und Research.

Und warum nur 2-3? Warum nicht 100 und morgen für dieses Jahr fertig sein?
KI ermöglicht tatsächlich, (endlich) aus purer Rechenleistung und Speicher Produktivität zu steigern. Das skalierte bisher nicht.
Aber: die Baustellen bei großen Projekten sind Abstimmungen, Anforderungen, Legacy-Daten, Operations und die Entscheidung über wichtige Grundsätze (at least once etc) & Co.
 
Zuletzt bearbeitet:
@SheepShaver Und nichts davon glaube ich dir.

Von dem was du da erzählst habe ich vieles gesehen die letzten 2 Jahre und nichts hat seine Versprechen gehalten. Und so wie du es erzählst klingt es erstmal na buzzword bingo.

Und wenn es stimmen würde was du behauptest wärst du nicht hier sondern würdest dir überlegen ein größeres Boot zu kaufen um das Bargeld zu lagern.


douggy schrieb:
@DeusExMachina

Ich bin ja ein Freund der 50%-Methode, also Hälfte wahr, Hälfte übertrieben.

Da kommen wir auf fünf Mal effizienter. Ist das bei bestimmten Aufgaben, wie der Analyse, nicht drin?
Wie waren helfende Tools vor KI?

Ich bin kein Programmierer, aber bei bestimmten Aufgaben kann da doch schon ein Vielfaches an Zeit eingespart werden?

Sicher kann es das

Aber bisher gibt es ausser fantastischen Behauptungen und paar netten tech demos die bei einer echten Prüfung auseinander fallen keine echten Umsetzungen.

5x Schneller ist immer noch sehr unrealistisch in der Verallgemeinerung
In Einzelfällen klar

Hab selber schon sowas gemacht wo Prozesse durch automatisierung von mehrstündigen manuellen Schritten der User und ihrer Feedbackschleifen auf den Bruchteil einer Sekunde reduziert werden konnten.

Das hatte aber nichts mit KI zu tu sondern damit den Prozess zu verstehen.
In und Output klar zu definieren und das ganze Robust und selbstheilend abzubilden so das nur im Falle neuer Fehler eingegriffen werden muss.

Und dafür zu sorgen das die Automatisierung da eingebunden wird wo sie gebraucht wird.

Dafür braucht man aber keine Obscuren Agenten oder irgendwelchen snake oil chi chi.
 
  • Gefällt mir
Reaktionen: fan8324, douggy, Animal Mother und eine weitere Person
R4Z3R schrieb:
Nein, nie im Leben Faktor 5.
Wie schon von jemandem geschrieben, das sind Zahlen fern jeder Realität.
Wir haben zum Beispiel einen Agenten gebaut, der Issues reproduziert und dann noch diese fixen kann. Da wird aus ner Aufgabe über 1-2 Tage ein paar Tastendrücke und dann etwas Review (in der Wartezeit kann man was anderes arbeiten). Das ist mehr als Faktor 5 und das ist nicht das einzige in der Richtung bei uns.
 
  • Gefällt mir
Reaktionen: TomH22
DeusExMachina schrieb:
Und was hat das mit der unrealistischen Aussage 10x Effizienter zu tun?
Darauf habe ich mich garnicht bezogen. Sondern auf Dich:
DeusExMachina schrieb:
Aktuelle Untersuchungen zeigen eine effektive Leistungssteigerung von ca 25% in ganz spezifischen Szenarien
Deine nicht genannte Untersuchung in dem nicht genannten „spezifischen“ Szenario ist vermutlich nicht viel weniger anekdotisch als mein persönliches Beispiel. Ich habe auch nicht behauptet das mein Beispiel repräsentativ ist. Wieviel Gewinn KI auf den gesamten Software Lifecycle eines Produktes bringt, wird man erst nach einiger Zeit sehen. Da die Technik und auch ihre Anwendung neu sind, wird es mit Sicherheit auch Rückschläge und Enttäuschungen geben.

Aber KI in Form von LLMs und Agenten wird die Softwareentwicklung drastisch verändern, und zwar stärker als alles was es bisher gab.
 
Nö da kommt nicht mehr viel.
Aber man darf gespannt sein was danach kommt.

-----

In gewissen Rahmen sind solche Zahlen immer Anekdotisch

Hier aber ein Beispiel wo es 25% herum waren


Das Szenario ist aber wichtig zu beachten unter realen Bedingungen wäre es vermutlich weniger gewesen
 
frankyboy1967 schrieb:
Jeder der fragt, meint, ob man was zu verbergen hätte, bitte ich mal für 30 Tage einen 24/7 live Stream zu machen, Duschen ohne Duschvorhang, natürlich unverpixelt, beim S.x, Toiletten Besuch etc. ;-)
Man sollte nicht Äpfel mit Birnen vergleichen. Wenn ich z.B. die Daten eines sowieso öffentlich auf GitHub liegenden Repos mit öfffentlichen Commits für AI Training freigebe, teile ich nur meine Interaktionen mit dem Coding Agent, auch wann ich z.B. Vorschläge übernommen oder verworfen habe.
Es ist was anderes wenn es um KI Chats geht, in denen man z.B. Krankheiten oder Fragen zur Steuererklärung behandelt.
Hier geht es um Coding. Ich denke, jeder der KI Coding Agenten nutzt, sollte auch ein Interesse daran haben, dass sie besser werden.

R4Z3R schrieb:
Bei Kleinen one-man Helferscripts kann man mal kurzzeitig auf so einen Faktor kommen.
Bei Prototypen, Proof-of-concepts, bauen von Testcases, usw. auch. Und auch wenn das alles nicht Bestandteil des Kernprojektes ist, sind es auch Dinge die klassisch viel Zeit in Projekten fressen.
Ich habe mir z.B. kürzlich Coding mit zusätzlichen Logging Ausgaben angereichert um einem schwierig zu findenden Problem auf die Spur zu kommen. Nicht schwierig, aber normalerweise blöde Fleißarbeit, mit Format Strings, usw.
Coding besteht ja aus relativ vielen intellektuell nicht sehr anspruchsvollen aber trotzdem zeitintensiven Tätigketen. Manche davon bleiben auch gerne mal liegen, da sie niemanden Spaß machen.
Wenn die KI Entwicklern hier Arbeit abnimmt sind sie erstens motivierter und zweitens haben sie mehr Zeit für andere Aufgaben.

Klar davon, wird das Team nicht 5 mal schneller.

R4Z3R schrieb:
Nur blöd dass die Arbeit halt in der spec steckte mit Diskussionen und Research.
Auch in diesem Bereich kann ja KI schon helfen (Nicht in Diskussionen, aber in den anderen beiden Dingen).

R4Z3R schrieb:
Aber: die Baustellen bei großen Projekten sind Abstimmungen, Anforderungen, Legacy-Daten, Operations und die Entscheidung über wichtige Grundsätze (at least once etc) & Co.
Das bindet aber oft andere Kräfte als die Entwickler. Meine "Lebenserfahrung" als langjähriger Leiter einer Entwicklungsabteilung ist, dass es am Ende doch die simple Coding Kapazität das Bottleneck ist (auch weil Features dann doch länger in der Implementierung brauchen als gedacht).

Klar, mit Sicherheit wird der KI Hype den einen oder anderen Backlash bringen, z.B. Teams die ihren Code nicht mehr stabil bekommen, weil sie die Bugs, die die KI eingebaut hat, nicht mehr gefixt bekommen, da sie den Code nicht mehr verstehen, oder ähnliches.

Anderseits sehe ich eben auch Chancen. Es gibt z.B. jede Menge schwer wartbaren Legacy Code, den in der Vergangenheit deswegen niemand neu geschrieben hat, weil der Rewrite wirtschaftlich nicht vertretbar ist, und noch teurer als die Legacy Wartung ist. Wir haben z.B. im Unternehmen noch einiges an Delphi Code - die absolute Hölle. Aber selbst neuere Dinge sind schon Legacy, wie z.B. AngularJS (also "Angular 1") Code. Wir zahlen nicht wenig Geld an irgendwelche Firmen die Lifecycle Support für dieses und ähnliches Zeug anbieten.

Die Last die durch Legacy, Maintenance, Technical debt, usw. in Teams entsteht ist manchmal schwer zu quantifizieren, da sie überall "reinstreut". Hier sehe ich schon Möglichkeiten, dass KI diese Last reduzieren kann. Aber natürlich auch die Gefahr, dass wir in Zukunft dann mti "KI Debt" eine neue Bürde bekommen.
 
Das Dark Pattern Opt-Out als Default ist bedauerlich.

Man kann daraus natürlich auch jedes Mal ein Empörungsritual generieren. Das zieht gerade bei den großen Playern immer und garantiert verlässlich. Die Kleineren machen es zwar auch sehr häufig, da reicht es aber dann nicht für die große Welle.

Man kann allerdings auch einmal den Schalter umlegen. Glauben bzw. Vertrauen muss man so oder so.

Bei einem Punkt fehlt mir allerdings das Verständnis: Entweder ich mach etwas bedingungslos frei und öffentlich oder ich lasse es bleiben.
 
TomH22 schrieb:
Ich habe mir z.B. kürzlich Coding mit zusätzlichen Logging Ausgaben angereichert um einem schwierig zu findenden Problem auf die Spur zu kommen. Nicht schwierig, aber normalerweise blöde Fleißarbeit, mit Format Strings, usw.

Eigentlich nicht.
Entweder baust du das einmal als utility Modul
Und nutzt das immer wieder

Oder bindest eine vertrauenswürdige externe Abhängigkeit ein wo das andere gebaut haben.

Wenn du das immer wieder und wieder und wieder von Hand selbst machst dann bist bist du wirklich das was (oft unnötig abwertend) als coder bezeichnet wird.



Ansonsten hast du natürlich recht repetative stumpfe boiler Platte Aufgaben sollte man nicht immer selber machen.
Oft genug um sie zu verstehen aber dann ist auch gut.

Nur braucht man dafür keine KI Tools.
Diese Sachen können gute IDEs schon von Haus aus.

Wo KI toll wäre an anderen stellen.
Testplanung
Coverage Checks
Refaktoring oder dependency management

Aber das können die KI Tools bisher nicht.
Das sind bisher nur Stackoverflow Zitierhilfen in schlecht.

Das wäre tatsächlich ne interessante Funktion
Man schreibt was und die KI schaut ob ähnlicher Code bei anderen Projekten zu Fehlern geführt hat und schlägt tests vor

Aber das erfordert viel mehr Kontext bewusst sein als ein LLM technisch jemals erhalten könnte das ein Architektur Problem der LLMs
 
Termy schrieb:
Aber wenn sich selbst die Regierung zum Wohle der Pharmaunternehmen...ehrm, ich meine natürlich der Versicherten...für diese miese Taktik entscheidet, können wir da wohl leider lange drauf warten :freak:
Du meinst diese fragwürdige ePA, es war ein Skandal ich musste 8 mal widersprechen bis man es endlich akzeptiert hatte, 7 mal wurde es abgelehnt.
 
R4Z3R schrieb:
Nein, nie im Leben Faktor 5.
Doch
R4Z3R schrieb:
Es ist wie immer: wenn es so genau spezifiziert ist dass der Agent es kann, ist es auch für den menschlichen Dev ganz gut machbar.
Man sollte die KI nur etwas machen lassen, was man auch selber tun könnte (mit erheblich mehr Zeitaufwand). Ownership of Intent vs Ownership of Code.
R4Z3R schrieb:
Und warum nur 2-3? Warum nicht 100
Weil niemand blind einer KI vertrauen sollte. Natürlich gibt es Reviews, natürlich muss man Agenten überwachen und ab und an lenkend eingreifen. Das skaliert nicht unendlich. Früher oder später laugt das aus.
DeusExMachina schrieb:
@SheepShaver Und nichts davon glaube ich dir.

Von dem was du da erzählst habe ich vieles gesehen die letzten 2 Jahre und nichts hat seine Versprechen gehalten. Und so wie du es erzählst klingt es erstmal na buzzword bingo.
Glaub es eben nicht. Was machst du beruflich? Ich bin 20 Jahre in der Softwareentwicklung, habe in großen und kleinen Teams gearbeitet und sowohl in der Entwicklung, Betrieb und Sicherheit Schlüsselrollen eingenommen. Wir gehen von klar definierten US aus mit detaillierten Acceptance Criteria und klaren Richtlinien und Contracts. Niemand redet davon, der KI einfach zu sagen: Mach mal.
DeusExMachina schrieb:
Und wenn es stimmen würde was du behauptest wärst du nicht hier sondern würdest dir überlegen ein größeres Boot zu kaufen um das Bargeld zu lagern.
Was hat das eine mit dem anderen zu tun?
DeusExMachina schrieb:
Sicher kann es das

Aber bisher gibt es ausser fantastischen Behauptungen und paar netten tech demos die bei einer echten Prüfung auseinander fallen keine echten Umsetzungen.

5x Schneller ist immer noch sehr unrealistisch in der Verallgemeinerung
Beispiel Loganalyse. Aufwand halbe Stunde statt ganzer Tag. Codeflow-Analyse von komplexen verteilten Systemen: Zeiteinsparung vergleichbar.
Refactoring der kompletten Codebase, neue Testsuite auf Basis der Contracts aufbauen, Kubernetes-Deployments erstellen etc. Die Velocity der Teams ist bei uns seit Einführung von KI steil nach oben gegangen. Jeder Mitarbeiter hat als Persönliche Zielvereinbahrung das Einsetzen von KI wo immer es auch möglich ist.
P.S.: mein Arbeitgeber ist ein amerikanischer Konzern. KI wird dementsprechend sehr aggressiv gepusht. Über die Skepsis der Deutschen runzelt hier so mancher die Stirn. Ohne KI würde uns die Konkurrenz davonlaufen, das steht außer Frage. Ansonsten ermöglicht einem die KI sich einfach nur noch komplett dem Thema Softwaredesign zu widmen. Die Gruntwork, also das pure Coden, macht hier niemand mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TomH22
DeusExMachina schrieb:
Eigentlich nicht.
Entweder baust du das einmal als utility Modul
Und nutzt das immer wieder
Das "Utilty Modul" in diesem Fall hieß einfach "print", die Arbeit bestand darin an den richtigen Stellen die richtigen Dinge auszugeben, irgendein sophisticted Logging Tool hätte da nicht viel geändert.
Der Wert der KI bestand aber unter anderem auch darin, die richtigen Properties von relevanten Objekten abzufragen, es waren in diesem Fall Klassen mit denen ich mich nicht im Detail auskannte.

DeusExMachina schrieb:
Nur braucht man dafür keine KI Tools.
Diese Sachen können gute IDEs schon von Haus aus.
Das können IDE meist nur für die Libaries für die der Hersteller der IDE oder der Library was passendes gebaut hat.
Wenn ich einen Nischenprojekt wie MyHDL verwende, wird es das nicht geben. Das schöne ist, dass die KI meinen Code liest und die dort enthaltenen Patterns erstaunlich gut selbst erkennt.

DeusExMachina schrieb:
Aber das können die KI Tools bisher nicht.
Das sind bisher nur Stackoverflow Zitierhilfen in schlecht.
Du arbeitest glaube nicht wirklich mit aktuellen KI Modellen oder hast eine so negative Grundhaltung, dass Du einen starken BIAS auf Fehlleistungen (die des bei der KI fraglos gibt) hast.

Ich nutze seit es KI gibt, kein Stackoverflow mehr. Die KI gibt mir sehr viel öfter eine ziemlich gut auf meine Frage passende Lösung als dass ich bei Stackoverflow was überhaupt halbwegs richtiges finde. Denn Stackoverflow ist über die Jahre immer zugemüllter geworden, während KIs kontinuerlich besser wurden.

Klar, ab und zu gibt es mal einen Griff ins Klo, wie halluzinierte API Calls oder Kommandozeilenoptionen. Ja und, merkt man ja sofort...
Lustigerweise sind gerade halluzinierte API Calls häufig eine Hinweis, dass eine API unvollständig ist.
Ich habe schon oft gedacht: Ja geil, wäre toll wenn es diesen Call gäbe...

Natürlich habe ich auch schon genug Situationen erlebt, wo sich die KI komplett verläuft, oder z.B. bei Fehleranalysen wilde Theorien herbeifantasiert. Aber erstens merkt man das relativ schnell und zweitens haben mir sogar diese Antworten manchmal schon Denkansätze gegeben.

DeusExMachina schrieb:
Aber das erfordert viel mehr Kontext bewusst sein als ein LLM technisch jemals erhalten könnte das ein Architektur Problem der LLMs
Die letzten zwei Jahre haben mich gelehrt, das man mit Worten wie "jemals" und "niemals" im Zusammenhang mit LLMs vorsichtig sein sollte.

Gerade Kontextlängen sind massiv größer geworden und sofern man halbwegs vernünftig prompted und KI Aufgaben in sinnvolle Größen einteilt, ist der Kontext in meinen Augen selten ein Problem.
Ergänzung ()

SheepShaver schrieb:
Man sollte die KI nur etwas machen lassen, was man auch selber tun könnte (mit erheblich mehr Zeitaufwand).
Absolut. Genau um den Zeitaufwand geht es ja, ich glaube das verstehen viele der Kritiker hier nicht.

Wenn Du, wie Du sagst, 20 Jahre in der Entwicklung arbeitest, hast Du 18 Jahre alles ohne KI hinbekommen. Wenn ich meine ersten Steps als Jugendlicher mitzähle, bin ich sogar 40 Jahre dabei, und bin in jeder neuen Programmiersprache und Umgebung ins kalte Wasser gesprungen und war nach sehr kurzer Zeit hochproduktiv. Aber die unzähligen Lernkurven waren auch nervig und anstrengend. Genauso wie das eintippen von Boilerplate Code oder ähnlichem.

Ich bin, wenn ich es selber mache, meistens überdurchschnittlich schnell, 40 Jahre Erfahrung helfen. Aber KI ist schneller, ist nun mal so...

Die einzige Angst ist natürlich, dass meine eigenen Coding Fähigkeiten im Laufe der Zeit mit KI verkümmern. Aber dafür werden meine Prompting Fähigkeiten besser.
Aber vielleicht schreibt in 10 Jahren auch niemand mehr selber Code.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SheepShaver
Interessante Ausführungen.

Aber wie sieht es mit Nachhaltigkeit aus?
Wie werden Neulinge eingeführt?
Wie sieht es mit der Weiterentwicklung der eigenen Skills aus?
Wie sieht es mit der Qualität aus, wenn die x-te Iteration der KI-basierten Inhalte durch die KI durchgenudelt werden?

Es wird irgendwie alles der Effizienz untergeordnet.
 
  • Gefällt mir
Reaktionen: fan8324
bensen schrieb:
Doch ist es. Deine Verallgemeinerung ist einfach falsch.
Für Sachtexte jeder Art, wissenschaftliche Artikel, Patente, Regelwerke, Gesetze, Verträge, Bedienungsanleitungen, etc ist die KI bestens geeignet und nicht nur 5 Jährigen sondern auch dem durchschnittlichen Erwachsenen deutlich überlegen.

Das sehe ich anders.
Zunächst einmal möchte ich klar stellen, dass ich erstens natürlich von Prosa sprach und zweitens nicht von "5 Jährigen", sondern von Fünftklässlern.

Des weiteren haben bereits diverse Praxisbeispiele gezeigt, dass KI in genau diesen Bereichen, die du aufzählst, ziemliche Defizite haben. Wie sollen sie dann sprachlich wichtige Eigenheiten dann adäquat übersetzen können? Bei Gesetzen oder wissenschaftlichen Arbeiten ist die exakte Terminologie extrem wichtig. Ebenso bei Verträgen und Patenten... Da würde ich mich auf keinen Fall auf eine KI Übersetzung verlassen, wenn ich da mein Kreuzchen drunter setzen soll.

Bedienungsanleitungen sind da schon etwas alltäglicher. Aber auch hier liegt aus meiner Sicht durchaus die Krux: Sie soll dem Nutzer möglichst einfach die Bedienung erklären. Das klappt nicht in jeder Sprache mit einer eins zu eins Übersetzung.

Und letztendlich bei Prosa, wie Du schon selbst gesagt hast, versagt sie halt quasi noch komplett. Hier fehlt jegliche sprachliche Couleur, oft der Sinn für bildliche Sprache (Woher auch, eine KI hat keine Gefühle) und hier wiegt die Tatsache, dass man nicht alles eins zu eins übersetzen kann noch deutlich schwerer.

Also nein, ich bleibe dabei: Die ursprüngliche Aussage, dass der Beruf des Übersetzers hinfällig sei (oder auch in Zukunft werden wird) teile ich absolut nicht.
 
  • Gefällt mir
Reaktionen: raychan
MaverickM schrieb:
Zunächst einmal möchte ich klar stellen, dass ich erstens natürlich von Prosa sprach und zweitens nicht von "5 Jährigen", sondern von Fünftklässlern.
Ändert nicht wirklich was. Du glaubst doch nicht wirklich, dass 5 Klässler was brauchbares zusammenschreiben können. Da lese ich definitiv lieber was von einer KI.

MaverickM schrieb:
Des weiteren haben bereits diverse Praxisbeispiele gezeigt, dass KI in genau diesen Bereichen, die du aufzählst, ziemliche Defizite haben. Wie sollen sie dann sprachlich wichtige Eigenheiten dann adäquat übersetzen können?
Indem man sie mit adäquaten Trainmaterial füttert. Warum soll sie das nicht können?
MaverickM schrieb:
Bei Gesetzen oder wissenschaftlichen Arbeiten ist die exakte Terminologie extrem wichtig. Ebenso bei Verträgen und Patenten... Da würde ich mich auf keinen Fall auf eine KI Übersetzung verlassen, wenn ich da mein Kreuzchen drunter setzen soll.
Es wird eingesetzt, es wird überprüft und es funktioniert super. Muttersprachler haben das gegen getestet. Wenn du andere Erfahrung hast, ist es ganz einfach schlecht umgesetzt. Diese aufgeführten Texte sind immer klar geschrieben, damit es eben keinen Interpretationsspielraum gibt.
Und umfangreiche Verträge für große Projekte sind eh zweisprachig ausgelegt. Da verlässt man sich auch nicht darauf, dass der übersetzer den technischen Sinn verstanden hat. Der ist halt eben auch kein Ingenieur (im meinem Umfeld).
MaverickM schrieb:
Das klappt nicht in jeder Sprache mit einer eins zu eins Übersetzung.
Maschinelle Übersetzung mit LLM ist nicht zwingend 1 zu 1.
Deswegen lesen sich ja heute chinesische Gebrauchsanweisungen brauchbar im Vergleich zu vor 10 Jahren.
MaverickM schrieb:
Also nein, ich bleibe dabei: Die ursprüngliche Aussage, dass der Beruf des Übersetzers hinfällig sei (oder auch in Zukunft werden wird) teile ich absolut nicht.
Er wird natürlich nicht hinfällig sein. Wäre absurd das zu behaupten. Aber 90% des Umfanges wird verschwinden, ein großer Teil ist es schon.
Aber es wird immer schwierige Situationen geben, wo man eine Fachkraft braucht.
Aber auch hier ist es dann eben eine Person mit sehr guter Qualifikation. Einfache Sprachkenntniss reicht nicht. Es müssen dann eben Zusatzqualifikationen her die in den bestimmten Bereichen notwendig sind.
Es ist wie immer mit KI oder Maschinen etc allgemein. Für die kompliziertesten Fälle wird der Mensch immer benötigt. Die große Masse an Arbeit kann übernommen werden.
 
Danke an für die News. Hab's deaktiviert.

Finde jeder Vertrag der zwischen 2 abgeschlossen wird oder Änderung des Vertrags sollte immer Opt-In sein. Stelle sich vor bei anderen Verträgen wäre auch opt-out.
 
Es wird Zeit Github zu verlassen. Für meine eigenen Projekte habe ich schon länger eine lokale Gitea Instanz.

Dass die nicht schon längst alle Repos fürs Training verwenden würde ich nicht ausschliessen. Das hinzufügen des Opt-Outs dient vermutlich nur der legalisierung dessen. Aber nur meine VT.
Ergänzung ()

Tornhoof schrieb:
Copilot Business und Enterprise Daten werden nie für das Training genommen
Zumindest offiziell.
Ergänzung ()

MaverickM schrieb:
Du kannst ja gerne irgendwelchen KI-Übersetzten Mist lesen.
Kürzlich jemanden geholfen Office zu installieren. Und dann stand da doch tatsächlich im Microsoft Produkt irgendwo an prominenter Stelle. Microsoft Büro anstatt Microsoft Office. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MaverickM
bensen schrieb:
Du glaubst doch nicht wirklich, dass 5 Klässler was brauchbares zusammenschreiben können.

Ich glaube der Kern meiner Aussage kam immer noch nicht rüber: Ab der 5. Klasse (Zumindest damals, als ich noch zur Schule ging) fing man an, Fremdsprachen zu lernen. Es geht darum, dass jemand, der die Sprache lernt noch kein Gefühl für die Sprache entwickelt hat, um Nuancen eines Textes zu erfassen und diese adäquat in seiner Sprache wieder zu geben.

Und genau das wird auf mindestens noch sehr lange Sicht eine KI ebenfalls noch nicht können.

bensen schrieb:
Indem man sie mit adäquaten Trainmaterial füttert. Warum soll sie das nicht können?

Weil eine KI nicht Schlau, sondern ziemlich Dumm ist. Das, was den Menschen intelligent macht, ist die Fähigkeit zur Transfer-Leistung. Genausowenig wie Tiere das besitzen, besitzt es eine Maschine (derzeit auch noch) nicht.

bensen schrieb:
Deswegen lesen sich ja heute chinesische Gebrauchsanweisungen brauchbar im Vergleich zu vor 10 Jahren.

Mir ist noch keine dieser vermeintlich "brauchbaren" chinesischen Übersetzungen untergekommen in Handbüchern. Aber vielleicht kaufe ich auch die falschen Geräte.

bensen schrieb:
Wäre absurd das zu behaupten.

Und genau das war von Anfang an meine Kern-Aussage.
 
Zurück
Oben