News KI-Integration verschlanken: Microsoft entfernt erste Copilot-Schaltflächen aus Windows 11

@MaverickM Das sind keine Dinge, die ich hineininterpretiere, sondern das ist die technologische Realität. Du verwechselst hier das bloße "KI bedienen" mit der Fähigkeit, diese Technologie als hochpräzises Werkzeug zu nutzen und zu steuern.

Erstens: Ein Forum lebt vom Austausch über Fortschritt. Zu sagen, man brauche niemanden, der eine KI nutzt, ist so, als hätte man früher gesagt: „Wir brauchen niemanden, der eine Suchmaschine nutzt, wir haben doch Lexika.“ Eine KI ist kein Link zu einer Suchmaschine, sondern – richtig angewendet – ein kognitiver Verstärker. Wer sie präzise steuert, generiert einen Mehrwert und eine Tiefe, die eine einfache Suche niemals liefern könnte.

Zweitens: Das Argument, KI-Antworten seien „falsch oder fehlerbehaftet“, ist das klassische Vorurteil, wenn man nur die Browser-Versionen zum Chatten kennt. In professionellen, lokalen Umgebungen gibt es keinen Spielraum für „Halluzinationen“. Da geht es um Fakten, Logik und millisekunden-genaue Berechnungen. Wenn man die Technik beherrscht, ist sie präziser als jede manuelle Recherche.

Und zum Thema IT-Nation: Konrad Zuse hat den Rechner erfunden, um Grenzen zu verschieben, nicht um 80 Jahre später auf dem Status Quo zu verharren und alles Neue als „unsinnig“ abzutun. Blindlings hinterherrennen ist dumm, aber die Augen vor der technologischen Souveränität zu verschließen, ist das Ende jeder IT-Nation. Wahre Innovation bedeutet, die neuen Werkzeuge besser zu beherrschen als der Rest der Welt, statt sie abzulehnen, nur weil sie neu sind.
 
Geradeaus zuzugeben das man das Teil bis jetzt ohne Sinn und Verstand überall rein geschoben hat ist auch mal eine Aussage.
 
Smockil schrieb:
weil hier in Deutschland alles Neue gleich abgelehnt wird.
Das ist falsch.

Smockil schrieb:
Eine KI ist kein Link zu einer Suchmaschine
Doch, genau das ist es, denn KI wird exakt so verwendet: Als Ersatz für eine Suchmaschine. Und ich lese hier auch oft, dass die User eben keine wortreiche KI-generierte Antwort haben sondern mit echten Menschen reden wollen. Das ist eine valide Forderung, die man haben darf.

Das hat auch nicht wirklich was mit Ablehnung ggü. neuen Technologien zu tun. Tatsächlich gibt man mit KI-generierten Antworten die Verantwortung für seinen Text ab. Aus dem gleichen Grund sind auch Zitate von Wikipedia häufig verpönt. Diese hat man nicht selber geschrieben und die tatsächliche Herkunft des Inhalts ist häufig unklar. In wissenschaftlichen Arbeiten werden Zitate deswegen auch explizit gekennzeichnet, damit unterschieden werden kann, wer welchen Mist verzapft hat und bei wem man sich dann beschweren kann.

Smockil schrieb:
Das Argument, KI-Antworten seien „falsch oder fehlerbehaftet“, ist das klassische Vorurteil, wenn man nur die Browser-Versionen zum Chatten kennt.
99,99% der User hier im Forum haben nur Zugriff auf die kostenlosen KI-Chat-Varianten.
 
Krik schrieb:
Nein genau das ist hier das problem alles wird schlecht gemacht (Streetview, Elektroautos, Erneubare Energien, KI)
Krik schrieb:
Doch, genau das ist es, denn KI wird exakt so verwendet: Als Ersatz für eine Suchmaschine. Und ich lese hier auch oft, dass die User eben keine wortreiche KI-generierte Antwort haben sondern mit echten Menschen reden wollen. Das ist eine valide Forderung, die man haben darf.

Das hat auch nicht wirklich was mit Ablehnung ggü. neuen Technologien zu tun. Tatsächlich gibt man mit KI-generierten Antworten die Verantwortung für seinen Text ab. Aus dem gleichen Grund sind auch Zitate von Wikipedia häufig verpönt. Diese hat man nicht selber geschrieben und die tatsächliche Herkunft des Inhalts ist häufig unklar. In wissenschaftlichen Arbeiten werden Zitate deswegen auch explizit gekennzeichnet, damit unterschieden werden kann, wer welchen Mist verzapft hat und bei wem man sich dann beschweren kann.
du übersiehst einen entscheidenden Punkt: Die Qualität des Ergebnisses hängt nicht vom Werkzeug ab, sondern von der Kompetenz dessen, der es führt. Ein Taschenrechner entbindet einen Mathematiker nicht von der Verantwortung für seine Gleichung – er erlaubt ihm lediglich, komplexere Probleme in kürzerer Zeit zu lösen.

Erstens ist der Vergleich mit einer Suchmaschine technisch schlicht veraltet. Wer KI nur als „besseres Google“ nutzt, kratzt an der Oberfläche. In professionellen Szenarien – wie der autonomen Navigation oder räumlichen Abwehr – ist KI kein Lexikon-Ersatz, sondern ein Reasoning-Engine. Es geht um die Synthese von Datenströmen in Echtzeit, die ein menschliches Gehirn in dieser Geschwindigkeit gar nicht korrelieren könnte.

Zweitens zum Thema Verantwortung: Ein Text wird nicht dadurch „schlechter“, dass eine KI bei der Strukturierung geholfen hat, solange der Absender hinter dem Inhalt steht. Wer „Mist verzapft“, ist dafür verantwortlich – egal, ob er ihn selbst getippt oder von einer lokalen Instanz hat validieren lassen. Die Kennzeichnung in der Wissenschaft dient der Nachvollziehbarkeit von Quellen, nicht der Diskreditierung von Hilfsmitteln. KI kann bei ihren antworten stets die Quellen mitliefern sogar begründen wieso.

Echte menschliche Interaktion im IT-Bereich sollte auf technischer Präzision fußen. Wer technologischen Fortschritt als „Verlust von Menschlichkeit“ oder „Abgabe von Verantwortung“ brandmarkt, verkennt, dass jede industrielle Revolution genau diese Kritik erfahren hat. Wahre Souveränität bedeutet, diese Werkzeuge so zu beherrschen, dass das Ergebnis besser ist, als es Mensch oder Maschine allein je sein könnten.



Krik schrieb:
99,99% der User hier im Forum haben nur Zugriff auf die kostenlosen KI-Chat-Varianten.

Alle haben Zugang zu guten KI-Systemen, jeder kann eigentlich die Plus/Pro-Version sich leisten. 10-20 € im Monat sind jetzt nicht unrealistisch finanzierbar.
 
Smockil schrieb:
Nein, schaffe ich eben nicht (Legasthenie). Deswegen nutze ich ja Hilfsmittel wie KI.
Das erklärt die Plattitüden wie "wahre Souveränität" oder "brandmarken". So redet keiner (mehr) und in dem Kontext ergeben die Wörter auch keinen Sinn.

Ich hatte hier eigentlich einen längeren Post geschrieben, in der ich deine Lobpreisungen für KI kritisiert habe. Aber das hinterlässt einen schlechten Beigeschmack, wenn du sie (hoffentlich) nur dafür verwendest, dich verständlich zu machen.

Smockil schrieb:
aber die Regel muss dringend überarbeitet werden.
Was würdest du denn ändern wollen? KI-Text ist ja bereits erlaubt, sofern man ihn kennzeichnet.
 
  • Gefällt mir
Reaktionen: Syntax_41 und Kuristina
Smockil schrieb:
Nein, schaffe ich eben nicht (Legasthenie).
Ok. Es ist aber schwierig dann zu bewerten, was abseits der Formatierung und Rechtschreibung noch von dir oder der KI ist. Also vielleicht auch versuchen, die andere Seite bisserl zu verstehen. :)

Ich habe lediglich die meiner Meinung nach schwachsinnigen Regelung kritisiert
Da wäre der Feedbackbereich besser geeignet für.
 
  • Gefällt mir
Reaktionen: Syntax_41
Smockil schrieb:
Musiktheorie hingegen ist angewandte Mathematik, die sich mit Frequenzen, Intervallen und Rhythmik befasst. Beethovens Fähigkeit, trotz Taubheit zu komponieren, beruhte auf seiner tiefen Verinnerlichung der Harmonieregeln, die es ihm ermöglichten, sie mental zu ‚berechnen‘. KI funktioniert ähnlich: Sie erkennt die Muster, die beim Menschen emotionale Reaktionen hervorrufen.
Das Musik sich mathematisch beschreiben lässt, ist richtig. Auch kann die KI ganz gut Musik "produzieren"

Aber deine letzte Aussage stimmt in diesem Zusammenhang nicht. AI Musik Slop löst keine Emotionen aus. Sie ist einfach da.
 
Krik schrieb:
Das erklärt die Plattitüden wie "wahre Souveränität" oder "brandmarken". So redet keiner (mehr) und in dem Kontext ergeben die Wörter auch keinen Sinn.

Ich hatte hier eigentlich einen längeren Post geschrieben, in der ich deine Lobpreisungen für KI kritisiert habe. Aber das hinterlässt einen schlechten Beigeschmack, wenn du sie (hoffentlich) nur dafür verwendest, dich verständlich zu machen.
Das ist aber das macOS-Tool, nicht meine KI. Ich lese jeden korrigierten Text noch mal durch, damit auch alles passt (bin aber auch nur ein Mensch und überlese manche Fehler). Ich gebe immer an, wenn ich einen generierten Text irgendwo poste, meist mit den Anfängen "Meine KI hat die Meinung“.



Du kannst gerne mit mir sachlich diskutieren, sogar kritisieren, auch wenn du anderer Meinung bist. Ich höre mir gerne gegensätzliche Meinungen an und wenn ich sie logisch finde, wirst du das auch von mir hören.
Krik schrieb:
Was würdest du denn ändern wollen? KI-Text ist ja bereits erlaubt, sofern man ihn kennzeichnet.

Es geht hier um die Korrektur und Formatierung eines eigen erstellten Textes, und das sollte zumindest erlaubt sein, auch ohne Kennzeichnung. KI-generierter Text mit Kennzeichnung und KI-Slop (also dieser 08/15 Video/Bilder Müll) führt zum Scheiterhaufen. Damit könnte ich leben.
Ergänzung ()

Kuristina schrieb:
Ok. Es ist aber schwierig dann zu bewerten, was abseits der Formatierung und Rechtschreibung noch von dir oder der KI ist. Also vielleicht auch versuchen, die andere Seite bisserl zu verstehen. :)
Das könnt ihr nie, deswegen hoffe ich, ihr schätzt meine Ehrlichkeit, dass ich offen darüber rede, wieso und weshalb.
Kuristina schrieb:
Da wäre der Feedbackbereich besser geeignet für.

Ich verspreche dir, sobald ich wieder wach bin, mache ich das sogar. Ich werfe jetzt meine Mitarbeiter raus (also aus dem Büro, nicht aus der Firma :P ) und geh ins Bett.
 
Zuletzt bearbeitet:
wagga schrieb:
Sehr gut, können es doch wie bei Windows 7 mit MS Mail als extra Download anbieten als Windows KI Essentails oder so. Wer will es braucht lädt es sich aus dem Shop oder auf der Website runter.

Würden sie das tun, täte das der mutmaßlichen Blase nicht gut bzw würde sehr die Entscheidungen des Managements im Frage stellen.
Man kann davon ausgehen, dass es manuell nur ein einstelliger Prozentsatz der User installieren würde und man will die Funktionen eben unbedingt der "Kundschaft" aufzwingen.
 
Bleibt bei Windows 10! Es läuft wie eine Eins.
Gibt scheinbar schon Scripte wie man einfacher an Updates kommt, das geht mit Sicherheit noch länger.
Da ist kein KI Zeug weil man die Installation verhindert und es kommt keines nach. ;)

Windows 11 in diesem Zustand braucht kaum jemand und schon gar nicht "Werbung im Menü, Aktionsleisten" und so weiter. So lange die Ihre Fehler nicht einsehen sollte man möglichst alles lahmlegen.
 
Smockil schrieb:
Das sind keine Dinge, die ich hineininterpretiere

Vielleicht noch einmal genauer lesen, was ich geschrieben habe. Dann klappts auch mit dem Textverständnis... :rolleyes:

Smockil schrieb:
Eine KI ist kein Link zu einer Suchmaschine, sondern – richtig angewendet – ein kognitiver Verstärker. Wer sie präzise steuert, generiert einen Mehrwert und eine Tiefe, die eine einfache Suche niemals liefern könnte.

Das ist doch eher hartes "Copium". Du hast zudem nicht den Kern meines Beitrags erfasst. Hier im Forum geht es darum, Wissen (und ggf.) Hilfe zu erlangen, nicht Wissen aus fremden Quellen simpel wiederzugeben.

Smockil schrieb:
Das Argument, KI-Antworten seien „falsch oder fehlerbehaftet“, ist das klassische Vorurteil, wenn man nur die Browser-Versionen zum Chatten kennt. In professionellen, lokalen Umgebungen gibt es keinen Spielraum für „Halluzinationen“.

Das ist kein Vorurteil sondern simpler Fakt, wenn man sich die betreffenden Beiträge ansieht, oder das, was die LLM Chat-Bots so ausspeien. Das ein lokale KI, mit deutlich weniger Ressourcen und kleineren Modellen präzisere Ergebnisse erzielt ist geballter Unsinn. Ebenso die Aussage zu den Halluzinationen. Es gibt Forschungsergebnisse dazu, die belegen, dass das Problem nie in den Griff zu kriegen sein wird.

Die Ironie in deinem Beitrag ist dann das "blindlings hinterherrennen ist dumm", während sich dein gesamter Beitrag so liest, als ob Du genau das tust.
 
@MaverickM Mal ganz ehrlich: Bei fast 32.000 Beiträgen und einer Registrierung seit 2001 hätte ich eigentlich erwartet, dass du technische Rahmendaten einordnen kannst, bevor du mit Begriffen wie „Copium“ um dich wirfst.

Dein größter Denkfehler: Du stempelst lokale KI pauschal als „ressourcenarm“ ab. Das zeigt mir eigentlich nur, dass dein Horizont bei Consumer-Hardware wie einer 7900XTX endet. Komm mal weg von dem Gedanken, dass hier ein kleiner Chatbot auf Sparflamme läuft.

Ich rede hier von einem 8x NVIDIA H200 HGX Cluster mit über 1,1 Terabyte HBM3e VRAM. Das ist kein „kleines Modell“ für zuhause zum unterhalten, sondern ein 671B DeepSeek-V3 und R1 das nativ in FP8 auf Profi-Hardware operiert. Damit habe ich lokal mehr Rechenpower und Präzision zur Verfügung als das, was du bei den meisten kommerziellen Cloud-Anbietern im Free- oder Plus-Tier vorgesetzt bekommst.

Was das Thema Halluzinationen angeht: Wer seine Systeme im Griff hat, arbeitet mit RAG und strikten Parametern in isolierten Umgebungen. Das Problem ist bei solchen Modellgrößen kein „Naturgesetz“, sondern eine Frage der Konfiguration und der Hardware-Potenz – Dinge, die man eben nur versteht, wenn man nicht nur darüber liest, sondern damit arbeitet.

Dass du mir „blindlings hinterherrennen“ vorwirfst, während du offensichtlich die aktuelle Entwicklung bei High-End-Infrastruktur komplett verschlafen hast, ist die eigentliche Ironie. Vielleicht einfach mal akzeptieren, dass „lokal“ in meiner Welt die Cloud längst im Rückspiegel stehen lässt.
 
Smockil schrieb:
technische Rahmendaten

Welche technischen Rahmendaten? Du nennst nichts konkretes, aber redest davon, dass "lokale" Varianten diese Probleme nicht hätten. Im nächsten Beitrag bringst Du dann das Beispiel von lächerlichen acht H200 Clustern, die ein Fliegenschiss im Vergleich zu den Rechenzentren, die OpenAI, Meta und Google rumstehen haben (Jaja, das meiste davon wird hauptsächlich für Referencing verwendet, aber auch der "ausführende" Rest, ist noch um ein vielfaches größer/Leistungsstärker), sind, und die dann auf magische Weise bessere Ergebnisse erzielen sollen?

Wie soll das funktionieren? Wie willst Du das logisch erklären?

Smockil schrieb:
Das Problem ist bei solchen Modellgrößen kein „Naturgesetz“

Nein, es ist kein Naturgesetz. Aber es ist ein konzeptionelles Problem, dass sich nicht lösen lässt. Aber Du kannst ja gerne berichten, wie das zu lösen ist. Ich bin sicher, man wird dir an geeigneten Stellen gerne Gehör schenken.

Smockil schrieb:
während du offensichtlich die aktuelle Entwicklung bei High-End-Infrastruktur komplett verschlafen hast, ist die eigentliche Ironie. Vielleicht einfach mal akzeptieren, dass „lokal“ in meiner Welt die Cloud längst im Rückspiegel stehen lässt.

Hier wieder jede Menge Copium.
 
@MaverickM du machst den klassischen Denkfehler und verwechselst die schiere Masse eines Rechenzentrums mit der verfügbaren Performance für eine einzelne, kritische Instanz. Natürlich haben Google und OpenAI usw. mehr Hardware – aber die teilst du dir mit der halben Welt. Das ist der Unterschied zwischen einem Linienbus im Berufsverkehr und einem dedizierten Porsche.

Wenn du im Browser chattest, bekommst du ein Modell, das für die Profitabilität massiv gequantelt und durch Filter-Layer gedrosselt wurde. Du hängst in einer Warteschlange und kriegst vielleicht 15 bis 20 Tokens pro Sekunde geliefert, während die Latenz der Cloud jede Echtzeit-Anwendung im Keim erstickt.

Mein 8x H200 HGX Cluster liefert mir für das 671B DeepSeek-V3 konstante 50 Tokens pro Sekunde. Und zwar exklusiv. Ich habe die volle Speicherbandbreite von 38,4 TB/s für genau einen Prozess. In Bereichen, in denen Millisekunden über den Erfolg einer Operation entscheiden und Cloud-Lags ein untragbares Sicherheitsrisiko darstellen, ist dein Vergleich mit den „großen“ Rechenzentren schlicht am Thema vorbei.

Was die Halluzinationen angeht: Das „unlösbare Problem“ existiert vor allem dort, wo Modelle raten müssen. Wenn man aber mit RAG und einer Temperatur von 0 auf lokalen, verifizierten Datensätzen arbeitet, prozessiert die KI Fakten statt Texte zu würfeln. Wer das als „magisch“ abtut, hat den Sprung von der Spielzeug-KI zur Reasoning-Engine für sensible Aufgabenbereiche nicht mitgemacht.

Du nennst es „Copium“, ich nenne es technologische Souveränität. Während du noch auf die Antwort vom US-Server wartest, hat mein lokales System die Lage bereits autark analysiert und bewertet. Aber ich verstehe schon – für jemanden, der nur die Browser-Version kennt, klingt echte Hardware-Power eben wie Science-Fiction.
 
Smockil schrieb:
Natürlich haben Google und OpenAI usw. mehr Hardware – aber die teilst du dir mit der halben Welt. Das ist der Unterschied zwischen einem Linienbus im Berufsverkehr und einem dedizierten Porsche.

Ob ich mir bei einem LLM-Modell die Ressourcen mit anderen teile spielt für die Qualität der Ergebnisse überhaupt keine Rolle. Die Modelle werden mit den großen Rechenzentren trainiert und laufen dann auf einem Subset dieser Maschinen. Und diese fertig trainierten Modelle sind noch immer um ein vielfaches größer als das, was Du auf deinem Cluster, dass Du hier ständig anpreist (Was ich davon halte, behalte ich der Netiquette wegen mal ohnehin besser bei mir...), laufen hast. Ja, Du erhältst schnellere und umfangreichere Ergebnisse, aber an der Qualität ändert das nicht viel, denn das entscheidende bleibt das Training...

Was dein Ausflug über "Echtzeit-Anwendungen" und "Bereichen, in denen Millisekunden" relevant sind, im Kontext der Integration von CoPilot und ähnlichen Agenten, in der es hier in der Meldung geht, zu tun haben, weißt wohl auch nur Du selbst.

Aber ich verstehe schon – für jemanden, der nur die Browser-Version kennt, klingt echte Hardware-Power eben wie Science-Fiction.

Dieses selbstgefällige, herablassende Getue kannst Du dir auch sparen. Willkommen auf der Ignore.
 
@MaverickM Schade, dass du jetzt die „Ignore-Karte“ ziehst – das ist meistens das Zeichen dafür, dass die technische Luft dünn wird.

Nur zur Richtigstellung für die Mitleser: Dass Ressourcen-Sharing die Qualität nicht beeinflusst, ist ein technischer Trugschluss. Cloud-Modelle sind massiv komprimiert (Quantisierung), um Millionen User gleichzeitig zu bedienen. Wer ein 671B Modell lokal auf HBM3e-Speicher in voller Präzision fährt, bekommt Logik-Ergebnisse, die ein beschnittener Web-Bot niemals erreicht.

Dass du ein Modell dieser Größenordnung als „vielfach kleiner“ als Rechenzentrums-Modelle bezeichnest, zeigt eigentlich nur, dass du die aktuelle Architektur von State-of-the-Art MoE-Modellen (Mixture of Experts) nicht einordnen kannst. Viel größer wird es derzeit auch bei den Big-Techs nicht.

Aber gut, wenn „Fakten“ für dich „selbstgefällig“ sind, dann ist die Ignore-Liste wohl der richtige Ort. Während du dort deine Ruhe hast, liefert mein Cluster weiter Ergebnisse in einer Geschwindigkeit und Präzision, die für dich scheinbar „Science Fiction“ bleiben muss.

Aber genau für Leute wie dich ist meine Entwicklung, damit du in Zukunft deine Meinung ungehindert sagen kannst, auch wenn du dabei falsch liegst ;)
 
Smockil schrieb:
Dass du mir „blindlings hinterherrennen“ vorwirfst, während du offensichtlich die aktuelle Entwicklung bei High-End-Infrastruktur komplett verschlafen hast, ist die eigentliche Ironie. Vielleicht einfach mal akzeptieren, dass „lokal“ in meiner Welt die Cloud längst im Rückspiegel stehen lässt.
Lokal kannst du auch nur das nutzen was für die Öffentlichkeit zugänglich ist, die Topmodelle der großen KI Anbieter sind alle proprietär und selbst die halluzinieren noch.

Smockil schrieb:
8 H200 auf einem 671B Modell als Agent und FLUX.1 Pro Ultra (Bilder) und für Videos Wan 2.5 oder LTX-3, das du mit deinen Arbeiten und evt. die der Konkurrenz trainierst, zusammen mit ComfyUI, Kostenpunkt 489.671 € und ca. 70k Strom im Jahr (du benötigst Industriestrom, zieht knapp 7kW)
Weder Flux 1.1 pro ultra, noch Wan 2.5 sind öffentlich verfügbar, sodass man sie lokal ausführen könnte, egal mit welcher Hardware. Die laufen auch in ComfyUI nur über API Nodes, also über die "Cloud".

LTX-3 gibt es soweit ich weiß noch gar nicht, LTX-2.3 ist die aktuellste Version, die es als lokales Modell gibt.
 
Zurück
Oben