News EU-Untersuchung: Angst vor halluzinierenden Chatbots und AI-Manipulationen im Wahlkampf

@KlaasKersting die manipulation der meinungsbildung kann man auch als verleumdung oder unwahre tatsachenbehauptung ansehen - und beides ist ebenso strafbar. da brauchst du dich nicht auf die paragraphen für die reine durchführung einer wahl beschränken.
 
  • Gefällt mir
Reaktionen: atb2006
Währenddessen färbt das ZDF wahrscheinlich wieder irgendwelche Wolken ein...

Bildschirmfoto-2022-08-02-um-15.49.59.png



Ich sehe das Ganze eher kritisch. Schutz vor Falschinformationen ist ja grundsätzlich positiv, das wird wohl kaum jemand bestreiten. Solange es nur um Deep Fakes geht und man diese mit technologischen Mitteln als solche identifizieren kann, ist doch alles gut. Wenn es allerdings darüber hinaus geht, wird es problematisch.

Was ist denn z.B. die genaue Definition einer "nicht soliden Datenbasis" und wer definiert das? Letztendlich muss man einfach auch sehen, dass sich einige Verschwörungstheorien später als wahr erweisen. Eine Zensur, die missliebige Theorien schon im Kein zu ersticken versucht, ist deshalb aus meiner Sicht immer zu verurteilen und schädlich für einen gesunden Diskurs. Staatlicher Druck auf Plattformen, dessen Gegenstandsbereich über strafrechtliche Belange oder offensichtliche Fakes hinausgeht, ist unangebracht.
Medienkompetenz darf nie heißen, alles aus einer bestimmten Quelle ohne Hinterfragen einfach anzunehmen und es darf auch nie eine Seite die Deutungshoheit über alles haben.
 
  • Gefällt mir
Reaktionen: savuti, estros, Nomadd und 2 andere
Cool Master schrieb:
Das ist Schade aber ich würde lügen wenn ich sagen würde ich kann es nicht verstehen.
Danke. Ich muss aber dazu sagen, dass ich trotzdem stolz meiner Pflicht als demokratisch gesinnter Mensch nachkomme und wählen gehe, bis die Demokratie abgeschafft wird, was ich hoffentlich nie erleben werde.

Denn nur wer wählen geht, hat das Recht, über das Wahlergebnis und deren Profiteure zu schimpfen. :king:
 
  • Gefällt mir
Reaktionen: Cool Master und [wege]mini
Solche Falschinformationen entstehen vor allem, wenn die Datenbasis nicht solide ist.
nein, sowas kann immer und jederzeit entstehen, egal wie toll die Datenbasis ist, ganz einfach weil es keine Intelligenz ist die nicht versteht, was es da wiedergibt. Das sind Wort-rechner, die berechnen wahrscheinlichkeiten einer Wortfolge. Die können nicht verstehen was sie sagen, und somit kann da niemals garantiert werden, dass die Antwort sinn macht. Und weiters sollte man das ganze darum auch nicht "Halluzinieren" nennen, das impliziert nur wieder, dass da sehr wohl eine Intelligenz vorhanden ist. Nein, da ist keine. Da sind nur Algorithmen und Marketingbullshit
 
  • Gefällt mir
Reaktionen: Zoba, Nomadd und Tevur
Zornica schrieb:
Und weiters sollte man das ganze darum auch nicht "Halluzinieren" nennen

Es trifft es schon ganz gut. Wenn der Chatbot keine gute Datenlage hat und daher laut Wahrscheinlichkeit keine evidente Aussage getroffen werden kann, sagt der Chatbot leider viel zu häufig trotzdem irgend etwas.

So ab 60% Wahrscheinlichkeit wird es kompliziert und wenn der Chatbot gar keine brauchbaren Informationen mehr hat (unter 20%) geht es langsam in Richtung "Halluzination".

Wir Menschen kennen das auch. Da wird von unserem Gehirn auch gerne mal eine Fata Morgana ausgespuckt, die zwar nicht da ist, man aber glaubt sie zu sehen.

Die Bots, sollen natürlich nicht so werden. Niemand braucht eine Kopie von Menschen. Dafür sind wir einfach viel zu schlecht.

mfg
 
0x8100 schrieb:
@KlaasKersting die manipulation der meinungsbildung kann man auch als verleumdung oder unwahre tatsachenbehauptung ansehen - und beides ist ebenso strafbar. da brauchst du dich nicht auf die paragraphen für die reine durchführung einer wahl beschränken.

Eben nicht.

1. gegen Verleumdung, Beleidigung und Co gibt es sowohl Strafgesetze als auch Löschansprüche, dafür braucht es keine neuen wahlspezifischen Eingriffe.

2. gerade der Bezug zur Wahl und zum politischen Geschehen macht es wahrscheinlicher, dass es eine erlaubte Meinungsäußerung ist. Für eine Aussage, die mehr ist als ein stumpfes "Dieser ver****** *********" enthält und einen eindeutig politischen Bezug hat, verurteilt zu werden, ist zumindest in den höheren Instanzen recht selten.

3. insbesondere bei den AI-Bildchen könnte man in sehr vielen Fällen auch noch über Satire nachdenken.

4. viele Aussagen gehen gegen Parteien, nicht gegen Personen. Da sind (ob man das gut findet oder nicht) sogar Aussagen wie Pädo-Partei usw. zulässig.
 
  • Gefällt mir
Reaktionen: Nomadd
KlaasKersting schrieb:
dafür braucht es keine neuen wahlspezifischen Eingriffe.
na wie gut, dass du das jetzt hier unwiderlegbar festgestellt hast. nur als hinweis: hier geht es um eine untersuchung, die genau das feststellen soll, ob handlungsbedarf besteht oder nicht.
 
Untersuchungen sind gut und richtig. Auch wenn man hier wieder mit den ausgegebenen Steuergeldern argumentieren könnte.

Man sollte aber nie vergessen, dass die vermeintlich "guten" Gesetze zum "Schutz der Demokratie" auch irgendwann von der Gegenseite zum Zwecke deren Abschaffung eingesetzt werden könnten.
Stichwort: NetzDG in der Hand einer Rechtsradikalen Regierung.
 
  • Gefällt mir
Reaktionen: Nomadd
Lustig, wir kacken uns vor mittelmässigen LLMs in die Hose, die Bildzeitung kann aber in die Luft pusten was sie will. Da ist die Wahrheit meist weiter weg, als wenn die eine KI/Ai sich was aus den Fingern saugt.

Wenn man sich dann die Wahlmanipulationen anschaut die dort betrieben wurde zur letzten Bundestagswahl, Stichwort Grünenbashing und FDP Steigbügel halten, sollten wir uns ernsthaft mal fragen an welchem Punkt unsere Diskussionen angelangt sind. Wenn Döpfner nichts zu befürchten hat als menschliches Individuum, brauchen wir uns über AIs keine Sorgen machen. Wir lassen Unrecht und Korruption doch auch jetzt schon ungestraft walten…
 
  • Gefällt mir
Reaktionen: Leeway, derkleinedieb, NameHere und 4 andere
Die wichtigste Scharnierstelle ist und bleibt Social Media. Und da gibt es eigentlich nur zwei Möglichkeiten:
1. finden die Plattformbetreiber Wege, die Authentizität des Contents zu verifizieren und
2. erlernen die Konsumenten die Kompetenzen, Fakes zu erkennen.

Beides ist technisch jedoch nur bis zu einem gewissen Grad möglich, weil die Modelle (z.B. bei Deep Fakes) nun mal immer besser werden. Die Quelle zu regulieren, ergibt jedoch nur bedingt Sinn, weil die Büchse der Pandora mit frei verfüg- und anpassbarer Open Source Software bereits geöffnet und die Technologie in so fern weiter anwendbar ist. Politische Kampagnen kann man letztlich also eigentlich nur durch eine gezielte Mustererkennung in unmittelbarer Kombination mit einer möglichst weitgehenden Nutzer-Authentifizierung bekämpfen. Ob das die Plattformen selbst auf Dauer nutzenswerter macht, sei aber mal völlig dahingestellt ...

Die Mitverantwortlichen auf diese Weise in die Gestaltung der gesetzlichen Richtlinien mit einzubeziehen, wird jedenfalls wieder nur dazu führen, dass Nebelbomben aufgehen und die Verantwortung jeweils auf andere Instanzen geschoben wird. Am Ende also viel verlorene Zeit, doch waren alle stets bemüht.
 
  • Gefällt mir
Reaktionen: Nomadd und Vigilant
Wenn man sich mal etwas näher mit dem KI Thema befasst dann findet man eigentlich recht schnell heraus das man die zensierten überwachten Projekte der Marktführer gar nicht braucht.
Stichwort: huggingface
Lokal zu installieren oder hunderte Leute die es gratis im Web zur Verfügung stellen falls man selbst keine starke Hardware hat.
Die Büchse der Pandora ist offen, bekommt man jetzt nicht mehr zu.
 
  • Gefällt mir
Reaktionen: Nomadd
wern001 schrieb:
Das läst sich doch beliebig erweitern. z.B.: Treffen mit Konkurenten für Preisabsprache
Nein, dass sind völlig andere Sachverhältnisse. Ob jemand Privat seine Partnerin/Partner mit einer anderen Person betrügt oder ob jemand Preisabsprachen mit Konkurrierenden Unternehmen trifft. Sind völlig andere Dinge.

Das gleich zu setzen macht so viel Sinn wie eine geknallt zu bekommen, weil man einen anderen Menschen angeschaut hat und dein Ehepartner/in das als Betrug eures Hochzeitsschwur ansieht.
 
  • Gefällt mir
Reaktionen: Leeway, scryed und Nomadd
Sollten erstmal den roten Stift an der eigenen Tür ansetzen, bevor KI ein Problem darstellt.

Angefangen bei einem neutralen Bildungssystem, welches sich nicht in politische Themen einmischt und Einfluss auf die Wähler von Morgen nimmt.

Man weiß ja schon garnicht mehr was man überhaupt wählen soll.
Die einen wollen nur extrem günstige Arbeitskräfte, damit der Reichtum mancher noch weiter wächst und die Schulden mehrerer Staaten aus der Portokasse zahlen könnten, die Anderen setzen den roten Stift beim Bürgergeld damit die 0,5% reinkommen, der Nächste spricht gegen Grundeinkommen, da es sonst passieren könnte, dass die Leute bessere Jobs bekommen und Menschen mit Behinderung nicht mehr die Steuerlast der Unternehmen senken, sondern auch ein freies Leben bekommen.

Ich sag nichts mehr dazu, regt eh nur auf.
 
Zu geil, die Trainingsbasis ist also das Problem!
Die Basis ist das Herz und macht die Güte aus. Deshalb baut Google ja z.B einen Diversitätsfilter ein, der nachgeschaltet ist, weil man sich die Basis nicht korrumpieren will.
Man hat also nun Angst vor der KI, weil die eben Antworten auf Grundlage der Basis gibt.
Kann man besser unterstreichen,wovor die Herrschaft tatsächlich Angst hat.
Einfach nur noch ekelhaft.
 
  • Gefällt mir
Reaktionen: Nomadd
Also im Digital Service Act wird zwar immer von "misleading Information" gesprochen, aber was das genau ist oder sein soll steht nirgends. "Misleading" kann man ja so auslegen wie man will und hat totale Kontrolle.
 
  • Gefällt mir
Reaktionen: Nomadd
[wege]mini schrieb:
[...]
Wir Menschen kennen das auch. Da wird von unserem Gehirn auch gerne mal eine Fata Morgana ausgespuckt, die zwar nicht da ist, man aber glaubt sie zu sehen.

Die Bots, sollen natürlich nicht so werden. Niemand braucht eine Kopie von Menschen. Dafür sind wir einfach viel zu schlecht.
aber das ist ja genau was ich kritisiere, dass man damit diese Marketinglüge aufrecht erhellt dass man es hier mit irgendeiner arte von Intelligenz zu tun hätte die "versteht" wovon sie spricht und sich manchmal eben was falsches "einbildet" oder "glaubt" - obwohl das eben nicht der Fall ist. Es gibt da kein Bewusstsein was in die irre geführt wird. es gibt nur falsche Berechnungen. Und ich finde es wichtig, dass Nutzer das verstehen. Das wollen die Firmen eben nicht
 
  • Gefällt mir
Reaktionen: Nomadd
Vor Chatbot-AI habe ich mittlerweile grundsätzlich jedweden Respekt verloren. Erst gestern wieder habe ich eine kleine Demonstration vor 5 Personen gehalten und gezeigt, wie extrem unzuverlässig diese Technologie derzeit noch ist.

Zum Einsatz kamen Google Gemini, Bing Chat und ChatGPT 3.5 (freie Variante).

Gefragt wurden alle drei Bots dasselbe mit exakt selbem Text. Sinngemäß sollte mir jede der KI sagen, wie viele Schulen der Schulträger in meinem Landkreis betreut. Keiner konnte die richtige Antwort liefern und auch im individuellen Chatverlauf mit den Bots war es nicht möglich, diese zur richtigen Antwort zu bewegen, obwohl sie sich alle mehrfach für ihre Falschangaben entschuldigt hatten...

Eine anschließende Hardware-Frage bezüglich eines 12600K-Upgrades mit neuem Mainboard ging dann völlig in die Hose, weil entweder behauptet wurde, dass es keine neueren CPUs oder Mainboards gibt oder schlimmer noch: es wurden gar inkompatible Sockel empfohlen (Bing Chat) und trotz Hinweis darauf, der mit "Entschuldigung, Sie haben natürlich Recht, blabla ist nicht kompatibel etcpp" wurde bei der direkt darauf folgenden, erneuten Anfrage sofort wieder der exakt selbe Fehler ausgegeben.

So viel zu den ach so schlauen, neuronalen Netzen.

Was mir da tatsächlich etwas mehr Sorgen macht, ist so etwas hier:
 
  • Gefällt mir
Reaktionen: whats4, Zornica und Nomadd
wern001 schrieb:
@Djura die nächste antwort von einem Politiker der mit der Geliebten erwischt wurde ist: Das ist ein Deepfake ich bin das nicht.
Besser. Da rollt ne ganze Welle Verfahren auf uns zu, bei denen das Bildmaterial angezweifelt wird. Wer will schon beweisen, dass es kein Deepfake ist, wie ich irgendwo Einbrecher? Und im Zweifel für den Angeklagten. Juristisch gesehen kann das ein Riesenproblem werden, wenn immer die Chance eines Fakes besteht. Man müsste jedesmal beweisen, dass es keiner ist. Ein Ding der Unmöglichkeit.

Davon ab: Wann wurde je ein (Nachkriegsdeutscher) Politiker mit seiner Geliebten erwischt (und es hat jemanden interessiert...)? Geht die Öffentlichkeit eh nichts an.
 
  • Gefällt mir
Reaktionen: Nomadd
Zurück
Oben