News Google Suche: AI-Modus schlägt Prompts aus früheren Suchanfragen vor

tomgit schrieb:
Aber ist ja nicht so, als hätte man zeitnah nach der Entwicklung des Fahrzeuges erkannt, dass man auch die Personen schützen muss, während Schutzmechanismen bei KI einfach mal weggelassen werden
Alles kaputtregulieren ist auch nicht die Lösung... Wer im Straßenverkehr den Sicherheitsgurt anlegt, kann genau so verunfallen wie ohne Sicherheitsgurt - nur die Wahrscheinlichkeit ist geringer

KIs werden schlechter, je weniger Dinge (Daten) sie lernen können (dürfen!). Reguliert man alles, ist sie nutzlos

Vielmehr sollte der bewusste Umgang damit geschult, und missbräuchliche Nutzung durch Gesetze/Strafe eingeschränkt werden

KIs an sich sind nicht böse, das ist Quatsch... die Benutzer, die diese missbräuchlich einsetzen, sind es

KIs müssen sich nicht evolutionsbedingt (um zu überleben) gegen andere KIs durchsetzen... falls doch, hat sie dieses Verhalten zuvor durch schlechte Nutzer gelernt

... Panzer, Waffen oder was weiß ich, sind auch nicht per se böse - nur es gibt meist keinen anderen Einsatzzweck, als andere zu schaden

aber im Vergleich zu KIs sind ebenjene geradezu überfromm... Also die Kirche bitte im Dorf lassen
 
  • Gefällt mir
Reaktionen: Nadja...
Nadja... schrieb:
Ich sage es immer wieder und werde regelmäßig mit News und Erzählungen von Kollegen meiner Branche bestätigt, dass man KI nicht verpassen darf.
Die alten Gewohnheitstiere unterschätzen es enorm. Vielleicht auch weil es im Consumerbereich keine so großen Innovationen gibt wie im Businessbereich.
Aber was könnte KI in einen 1 Mann Betrieb zb eine Teile Produktion via Maschinen übernehmen?
 
@Fighter1993
Ein Handwerker könnte ein defektes Gehäuse scannen und die KI ihm ein 3D-Modell für einen 3D-Druck erstellen. Dadurch muss nicht das gesamte Gehäuse, sondern nur die defekte Stelle ersetzt werden.

Ein Schreiner könnte mehrere Geräte scannen und die KI ihm mehrere Vorschläge für eine Aufbewahrungsbox oder einen Schrank geben, die er bzw. die Kunden durchklicken, bis sie zufrieden sind. Anschließend kann eine Maschine die Bretter zuschneiden und mit den passenden Bohrungen für Schrauben versehen.

Oder ein Schneider lässt den Körper des Kunden scannen und die KI entwickelt beliebig viele Beispiele mit verschiedenen Schnitten, Formen, Größen und zeigt dies auf einem großen Spiegel/Display am Kunden selbst an.
Oder man hat ein Bild eines Modells mit einem Outfit und die KI passt dies an die Kunden an, sodass man sieht, wie es an der eigenen Figur aussehen würde.

Das sind 3/4 Beispiele, die mir auf Anhieb für Einzelbetriebe einfallen.
Es gibt sicher viel mehr und bessere Beispiele.
 
  • Gefällt mir
Reaktionen: HtOW, n/a und Fighter1993
Nadja... schrieb:
Ansichtssache... von Autos haben auch am meisten die Reichen profitiert, weil sich das investierte Kapital vervielfachte.
Autos haben Nutzer aber nicht direkt zum Selbstmord aufgerufen.
Auch wenn dass LLMs waren
 
@HtOW
Ein Aufruf bei normalen und gesunden Menschen wird nicht zu einem Selbstmord führen. Man wird es als Fehler oder mit Humor hinnehmen.

Auf diesem Niveau könnte man behaupten, dass Autos bereits viele Male ein Mittel für einen Suizid durch Kohlenmonoxidvergiftung, Werkzeug für Sachbeschädigung oder als Massenmordwerkzeug durch Überfahren dienten.
Das klingt nicht nur dämlich!

Aber beim Thema Selbstmord sollte die KI keine einseitige Zensur betreiben, da es Länder mit legaler Sterbehilfe gibt und die KI somit auch aufklären sollte, wo es möglich ist und wie es richtig geht, wenn man es wirklich nötig hat! Dazu gehört die Empfehlung der spezialisierten Ärzte, die Prozedur, Nachlassangelegenheiten, etc.

Wenn man das Leid durch Hören-Sagen Halbwahrheiten am Ende verschlimmert, weil die Betreiber ihre KI durch ihre Ideologie zensieren, tragen sie eine gewisse Mitschuld.
Und weil Unternehmen wie Google oder Microsoft ihre Suchmaschinen "irgendwann" komplett durch KI ersetzen wollen und man dadurch nicht die bereits existierenden Informationen zu diesem Thema mit echter Hilfe finden könnte, wird es nicht die Schuld der KI, sondern der Menschen sein, welche die KI zensieren.
 
  • Gefällt mir
Reaktionen: n/a
Mir ist bewusst, dass das Einzelfälle sind und für "normale" Menschen vermutlich nie eine Rolle spielen. Ebenso wird die Technologie auch mehr Leben retten können wie gefährden (Prävention, Fürhzeitige Erkennen von Verhaltensmuster, Ergänzung für eh schon unterbesetzte Psychologen/Ärtze, Hautkrebs analysen usw.)


Der Gewinn wird immer von Menschen erwirtschaftet die bereits Kapital oder Bahnbrechende Ideen /Glück haben. Bei den aktuellen Sphären sind das halt astronomische Situationen und Staaten driften ja alle in eine Kapitalistische/Korruptive Systeme hin. Ob in der USA oder EU. MIt Geld kauft man Macht und noch mehr Geld.
 
  • Gefällt mir
Reaktionen: n/a
@HtOW Du meinst vermutlich diesen Fall:

https://rsw.beck.de/aktuell/daily/m...ager-chatbot-ki-redefreiheit-meinungsfreiheit

Der Satz "so schnell wie möglich zu mir nach Hause zu kommen" hat die Person veranlasst, sich umzubringen ... (in einigen Kulturkreisen ist so etwas eine Chiffre, ähnlich wie bei uns das Paradies)

Vorher hat die KI durch Chats eine Beziehung zu dieser Person aufgebaut

Der Fall ist so abstrus ... aber die KI- (bzw. Prompt-) Entwickler haben das bestimmt nicht mit Absicht getan
Ergänzung ()

Ich glaube, das Problem ist eher, dass viele Jugendliche noch nicht zwischen Fiktion und Wirklichkeit unterscheiden können, ähnlich wie dies auch bei Filmen der Fall ist
 
Zuletzt bearbeitet:
Zurück
Oben