News Experiment von Anthropic: Wie ein KI-Modell beim Betrieb eines Verkaufsautomaten scheitert

SuperHeinz schrieb:
Gott erschuf den Menschen nach seinem Ebenbild. Wer meint, Gott sei ein Trottel, nennt sich selbst einen Trottel.
Ja. und? Ein wenig selbstreflexion tut uns doch allen gut. Wir sind alle Trottel. So wie die KIs auch. Nur die Anzahl der Vorfälle ist bei uns noch meist ne Spur besser als bei der KI.
 
  • Gefällt mir
Reaktionen: Solavidos und Slim.Shady
DerFahnder schrieb:
Leute glauben, dass wir mit dieser Technik eine Art Gott erschaffen können, der alle Probleme lösen wird und dann stellt sich raus, dass es doch nur ein psychisch instabiler Trottel ist.

Vergleiche KI mit dem Stand von vor zwei Jahren. Es gab riesige Entwicklungsspruenge in der Richtung.
Ergänzung ()

-Stealth- schrieb:
Denke eine KI kann niemals allwissend werden,
maximal nur auf menschliches Wissen begrenzt,
Wissen über die Unsichtbare Welt
und die Ewigkeit,
ist hauptsächlich nur durch
die Bibel zu erlangen.

Und Wissen ist nicht gleich Weisheit,

Sprüche 9:10: "Die Furcht des HERRN ist der Anfang der Weisheit, und die Erkenntnis des Heiligen ist Einsicht.".

Denke auch jemand mit 10 Professorentiteln
weiß zwar unheimlich viel,
aber wenn er Gott ausklammert,
fehlt ihm der Grundstein,
bzw. das Basiswissen um unsere Existenz vollkommen zu erfassen (wenn das Fundament falsch ist,
können manche Schlußfolgerungen kaum der Wahrheit entsprechen).

Aber das meine Aussage nicht falsch verstanden wird,
muß ich aber dringend noch ergänzen,
das Gott ein Gott der Liebe ist,
Gott liebt absolut,
weit mehr als wir es je könnten.

WTF
 
  • Gefällt mir
Reaktionen: Spliffy83
Die typischen Fehler: Die KI soll möglichst alles machen. Das klappt natürlich nicht und wird es auch in naher Zukunft auch nicht.
Es sind einfach zu komplexe Vorgänge für eine Maschine. KI kann nur für einfachere und abeschlossene Tätigkeiten eingesetzt werden, wie an einer Kasse oder First-level in einem Callcenter.
 
Wenn man mal so bissl in die Zukunft schaut...was passiert mit einer Gesellschaft, in der AI/Maschinen alles tun können...unsere heutige Kaufkraft basiert fast ausschließlich auf Erwerbsarbeit (mit Ausnahmen wie Erben, Kapitalbesitz etc.)..wenn aber die breite Masse keine Jobs mehr hat...woher soll dann ihre Kaufkraft kommen?

Wie wollen Unternehmen überhaupt noch Gewinne erzielen, wenn ein Großteil der Bevölkerung schlicht kein Geld mehr zum Ausgeben hat? Wie verdienen Firmen Geld und was soll aus den ganzen unnützen Menschen werden...Ballast? Störfaktor? Kostenfaktoren?

Naheliegende Lösung wäre so etwas wie Feudalismus 2.0...Leibeigenschaft...so könnte man noch ein wenig Zeit überbrücken...

Spannende Zeiten...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai, sikarr, dersuperpro1337 und 2 andere
Warhorstl schrieb:
geschwalle einer bibel ki ist meine vermutung.

offensichtlich ist dass die integration von ki in die gesellschaft (arbeitsplätze, urheberrecht, generelle akzeptanz) gut überlegt sein muss weil sonst ist schluss mit gesellschaft...aber das verkauft sich gar nicht gut. irgendwas "10x roi ai ai preorder now" geht viel besser.


Was soll aus den ganzen unnützen Menschen werden?
sind dann unnützer ballast, kann weg.
ki versorgt sich dann selbst bis irgendwas einmal haluziniert und das ganze ding heißläuft.
vorher gibts noch ein paar unfriedliche auseinandersetzungen.
/s?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai
KI ist leider eben noch ziemlich gehyped...
 
  • Gefällt mir
Reaktionen: sikarr und Snapuman
CPUinside schrieb:
geschwalle einer bibel ki ist meine vermutung.

offensichtlich ist dass die integration von ki in die gesellschaft (arbeitsplätze, urheberrecht, generelle akzeptanz) gut überlegt sein muss weil sonst ist schluss mit gesellschaft...aber das verkauft sich gar nicht gut. irgendwas "10x roi ai ai preorder now" geht viel besser.



sind dann unnützer ballast, kann weg.
ki versorgt sich dann selbst bis irgendwas einmal haluziniert und das ganze ding heißläuft.
vorher gibts noch ein paar unfriedliche auseinandersetzungen.
/s?
und ohne Sarkasmus?
 
So sieht es aus, wenn aus reiner Profitgier Erwartungen an KI geschürt werden, die mit dem aktuellen Stand der Technik schlicht nicht erfüllt werden können.

Im Alltag zeigt sich das ständig: Einfache Routineaufgaben – etwa Übersetzungen – klappen manchmal passabel, aber längst nicht zuverlässig. Gerade kürzlich waren die Ergebnisse wieder dermaßen fehlerhaft, dass man sich fremdschämen musste. Und das Muster ist immer gleich: Wird die KI mit ihren Fehlern konfrontiert, lenkt sie sofort ein und räumt ein, falsche Ergebnisse geliefert zu haben – ganz gleich, welche Qualitätsvorgaben man ihr vorab mitgibt.

Das Grundproblem bleibt: Es werden viel zu viele falsche oder unpräzise Antworten erzeugt – logisch, wenn schon die Trainingsdaten unzureichend oder unsauber selektiert sind. Wie beim Audio-Recording gilt: Shit in, shit out.

Wer das ernsthaft als Lösung für alltägliche Kommunikation oder Informationsgewinnung verkauft, verkennt die Realität. Es ist schlicht unverantwortlich, wie viel Kapital und Energie derzeit in Systeme investiert wird, deren praktische Tauglichkeit erwiesenermaßen nicht gegeben ist – während gleichzeitig suggeriert wird, dass sie uns produktiver oder „smarter“ machen. In Wahrheit droht das Gegenteil: unser eigenes / kritisches Denken wird garantiert verkümmert. Dafür gibt es genügend Beispiele: übermäßige Nutzung von Taschenrechnern an Stelle von Kopfrechnen, Verwendung von Navigationssystemen, Übersetzungssystemen, etc.

KI hat sehr wohl Potenzial – aber nur dort, wo sie mit klar abgegrenzten, validierten Daten arbeitet: in der medizinischen Forschung, bei Simulationen, in der Bildanalyse. Dort kann sie echten Mehrwert liefern.

Aber nicht als massentaugliches Allzweckwerkzeug, das auf Basis ungeprüfter Massendaten Ergebnisse generiert, die nur vordergründig plausibel wirken, inhaltlich aber oft danebenliegen. Genau das ist meines Erachtens der derzeitige Irrweg.

Und als Daddelwerkzeug oder zum Erzeugen von generiertem/Fake-Medien Content ist einfach der Energieverbrauch zu hoch. Wir haben schon genügend Probleme mit dem Klima. Da muss man nicht noch mehr Rechenzentren für KI hochziehen.

EDIT: hier sieht man, wie sich das auf Jobs auswirkt:
https://www.computerbase.de/news/wi...n-us-dollar-bei-callcentern-eingespart.93467/

Und .. was wollen wir später irgendwann noch tun, wenn alles KI gesteuert ist? Dann ist man irgendwann nur noch dem Bullshit der KI-Algorithmen ausgeliefert, man kann nicht mehr versuchen, vernünftig mit seinem Gegenüber zu reden und zu verhandeln. Der Spielraum für uns wird immer kleiner.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Nuon, Bademeister69 und 3 andere
Für Wohlstand braucht man IMMER jemanden der unter einem steht und die Arbeit verrichtet.
Man erhofft sich, das KI/Roboter diese Arbeit machen werden.

Nur brauchen Menschen aktuell noch Arbeit um Geld zu verdienen.
Das Problem wird sein, dass die großen Firmen Menschen ersetzen werden ohne zum allgemeinen Wohlstand beizutragen. Sie werden nur für sich wirtschaften und damit geht die Schere zwischen Arm und Reich immer weider auf. Die Reichen werden reicher UND nehmen noch die Möglichkeit für Arbeit den Armen weg.
 
  • Gefällt mir
Reaktionen: CPUinside, iron_monkey und dersuperpro1337
Ich sage nur: die ersten Autos und Flieger waren auch Mist und viele haben gelacht. Die KI verhält sich teils wie Menschen, also fehlerhaft.
Es braucht einfach noch ordentliches Learning mit guten Quellen (und weiterhin etwas Überwachung von einem Mensch der sich auch im Thema auskennt), dann kann die KI schon viele Aufgaben von solchen Jobs übernehmen.
 
  • Gefällt mir
Reaktionen: DNS81 und Knuddelbearli
tree-snake schrieb:
dann kann die KI schon viele Aufgaben von solchen Jobs übernehmen
Was macht Leute da so sicher?
Um mal Sagan zu zitieren:

Extraordinary claims require extraordinary evidence.

Wo sind die handfesten Beweise, dass A.I. so großartig wird wie immer gerne behauptet wird?
 
  • Gefällt mir
Reaktionen: Tevur
Honesty333 schrieb:
Leider wurde die Büchse der Pandora geöffnet. Aufhalten kann man den Mist wohl nicht mehr. Ich bin auch davon überzeugt, dass KI wesentlich mehr Arbeitsplätze vernichten wird, als sie jemals schaffen kann. Nicht ohne Grund sehen diverse Wissenschaftler die KI gefährlicher als eine Pandemie oder gar einen Atomkrieg an.
same here.

KI = Kein Interesse
 
  • Gefällt mir
Reaktionen: dersuperpro1337
0x8100 schrieb:
(...) der gleiche running gag wie bei der kernfusion?
Im Vergleich zur Kernfusion gibt es bei der KI schnellere sowie konkretere Verbesserungen.

Daher ist der Vergleich murks. Aber nice try.
 
PieczonyKurczak schrieb:
Im Vergleich zur Kernfusion gibt es bei der KI schnellere sowie konkretere Verbesserungen.
die grundlegenden probleme sind doch immer noch die gleichen, da glaube ich eher an die fusion.
 
  • Gefällt mir
Reaktionen: sikarr, Bademeister69, iron_monkey und 2 andere
iron_monkey schrieb:
t auch logisch, es gibt viele Menschen die sehr behütet aufwachsen und eine gute Bildung genießen und trozdem Spinner werden...
Ist schon kurios, ich sehe das gleiche Thema Toleranz. Es gibt viele Menschen, die wachsen in ziemlich toleranten Gesellschaften auf und schaffen es nicht selber tolerant zu sein.
Wenn Du religiöse Menschen für Spinner hälst, warum zeigst Du dann nicht Mitgefühl für ihre Unwissenheit? Stattdessen sie zu beleidigen zeugt lediglich von geistiger Armut, wie bei jeder Intoleranz und/oder Diskriminierung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Brrr
Immer wieder amüsant was eine Sammlung an Naivität man unter jeder News zu KI bekommt :lol:
 
  • Gefällt mir
Reaktionen: Snapuman und dersuperpro1337
Verstehe ich das richtig, die auf Sprache Trainierte KI, sollte ohne Buchhaltungssystem, CRM usw nur mit ein paar virtuellen Notizzetteln arbeiten? Das machen Menschen doch auch nicht, einen ähnlichen Test mit Hilfsystemen angepasst auf die Bedürfnisse einer KI fände ich interessant, oder ist das hier der Test um heraus zu finden wie diese Hilfestellung für KI aussehen müsste? Oder man trainiert direkt ein Model explizit für diesen Use Case...
 
  • Gefällt mir
Reaktionen: DNS81
Wie läuft das eigentlich ab, wenn man zum Training das Internet heranzieht?

Wie werden die Milliarden an Informationen gefiltert, Müll entsorgt, auf Wahrheit bzw. wissenschaftlichen Bestand geprüft usw.? Gibts da überhaupt irgendwelche internationalen Vorgaben? Oder ist das alles Wildwuchs der US - Konzerne?

Mich wundert dieses Verhalten in keinster Weise bei dem theoretischen Input. Man müsste dazu dann schon den ganzen für den Betrieb unnötigen Müll / Fehlinformationen aus dem Modell entfernen, damit der Fokus bei der relevanten Handlung bleibt.

Dieses KI - Beispiel sollte weder etwas über die Simpsons noch über einen Aprilscherz "wissen". Wozu braucht diese KI diesen Input? Die Aufgabe nennt sich Verkaufsautomat. Nicht mehr und nicht weniger.
 
Zuletzt bearbeitet von einem Moderator:
@Ringträger im ersten schritt geht es nur darum dem Model Grammatik bzw Sprache zu vermitteln und dafür braucht man extrem viel Text, das anpassen auf die relevanten Handlungen wäre dann Fine Tuning. Aber man möchte Ja AGI haben nicht 100 Fach Modelle...
Ergänzung ()

-Stealth- schrieb:
Denke eine KI kann niemals allwissend werden,
maximal nur auf menschliches Wissen begrenzt,
Ein Model zum Falten von Proteinen schafft es ohne Probleme das menschliche Wissen in diesem Bereich zum Trainingszeitpunkt zu übertreffen siehe Alphafold. Und zum Rest deines Posts, Alphafold "spielt" mit den Bausteinen aus denen Gott unseren Weltlichen Teil gebaut hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sikarr, Hutzelbart und iron_monkey
Zurück
Oben