Snakeeater
Captain
- Registriert
- Aug. 2004
- Beiträge
- 3.083
Jesus Maria, nimm es nicht persönlich aber der KI Hype ist dir etwas zu Kopf gestiegen.lynx007 schrieb:Weil spätestens die Energie Endlich ist, zugleich die Anforderung von Tokens Expotenziel zunehmen. Sprich du kannst das nicht mehr einfach nur ausskalieren.... weil doppelt soviel Datencenter nicht mehr doppelt so gutes ergebnis bedeutetn... sonder im schlimmstenfall nur deine kosten vervielfacht.
Wunderschönes VIdeo dazu vom Lederjackenträger selber! Der vieles was TPU, Datencenter, AI gut einordnet. Ganz wichtig, indeinem kontext TCO!
TCO steht für Total Cost of Ownership (Gesamtkosten des Betriebs). Ist jetzt nicht ganz leichte kost! Ich empfehle jedem der kein BWL hatte, sich nebenbei nen tranlator und wiki auf zu machen, weil dort schon sehr viele wichtige Acronyme rumfliegen.... Superspandendes Video für AI Fans, insbesondere die Kaufleute untereuch. Wen einem AI, aber auch das ganze Eco zeug interessiert drum herum, ganz klare Pflicht und 10/10! Auch and das CB Team! @Andy Weil das viele Sachen bringt, die vor der realisierung statt finden und die man oft als User garnicht auf dem Schirm hat. Mann muss es nicht gesehen haben. Aber man versteht, AI Thema AI geil findet, auf jedenfall sehenswert auf "watch later" zu speichern.
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Aber vorsicht" AMD Fanboys, NV Hater", dannach war Huang direkt mir sympatischer.... ist natürlich auch der Sinn von so ein Videos.Also wer die Geschichte von Huang, als Looser und Underdog nicht kennt, könnte ein Problem bekommen! ALso nur kucken wen ihr kein Problm mit BWL Acronymen habt und dem risiko das eure Feindbild risse bekommen könnte.
Der Zweite Punkt, welcher automatismus? Du musst doch dne Fehler finden, um sicher zustellen das auch der Automatismus fehlerfrei ist! Merkst du was? Stichwort Kontrolle! Skynet kann nur verhindert werden, wen wir nicht die kontrolle verlieren.... wen du also ein tool entwickelst, das fehler beseitigt, ohne garantieren zu können das es fehler frei ist, wie willst du gewährleisten das es zuverlässig funktioniert? Sprich du hast nen paradoxon....
Viele davon ist Grundlagen vorschung... aber das was du beschreibst... agent, prüft agent, der prüft agent.... ja, und hinten knallen wir Atomkraftwerke dran... ja, auf kamm schon so mancher... aber das ist genau der punkt wo die klügsten der klügsten, die nicht bei den AI firmen arbeiten, zweifel haben das sich das ausskalieren läst....
Ich finde das super spannend. Aber es ist auch sehr hyperabstrakt. Gerade die Frage, wie gewährleiste ich das sowas wie Skynet nicht passiert, wen so etwas wie in diesem Video realität ist nur mit weniger Humor, und keiner hat ahnung warum das bis dahin super funktioniert hat, und dannach nicht mehr....
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Nein, wir müssen Fehler finden.... Aber das Kernproblem ist, wie schliesen wir eine spezelle sorte von Fehler aus. Das ist ja schon konzeptionel Teil der Grundlagen vorschung. Erinnere dich an HitlerGrok... Oder dem FrauenFeindlichen GPT.... super spannend auf jeden falll. auch weil die Klügsten der Klügsten AI Forscher eben daran zweifeln das man die probleme einfahc ausskalieren kann, zugleich die selben sind die sage AI könnte uns auslöschen. Vieleicht ist nichtmal das Atom der Grund warum wir keine Aliens sheen. Sondern eine AI die den heimatplanten in eine RubicCube Verwandelt und bei Erfolg abschaltet.![]()
Ergänzung ()
Find ich total legitim die Aussage, habe den Artikel nicht gelesen.wildfly schrieb:Angesichts des rasanten technologischen Wandels forderte der Bundesdigitalminister Karsten Wildberger (CDU) insgesamt mehr Flexibilität von Bürgerinnen und Bürgern. Die Vorstellung, einen Job über Jahrzehnte unverändert auszuüben, sei vorbei.
https://www.tagesschau.de/inland/innenpolitik/wildberger-ki-jobs-100.html
Ergänzung ()
Find ich total legitim die Aussage, habe den Artikel nicht gelesen.wildfly schrieb:Angesichts des rasanten technologischen Wandels forderte der Bundesdigitalminister Karsten Wildberger (CDU) insgesamt mehr Flexibilität von Bürgerinnen und Bürgern. Die Vorstellung, einen Job über Jahrzehnte unverändert auszuüben, sei vorbei.
https://www.tagesschau.de/inland/innenpolitik/wildberger-ki-jobs-100.html
Linux, lokale LLMs, Mistral. Alle deine Probleme gelöst.chillipepper schrieb:Da kann ich nur vermuten, dass KI möglicherweise vielen immer mehr auf den Sack geht.
Miese Qualität der Ergebnisse, mit Intelligenz hat das oft wenig gemein und natürlich auch viele Dinge in diesem Umfeld, die extrem stören oder nachdenklich machen:
1. Einfach overhyped. KI ist langsam überall drin, egal, ob man es dort braucht oder nicht, nervt kolossal.
2. Immenser Energieverbrauch durch dafür benötigte Rechenzentren
3. Integration in Betriebssysteme, Impact auf Datenschutz und Privatsphäre (Copilot, Recall)
4. Abartige Verteuerung im Bereich von Computerhardware nur wegen dem KI-Scheiß.
5. Die nächste Abofalle...
Letzten Endes ist es immer wieder das Gleiche, egal welcher Anbieter.
Darum macht auch die Beteiligung an solchen Themen einfach keinen Spaß mehr.
Interessiert doch ohnehin kein Schwein, was darüber gesagt wird.
Die Industrie führt das einfach über unsere Köpfe hinweg ein und basta.
Und die überwiegende Zahl der Anwender lässt sich ohnehin gerne verarschen. Gib ihnen ein Spielzeug und sie werden es nutzen. Ob es Windows 11, Software per Abo oder KI ist. Alles wird ohne nachzudenken bedenkenlos genutzt.
Worüber also noch lange darüber schreiben und nachher mit zig Leuten endlose und meist unerfreuliche Diskussionen an der Backe zu haben, denen man sich nur durch ein valides "ignore" entziehen kann?
Ferner hinken Rechtsnormen/Gesetze (Datenschutz etc.) ohnehin der Technik hinterher.
Auch frustrierend: Diese ganzen Technologien kommen aus den USA. Da kannst Du so etwas wie Datenschutz ohnehin vergessen, gerade auch jetzt mit so einem totalitären Trump.
"Susi sorglos" und "rosarote Brille" liegen momentan einfach zu stark im Trend.
Es gibt nutzbringende KI Anwendungen, ohne jeden Zweifel. Momentan befürchte ich eher, dass die KI Kapazitäten einfach blind aufgerüstet werden und durch KI Abfragen und mangelnden Datenschutz zu viel von unserer Privatsphäre durchleaked und wir auf dem Weg zum gläsernen Menschen sind.
Zudem besteht auch noch die Gefahr von Manipulation von Menschen durch KI-Services, wenn die KI‑Glaubigkeit weiter voranschreitet, und das wird es in zunehmendem Maße.
Wer Daten und Algorithmen beherrscht, der kann letzten Endes alles zu seinem Vorteil verbiegen.
Die allergrößte Angst habe ich davor, dass KI Dienste für autonome Waffensysteme eingesetzt werden könnten. KI gesteuerte Drohnen, vielleicht auch autonome bewaffnete Fahrzeuge oder gar Kampfroboter.
Sobald die Technik soweit ist, wird das auch geschehen.
Das ist doch jetzt schon so sicher wie das Amen in der Kirche, wenn nicht langsam mal Vernunft einkehrt, was ok und was nicht ok ist.
Zuletzt bearbeitet: