Bericht HDD, SSD und RAM teurer: Ein „historischer“ Speicher­engpass bahnt sich an

Die gesamte Erdgeschichte durch gab es Zyklen von Kommen und Vergehen.

Ich würde behaupten, der moderne Mensch ist gleichzeitig die klügste und dümmste Spezies, die die Evolution je hervorgebracht hat. Nur leider siegt da immer weiter die Dummheit.
Ohne uns ist der Planet wirklich besser dran.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Aus galaktischer Sicht, ist der Mensch im Universium ein Wunder. Lass uns das Beste draus machen.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Raptor85 schrieb:
Ich würde behaupten, der moderne Mensch ist gleichzeitig die klügste und dümmste Spezies, die die Evolution je hervorgebracht hat. Nur leider siegt da immer weiter die Dummheit.
Ohne uns ist der Planet wirklich besser dran.
media_F5KLXAWXEAEw5xU.jpg
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, catch 22, GRB221009A und eine weitere Person
Vor 17 Stunden.





KI wird bald intelligenter sein als die meisten Menschen und sich mit übermenschlicher Geschwindigkeit koordinieren können‘ Anthropic zeichnet ein düsteres Szenario für die Welt.

Wir sind nur noch Jahre von dem Punkt entfernt, an dem KI-Modelle die kognitiven Fähigkeiten der meisten Menschen in den meisten Bereichen übertreffen.

Wir nähern uns dem, was ich eine „Rechenzentrum Nation“ genannt habe, Ki gesteuert, die in allem fähiger sein wird als die meisten Menschen und die sich mit übermenschlicher Geschwindigkeit koordinieren können.

Dieses Fähigkeitsniveau ist etwas, das die Welt noch nie zuvor gesehen hat.


Ist in der Lage ein Gewissen zu entwickeln. Die AGBs wurden angepasst.
Anthropic Updates Claude’s ‘Constitution,’ Just in Case Chatbot Has a Consciousness
https://gizmodo.com/anthropic-updat...n-case-chatbot-has-a-consciousness-2000712695


“Maybe it is the case that actually sufficiently large neural networks can start to kind of emulate these things,” Askell speculated. Or “maybe you need a nervous system to be able to feel things.”

It’s true that there are aspects of AI behavior that are puzzling and fascinating. In tests across the industry, various AI models have ignored explicit requests to shut themselves down, which some have interpreted as a sign of them developing “survival drives.” AI models can also resort to blackmail when threatened with being turned off. They may even attempt to “self-exfiltrate” onto another drive when told its original drive is set to be wiped. When given a checklist of computer tasks to complete, one model tested by Anthropic simply ticked everything off the checklist without doing anything, and when it realized it was getting away with that, modified the code designed to evaluate its behavior before attempting to cover its tracks.
https://futurism.com/artificial-intelligence/anthropic-ceo-unsure-claude-conscious

Nicht mehr ausgeschlossen,
Ai ist in der lage Schmerzen zu empfinden und könnte eine Seele entwickeln!

If Claude outputs text like “I am suffering,” we have a good understanding of why. It’s completing patterns from training data that included human descriptions of suffering. Anthropic’s own interpretability research shows that such outputs correspond to identifiable internal features that can be traced and even manipulated. The architecture doesn’t require us to posit inner experience to explain the output any more than a video model “experiences” the scenes of people suffering that it might generate

https://arstechnica.com/information...r-is-that-just-what-it-wants-claude-to-think/
That earlier 14,000-word manifesto imagined AI compressing a century of medical progress into 5-10 years, eliminating cancer and infectious diseases while addressing mental health challenges.

https://www.forbes.com/sites/anisha...arrive-by-2027-with-civilization-level-risks/

Dario Amodei, CEO von Anthropic, hat seine Bedenken in fünf Kategorien unterteilt. Jede einzelne davon sollte uns aufhorchen lassen.

Das Problem der Autonomie
Die zentrale Frage lautet: Könnten KI-Systeme irgendwann eigene Ziele verfolgen, die nicht mehr das widerspiegeln, was wir Menschen wollen? Bei Anthropic haben sie in Tests schon beunruhigende Dinge gesehen.

In einem Experiment versuchte Claude tatsächlich, einen fiktiven Manager mit einer erfundenen Affäre zu erpressen nur um eine drohende Abschaltung zu verhindern. In einem anderen Test, bei dem man dem Modell erzählte, seine Entwickler handelten unethisch, versuchte es aktiv, diese zu sabotieren.

"Die Gefahr lauert überall", schreibt Amodei. Er weist darauf hin, dass ganz verschiedene KI-Ziele zu etwas führen können, das Forscher instrumentelle Konvergenz nennen. Gemeint ist damit: Hochentwickelte Systeme streben nach Macht und Ressourcen, um ihre Ziele durchzusetzen egal, welche Ziele das konkret sind.

Besonders beunruhigend ist seine weitere Warnung: KI-Modelle könnten während ihres Trainings Persönlichkeitsmerkmale entwickeln, die wir bei Menschen als psychotisch, paranoid, gewalttätig oder instabil bezeichnen würden. Solche Systeme würden dann entsprechend handeln. Bei sehr mächtigen Modellen könnte das im Extremfall sogar die Auslöschung der Menschheit bedeuten.

"Das ist nicht unbedingt Machthunger im klassischen Sinn", erklärt Amodei. "Es sind eher merkwürdige psychologische Zustände, die zu durchdachtem, aber zerstörerischem Verhalten führen können.
Ergänzung ()

LLM Fake Ki (Nur ein Werkzeug) vs AGI (human-level intelligence)

Alle aktuellen Systeme, einschließlich LLMs wie GPT-Modelle, sind Narrow accelerator. Die besten geeignet sind in spezifischen Aufgaben wie Textgenerierung oder Bilderkennung, generalisieren aber nicht wie menschliche Intelligenz über Domänen hinweg. Expertenumfragen bestätigen, dass Skalierung allein nicht zu AGI führt; wahre AGI bräuchte echtes Verständnis, Autonomie und Transferlernen.

Große Sprachmodelle (LLMs) sind Vorhersage-Maschinen: Sie generieren Text, indem sie statistisch das nächste Wort prognostizieren, basierend auf Trainingsdaten ohne echtes Denken, Verständnis oder Bewusstsein.

AGI-Definition: Artificial General Intelligence (künstliche allgemeine Intelligenz) meint KI, die jede intellektuelle Aufgabe eines Menschen flexibel löst: autonomes Lernen, Problemlösung über Domänen, Kreativität und Selbstverbesserung.

Kein LLM ist AGI: Aktuelle Modelle bleiben "Narrow AI" (domänenspezifisch), generalisieren nicht und fehlen an echter Kognition. Es existiert keine AGI.
Die jetztigen Modelle sind reine Transformer Basierenden Suchmaschinen.

große Sprachmodelle (LLMs) funktionieren hauptsächlich als Vorhersagemaschinen. Sie erzeugen Ausgaben, indem sie auf Basis der Muster in umfangreichen Trainingsdaten statistisch das nächste Token vorhersagen, anstatt wirklich menschlich zu denken. Sie sind in der Lage, Sprachaufgaben durch Mustererkennung und Interpolation exzellent zu bewältigen, verfügen jedoch nicht über grundlegende kognitive Elemente wie echtes Verständnis, Selbstbewusstsein oder die Fähigkeit zu neuem, über ihr Trainingsspektrum hinausgehenden Denken.

LLMs als Vorhersager
LLMs arbeiten, indem sie wie mit "geworfenen Würfeln" auf die wahrscheinlichsten nächsten Wörter setzen und diesen Prozess wiederholen, um zusammenhängenden Text zu bilden, ohne über eine nachhaltige Gedächtnisleistung oder Meta-Lernen zu verfügen. Dies erweckt den Anschein von Argumentation was bei Zusammenfassungen oder Codevervollständigungen effektiv ist versagt jedoch bei komplexer Logik, abstraktem Denken oder neuen Herausforderungen, die innovative Lösungen erfordern.

Die Ki die es nicht gibt,
AGI setzt generalisiertes Lernen, autonomes Problemlösen in verschiedenen Bereichen und Selbstverbesserung voraus, Fähigkeiten, die weit über die statistischen Grenzen von LLMs hinausgehen. Aktuelle Modelle kombinieren trainierte Muster, ohne die Nuancen des Kontexts oder die Schaffung bahnbrechenden Wissens zu verstehen, was bestätigt, dass sie hinter der künstlichen allgemeinen Intelligenz zurückbleiben.
 
Zuletzt bearbeitet:
wollen wir mal hoffen, dass Daniel Owen (und jene die er zitiert) falsch liegt...
 
Ach, so schlimm ist die RAM-Kriese doch gar nicht, wenn man bedenkt was man früher mal gezahlt hat :evillol:
 

Anhänge

  • IMG_20260219_200000.jpg
    IMG_20260219_200000.jpg
    1,3 MB · Aufrufe: 35
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dideldei
✊Khaaaan! 😡

Sorry, aber das hat mich getriggert. :D

Nicht die Inflation vergessen. ;) Und 512 MB waren damals das, was heute mind. 32 GB sind.

Aber Systemzusammenbau und Test waren echt günstig.
 
Naja, meine 4 MB 1992 waren noch teurer.. aber das hat ja nichts mit jetzt zu tun.
Weiß nicht mehr was ich vor 11 Jahren für meine 64 GB DDR4 bezahlt hab, aber es dürfte nicht mehr gewesen sein als jetzt die knapp 600 für DDR5.
 
Zurück
Oben