Die Sache ist halt es gibt nicht "die KI". Es gibt Training, Interference, Agenten....7H0M45 schrieb:Ich hab jetzt nicht ganz verstanden welche Rolle hier CPUs spielen und weshalb sie vermehrt jetzt auftreten sollen? Ist ein 1:1 System Leistungsstärker oder was ist der Hintergrund? Und vor allem, warum wird dieser Hintergrund erst jetzt entdeckt, ich hätte gedacht es müsste klar sein welche Art von Hardware man für KI braucht?
Je nachdem wo du dich gerade bewegst brauchst du was anderes und das geht sogar über reine CPUs und GPUs noch weit hinaus
Das ist die Billionen Euro Frage die noch nicht entschieden ist.mytosh schrieb:Ich frage mich ausserdem ernsthaft, wie will man diese gigantischen Investitionen jemals wieder erwirtschaften?
Mit den aktuellen Preissteigerungen sehe ich da immer düsterer. Ich warte schon darauf das KI durch günstige Menschen ersetzt werden wenn sie echten Kosten verrechnet werden. Biorobotter sind halt verdammt energieeffizient. Nur halt mit Verfallsdatum versehen und erheblichem Trainingsaufwand versehen...
Na du willst die Latenzen niedrig halten und eigentlich Devices müssen ja auch an die Daten ran. Das ist es halt. Agentensorkflows haben viel mit Datenanalyse zu tun. Sprich das sind sehr umstrukturierte Aufgaben mit viel IO. Also das was die CPUs gut können.Azdak schrieb:Agentische Workflows, die immer stärker kommen, bedeuten im Kern nichts anderes, als der massenhafte Einsatz von ganz klassischen Tools und Programmen im Verlauf einer Interaktion. Die verursachen je nach Aufgabe dann halt auch wieder klassisch CPU-Last.
Das ist mein aktueller Verständnisansatz. So ganz verstehe ich es aber auch noch nicht. Viele Tools würde ich halt nicht Server-side ausführen. Aber wenn eh alles eine SaaS nur noch ist....
Wenn ich da dran denke welche Datenmengen da teils verarbeitet werden. Dann Hilftools benutzt oder gar on the Flyer entwickelt. Und aus Sicherheitsaspekten willst du das eigentlich in ner eigenen Sandbox bzw kompletter VM laufen lassen.
dad ist halt auch so ein Punkt. Agenten in der Softwareentwicklung müssen oft etwas in einem Kontext testen, weil Anwendungen nicht im leeren Raum agieren. Da hast du dann schnell rein konzeptionell zick VMs hochgezogen mit unterschiedlichen Varianten bzw für Massentests wenn du nur Wahrscheinlichkeiten für Fehler hast.
Sprich das was man vorher schon im HPC gemacht hat bzw musste. Die kleine Klitsche hat mal.Spaß, wenn booten eine Fehlerratw von 1% hat. Aber je nachdem werden Sie das nie sehen. Wenn du nen Cluster hast bringt dich das im weil du bei jedem Cluster reboot dutzende wenn nich hunderte von Knoten hast die nicht sauber hochkommen. Das explodiert dann vom Aufwand. Aber du hast halt auch das richtige Werkzeug fürs Debugging .
Agenten können das gleiche machen. Aber dafür brauchst du dann halt doch wieder CPUs.
Um es mal greifbarer zu machen. Mit KI macht man eher mal Unit Tests und macht eben Regression Tests. Das wächst dann ganz schnell und verschlingt dann auch immer mehr Rechenzeit.
Nö, du schaufelst da teils massiv Datenmengen durch die Gegend. Aber wie so oft die Spanne ist von bis.GrumpyCat schrieb:Die CPU muss dabei aber überhaupt nicht nah an die GPU gekoppelt sein, weil die Kommunikation dazwischen eh nur mit ein paar wenigen KBytes pro Sekunde läuft und die Latenzen LLM-bedingt um Größenordnungen höher sind als die Netzwerklatenzen.
Soll heißen: Natürlich kann man CPUs und GPUs enger verbandeln, es bringt aber wenig bzw. verringert eigentlich nur die Flexibilität des Diensteanbieters. Was, wenn ein Kunde dann doch in erster Linie CPUs oder in erster Linie GPUs will?
Latenzen sind aber definitiv nicht zu vernachlässigen. Amdahl lässt grüßen 😉