News Nvidia, Telekom, SAP: Deutsche KI-Cloud mit 10.000 GPUs geht Anfang 2026 online

Was für ein lächerlicher Scheiss der Hoettges tritt immer auf wie ein möchte gern Steve Jobs. 10.000 gpus sind das cloud equivalent von ner 1070 in nem heutigen gaming PC.
 
  • Gefällt mir
Reaktionen: viva la visi
Ich werde nicht zitieren, sondern nur einige Punkte rausgreifen die häufiger mal genannt wurden.

LLMs liegen bei Fakten oft falsch:

Stimmt. Das liegt aber auch daran, das LLMs nie dafür gebaut wurden eine abfragbare Wissenshalde zu sein. LLMs wurden in erster Linie dafür gebaut, natürliche Sprachen zu verstehen und deren Netz wurde halt dazu mit zahlreichen Texten (etc.) trainiert. Mit den Texten und der Sprache kam dann natürlich auch das enthaltene Wissen mit in die Modelle. Aber das ist eher nur ein Nebeneffekt.
(wenngleich es auch viele kommerzielle Anbieter nicht davon abhält das als Suchmaschine zu nutzen, meist dann in Kombination mit klassischen Suchmaschinverfahren).

LLMs haben keinen echten Mehrwert (und Kosten aber viel):

LLMs haben einen Mehrwert. Und selbst wenn man jetzt sagt: "Was die ausspucken kommt aber nicht an das ran, was ein guter Mitarbeiter liefert". Stimmt. Aber oftmals kommt es ja auch gar nicht auf hohe Qualität an. Ich sag jetzt mal plakativ: Ein BILD-Zeitungsartikel war schon vorher qualitativ unterirdisch. Da verschlechtert auch die LLMs nicht.

Für alle anderen gilt: LLM soll nicht den Mitarbeiter vollständig ersetzen. Sie sind aber gut darin, den Boilerplate-Anteil der Arbeit zu machen.
Kurz gesagt: Es ist nicht mein Experte den ich frage, sondern mein Praktikant, dem ich Aufgaben gebe, um mehr Zeit für die Dinge zu haben, die mein originäres Können erfordern.

Ob sich das Refinanzieren lässt, muss man gucken. Im Augenblick sieht man natürlich auf der Investitionsseite viel mehr als auf der Einkommensseite. Das ist aber insbesondere im Technologiebereich nicht ungewöhnlich.

Energieverbrauch und Umweltaspekt:

Der ist nicht schön. Da braucht man auch gar nicht drum herum zu reden. Selbst wenn man sagt, man nimmt Solar etc: Wenn man vom Solarstrom was weg nimmt, fehlt der dafür anderswo wo dann irgendwie noch ein Kohlekraftwerk läuft. Das ist zwar jetzt ein wenig vereinfacht, aber im Prinzip ist das so. Solange wir nicht bei 100% Erneuerbar ist, gehts irgendwo direkt oder indirekt immer auf Kosten der CO2-Bilanz. Das Thema Energiebedarf ist also nach wie vor schwierig.
Hinzu kommen der Ressourcenverbrauch, der ja auch mit in eine Umweltbetrachtung gehört.

Der genannte Lösungsansatz mit kleinen und spezialisierten Modellen, die effizienter sind, könnte das Problem abmildern. Und auch die großen KI-Modelle und deren Betreiber machen das ja so. Weil für die Effizienz ja auch eine Kostenfrage ist. Und spätestens wenn nicht mehr so üppig Investitionsgeld fließt, wird der Druck in Richtung Effizienz auch höher werden.

Datenschutz:

Sehe ich auch als Problem. Allerdings haben die Firmen ja auch schon bisher kein Problem damit, im großen Stil fremde Clouds zu benutzen. Insofern ist da KI zu nutzen nur eine Fortsetzung des Trends und daher kein originäres KI Problem. Das heißt natürlich nicht, das man sich nicht damit auseinandersetzen sollte. Aber dann eben weiter gesteckt und nicht nur im KI-Kontext.
 
  • Gefällt mir
Reaktionen: Yosup
andy_m4 schrieb:
Wenn man vom Solarstrom was weg nimmt, fehlt der dafür anderswo wo dann irgendwie noch ein Kohlekraftwerk läuft. Das ist zwar jetzt ein wenig vereinfacht, aber im Prinzip ist das so. Solange wir nicht bei 100% Erneuerbar ist, gehts irgendwo direkt oder indirekt immer auf Kosten der CO2-Bilanz.
Deswegen zieht man idealerweise den tatsächlichen Energiemix heran. Entsprechend deppert ist die Aussage von Höttges, aber gut, Marketing/PR ist ja nix Neues.
 
@andy_m4 Genau der Punkt, dass LLMs für Dinge genutzt werden, für die sie nicht entwickelt wurden, widerspricht mM der "Praktikanten"-These. Der Praktikant lernt und macht am Ende des Praktikums zuverlässig seine Aufgaben. Die KI lernt zwar auch, erkennt ihre eigenen Fehler aber nicht - kann sie als voll deterministisches System auch gar nicht. Am Ende hat man dann einen Dauerpraktikanten, dem man andauernd auf die Finger schauen muss - und das schlimmste ist, er ist in der Cloud :D.
 
Boimler schrieb:
mM der "Praktikanten"-These
Die These war ja nicht, das es so benutzt wird, sondern idealerweise so benutzt werden sollte.
Das es häufig zu einem mis-use kommt, das sehe ich ja genauso.

Boimler schrieb:
Die KI lernt zwar auch, erkennt ihre eigenen Fehler aber nicht
Das mag sein. Aber sofern es trotzdem eine Arbeitserleichterung ist, ist es ein doofen Praktikanten zu haben immer noch besser als gar keinen zu haben.

Ansonsten: Ja. Ich will dieses "Praktikanten"-Ding auch nicht als 1:1 Analogie verstanden wissen. Es ging darum die grundsätzliche Richtung aufzuzeigen.
 
  • Gefällt mir
Reaktionen: Boimler
Warum glauben so viele, dass KI wieder verschwinden müsste, damit man vom "Platzen" der Blase sprechen kann? Das ist einfach nur eine Marktbereinigung, also Insolvenzen, Entlassungen und so. Je nachdem, wie groß das Ausmaß der Überschätzung der gehypten Technologie ist, kann sowas gesamtwirtschaftlich ernsthafte Folgen haben.Natürlich bleibt KI. Platzen wird die Blase trotzdem.
 
andy_m4 schrieb:
LLMs haben einen Mehrwert. Und selbst wenn man jetzt sagt: "Was die ausspucken kommt aber nicht an das ran, was ein guter Mitarbeiter liefert". Stimmt. Aber oftmals kommt es ja auch gar nicht auf hohe Qualität an. Ich sag jetzt mal plakativ: Ein BILD-Zeitungsartikel war schon vorher qualitativ unterirdisch. Da verschlechtert auch die LLMs nicht.
Das sind dann aber Bereiche wo es in erster Näherung einfach egal ist ob bullshit bei raus kommt. Für Horoskope schreiben ist ne LLM natürlich mega. Aber ist das an sich ernsthafte Arbeit über die wir reden wollen?

andy_m4 schrieb:
Für alle anderen gilt: LLM soll nicht den Mitarbeiter vollständig ersetzen. Sie sind aber gut darin, den Boilerplate-Anteil der Arbeit zu machen.
Kurz gesagt: Es ist nicht mein Experte den ich frage, sondern mein Praktikant, dem ich Aufgaben gebe, um mehr Zeit für die Dinge zu haben, die mein originäres Können erfordern.
Lol ne. Nen Praktikant macht einfach nur Mehrarbeit am Ende. Du musst/solltest die Zeit aber investieren damit du irgendwann auf jemand brauchbaren zurückgreifen kannst und nicht komplett mit leeren Händen dasteht.

andy_m4 schrieb:
Das mag sein. Aber sofern es trotzdem eine Arbeitserleichterung ist, ist es ein doofen Praktikanten zu haben immer noch besser als gar keinen zu haben.
Nein ich verzichte gerne auf einen Praktikanten wenn ich eh in Arbeit ersaufe...
 
Skysnake schrieb:
Aber ist das an sich ernsthafte Arbeit über die wir reden wollen?
Na zumindest lässt sich schlecht ausblenden, das es das gibt.
Und das kann man ja auch als Bullshit empfinden. Aber es gibt Bedarf daran.

Wobei es ja nicht nur darum geht.

Skysnake schrieb:
Lol ne. Nen Praktikant macht einfach nur Mehrarbeit am Ende.
Wie gesagt: Man sollte den Praktikantenvergleich nicht überstrapazieren.
Es ging mir dabei darum, KI nicht zu überhöhen und dann anhand überzogener Erwartungen zu "belegen", das KIs (bzw. LLMs) völlig untauglich sind.
Letztlich sind das Werkzeuge und es kommt darauf an, wie und wofür man sie benutzt.
 
Die Haftungsfrage im Business Bereich spricht gegen KI.
Z.b. haftete Air Canada schon für die falsche Aussage ihres Chatbots (2024, Air Canada falsche Erstattungsrichtlinie in die Suchmaschine deiner Wahl eingeben)

Wer nicht erklären kann wie seine Systeme funktionieren hat ein Problem. Artikel 22 DSGVO fordert Erklärbarkeit bei automatisierten Entscheidungen. Kein vernünftiger Manager kann aktuell LLMs in Prozesse mit Haftungsrelevanz wie Vertragsmanagement, Compliance oder Buchhaltung einbringen.

An dem Thema arbeiten diverse Unternehmen.

andy_m4 schrieb:
Das mag sein. Aber sofern es trotzdem eine Arbeitserleichterung ist, ist es ein doofen Praktikanten zu haben immer noch besser als gar keinen zu haben.
Wenn die KI in 50% der Fälle sich seine Fakten zusammenhalluziniert wäre es sinnvoller alles selbst zu erstellen. Beim Praktikanten gehst du ja auch davon aus, dass die Informationen korrekt zusammengefasst wurden und nicht einfach irgendwas erfunden wurde.
Die Frage ist am Ende: Kann ich dem Ergebnis vertrauen oder nicht.
Ein kurzes Skript erstellen lassen, drüber lesen und bewerten ob ok -> sicherlich hilfreich.

Quellen für eine Wissenschaftliche Arbeit ausgeben lassen? Sehr gefährlich. Wenn 2/3 der genannten Artikel nicht existieren bzw. von völlig anderen Themen handeln ist das System keine Hilfe mehr.
Dann hat man Mehrarbeit statt Erleichterung oder im schlimmsten Fall falsche Quellen!

Du sagst weiter oben wozu LLMs eigentlich entwickelt wurden. Das ist völlig korrekt.
Was aber soll deren Einsatzzweck sein wenn kein Wissen abgefragt werden kann?
Sich mit einem Chatbot nett unterhalten?

andy_m4 schrieb:
Insofern ist da KI zu nutzen nur eine Fortsetzung des Trends und daher kein originäres KI Problem. Das heißt natürlich nicht, das man sich nicht damit auseinandersetzen sollte. Aber dann eben weiter gesteckt und nicht nur im KI-Kontext.

Wenn durch Schatten-KI firmeninterne Informationen plötzlich in den Trainingsdaten von LLMs landen hat man ein Problem. Diese Information ist dann theoretisch durch jeden weltweit abrufbar.
Diese Dimension ist "neu" und trat bisher so nicht auf. Natürlich wurden bisher irgendwelche Clouds verwendet, der Inhalt deines Dokuments war aber eben potentiell nicht für jeden abrufbar.
 
RcTomcat schrieb:
Die Haftungsfrage im Business Bereich spricht gegen KI.
Z.b. haftete Air Canada schon für die falsche Aussage ihres Chatbots (2024, Air Canada falsche Erstattungsrichtlinie in die Suchmaschine deiner Wahl eingeben)
Und das wird nur noch schwerer, wenn das Unternehmen kein eigenes LLM hat, sondern sich Serverleistung bei einem Dienstleister eingekauft hat. Da muss man schon überlegen, ob sich die Betriebskosten (inkl. "Pachtung" von Serverleistung) am Ende gegen ein Büro mit zehn angelernten Studenten lohnt, um es mal plakativ zu formulieren.
 
  • Gefällt mir
Reaktionen: Skysnake und RcTomcat
RcTomcat schrieb:
Die Haftungsfrage im Business Bereich spricht gegen KI.
Nein. Das spricht nicht gegen KI, sondern gegen deren falsche Anwendung.
Wenn Du als Handwerker einen Hammer falsch verwendest und damit Gegenstände zerstörst, dann sagt ja auch niemand das Hämmer für den Einsatz im Handwerk ungeeignet sind.

btw.: Das suggeriert, das menschliche Mitarbeiter keine Fehler machen. Und auch die machen Fehler. Und auch dafür muss dann im Zweifel der Chef zur Verantwortung gezogen.

RcTomcat schrieb:
Artikel 22 DSGVO fordert Erklärbarkeit bei automatisierten Entscheidungen.
Da bin ich auch für. Ich hab auch nie dafür plädiert, das man sich da irgendwie 'ne Blackbox hinstellt die Entscheidungen trifft. Und zwar unabhängig davon, ob da nun "KI Techniken" zum Einsatz kommen oder nicht.

RcTomcat schrieb:
Wenn die KI in 50% der Fälle sich seine Fakten zusammenhalluziniert
Wie gesagt: Falsche Anwendung.
KI bzw. LLms sind eher ist eher nicht dazu geeignet, wenn es darum geht Fakten abzufragen.

Abgesehen davon das das Halluzinationsproblem auch zum Teil hausgemacht ist, weil bei der Modellerstellung großer Wert darauf gelegt ist, das das Modell eine Antwort gibt und es abgewertet wird, wenn es keine Antwort geben kann. Es steht zu erwarten, das sich die Modelle dahingehend weiter verbessern werden.

RcTomcat schrieb:
Was aber soll deren Einsatzzweck sein wenn kein Wissen abgefragt werden kann?
Wie ich schon sagte, um beispielsweise Boilerplatearbeiten zu erledigen.

Ums mal ein hoffentlich sehr nachvollziehbares Beispiel zu nehmen:

Früher hat man der Sekretär*in gesagt: "Tippen Sie mir mal ein Brief in dem A, B und C drin, formulieren die das nett und drunter mit freundlichen Grüßen undsoweiterundsofort". Dann hat man sich das hinterh er noch mal durchgelesen, ob es so passt und unterschrieben. Fertig.

Mit KI gibt man dem Prompt nicht seiner Sekretärin, sondern einem "LLM". Der einzige Unterschied: Das LLM machts in einem Bruchteil der Zeit. Nachteil: Das LLM kann keinen Kaffee kochen, aber irgendwas ist ja immer. ;-)

Ist JETZT klar, was ich meinte?

RcTomcat schrieb:
Sich mit einem Chatbot nett unterhalten?
Auch das ist ja ein Anwendungsgebiet. Ich meine, viele Menschen nutzen das ja dafür. Und das kann man ja auch belächeln oder sagen, was für einen Quatsch. Aber es gibt offenbar Bedarf. Und dann ist es doch ok, wenn es so was gibt.

Gibt ja alle möglichen Sachen, wo man selbst denkt: "Was für ein Quatsch. Braucht doch keiner". Aber solange da Bedarf da ist ... wer bin ich, das zu bewerten?

RcTomcat schrieb:
Wenn durch Schatten-KI firmeninterne Informationen plötzlich in den Trainingsdaten von LLMs landen hat man ein Problem.
Ja. Aber das geht ja wiederum in Richtung "wie benutzen". Wie gesagt, das ist kein KI-spezifisches Ding.
Von daher macht es auch kein Sinn KI zu "verteufeln" nur weil man es falsch benutzen kann. Das gilt nämlich für alles andere auch.

RcTomcat schrieb:
Natürlich wurden bisher irgendwelche Clouds verwendet, der Inhalt deines Dokuments war aber eben potentiell nicht für jeden abrufbar.
Ich will jetzt nicht darüber streiten, ob KI das Problem schlimmer macht oder nicht. Von mir aus macht es das. Geschenkt.

Es ging mir darum zu sagen: Fehlender Datenschutz ist ein Problem. Und das müssen wir fixen. Und da reicht es nicht, wenn wir nur auf KI schauen.
Ich kann auch lokal und abgeschottet ein Modell laufen zu lassen und dann hab ich zwar KI aber nicht das Datenschutzproblem. Das macht deutlich, das es sinnvoll ist, diese beiden Dinge zu trennen.

Möglicherweise meintest Du das aber auch so, das wenn man KI benutzt das in seine Risikobetrachtung einbeziehen muss. Und ja. Völlig richtig. Aber das ist ja selbstredend so.
Ergänzung ()

Boimler schrieb:
Da muss man schon überlegen, ob sich die Betriebskosten (inkl. "Pachtung" von Serverleistung) am Ende gegen ein Büro mit zehn angelernten Studenten lohnt, um es mal plakativ zu formulieren.
Ja. Nicht nur in Hinblick auf lohnen. Sondern auch die Überlegung, ob das wirklich sicherer ist.
Weil mit der Cloud kaufst Du Dir ja indirekt auch Know-How ein den Service (zumindest halbwegs sicher) zu betreiben. Das klappt zwar auch nicht immer gut (insbesondere das Clouds ein beliebtes Angriffsziel sind), aber besser als wenn der Neffe des Chefs da was hinfrickelt ist es ja vielleicht schon.

Und ja. Wenn Du, wie Du sagst, es richtig machst dann hast Du auch Personalaufwand und Kosten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RcTomcat und Boimler
@andy_m4 du hast absolut Recht. Das Problem ist jedoch, dass gefühlt 90% der Nutzer diese Tools falsch nutzen. Einer KI wird größtenteils auch blind vertraut! Viel sehen aktuelle LLMs als allwissend an.
Das ist jetzt nicht direkt das Problem von KI sondern klar ein Anwenderfehler. Wenn 9 von 10 Anwendern einen Hammer falsch nutzen sollte man sich in meinen Augen durchaus Gedanken machen wie man dieses Problem beheben kann. Genauso muss natürlich immer eine Risikobetrachtung stattfinden, egal welche Tools man nutzen mag.
Viele sind aktuell eher so auf einem "Hauptsache KI" Trip und scheinen alles andere zu vergessen. Das Erwachen kann böse sein
 
  • Gefällt mir
Reaktionen: Skysnake
Metalveteran schrieb:
Ich glaube nicht, dass die KI-Blase wirklich platzen wird. Ja, einige der aktuellen Anbieter wird es treffen, aber KI selber wird "bleiben", ob man will oder nicht.
Du sprichst hier von einer Konsolidierung. Die wird auch stattfinden. Aber vorher wird die Blase an der Börse platzen. Im Zuge dessen denke ich das auch die Nachfrage nach GPUs, RAM und Speichern stark einknicken wird. Da viele Projekte eingestampft werden. Und wir Enduser können wieder günstiger an Hardware kommen.

Was ich nur Saudämmlich finde das sie das RZ in Bayern aufstellen und irgendwas von grünem Strom labern. Stattdessen könnte man das hier im Norden aufstellen. Wo wirklich grüner Strom erzeugt wird. Wo dann die Rechenleistung in DE abgerufen wird ist ja egal das es eh per Internet geht. Und es wohl kaum Echtzeit Anwendungen sein werden.
Aber die Telekom wird sich dann den schon dreifach verkauften grünen Strom aus Island oder Schweden zertifizieren lassen.
 
RcTomcat schrieb:
Das Problem ist jedoch, dass gefühlt 90% der Nutzer diese Tools falsch nutzen.
Wie hoch der Anteil ist, weiß ich jetzt nicht.
Aber ja. Das das eine signifikant hohe Zahl ist, das würde ich genauso sehen.
Insbesondere, da ja KI auch gehypt wird und das auch mit tatkräftiger Mitwirkung der Hersteller, die das ja durchaus als Lösung für alles Mögliche anpreisen.

RcTomcat schrieb:
Wenn 9 von 10 Anwendern einen Hammer falsch nutzen sollte man sich in meinen Augen durchaus Gedanken machen wie man dieses Problem beheben kann.
Das ist durchaus ein Punkt. Nur daran hat ja kaum jemand ernsthaft Interesse. Also die Hersteller sowieso nicht, weil die sich ja darüber freuen.

Möglicherweise ruckelt sich das über die Zeit ja auch von allein zurecht. Bei anderen Hypes hatten wir das ja auch. Vor paar Jahren musste noch alles als Blockchain gemacht werden. Egal obs Sinn macht oder nicht.
Da sind wir ja auch irgendwie drüber hinweg gekommen. :-)

ThePlayer schrieb:
Und wir Enduser können wieder günstiger an Hardware kommen.
Das wäre wirklich gut.

ThePlayer schrieb:
Was ich nur Saudämmlich finde das sie das RZ in Bayern aufstellen
... wo schon allein der Ministerpräsident genügend heiße Luft erzeugt. :-)
 
  • Gefällt mir
Reaktionen: ThePlayer und Boimler
Moritz Velten schrieb:
dass sie keine Lohnkosten mehr zahlen müssen und ihre Gewinne steigern können.
So wie ich die Künstliche Ignoranz einschätze, wird das eh nach hinten losgehen, aber erst mal einsteigen, das ist die Hauptsache, wenn der Hype dann Floppt kann man immer noch sagen wir haben es halt versucht.

Und Spätestens wenn die Ehemaligen Mitarbeiter was Neues gefunden haben, womit sie ihre Brötchen verdienen können, heißt es wieder uns fehlt das geeignete Fachpersonal.
 
Metalveteran schrieb:
Ich glaube nicht, dass die KI-Blase wirklich platzen wird. Ja, einige der aktuellen Anbieter wird es treffen, aber KI selber wird "bleiben", ob man will oder nicht.

Ich sehe da viele parallelen zur Dotcom Blase.

Damals sind Onlineshops so richtig durchgestartet, da sie der neuste, heißete Scheiß waren.
Jede Hinterhof-Bude mit einem Konzept, einer eigenen Domain und einem Onlineshop war mehrere Millionen wert.

Natürlich gibt es heute auch noch Onlineshops, nur sind die jezt realistisch bewertet.

Das ist bei dem ganzen KI-Rotz nicht der Fall.

Es ist ein, je nach Anwendungsfall nützliches Werkzeug, mehr aber auch nicht.

Hier mal die Top 7 Unternehmen der USA, nach Marketcap:

Nvidia
Apple
Microsoft
Alphabet
Amazon
Broadcom
Meta (Facebook)

Wenn die von heute auf Morgen verschwinden würden, wäre das eher ein Segen für die Menschheit, als eine Katastrophe.
Alternativen gäbe es genug.

Nvidia..... 5.000.000.000.000 Dollar.

Das ist einfach nur ein Witz.
In Wahrheit braucht die niemand.
 
Der Puritaner schrieb:
Und Spätestens wenn die Ehemaligen Mitarbeiter was Neues gefunden haben, womit sie ihre Brötchen verdienen können, heißt es wieder uns fehlt das geeignete Fachpersonal.

Dann würde ich sagen: "Tja, selbst Schuld, ihr wolltet ja KI."
 
Zurück
Oben