Zornica schrieb:
oder es liegt einfach daran, dass MS angesichts massiver "AI" Kapazitäten im Leerlauf (siehe zb
https://www.theinformation.com/articles/ai-data-center-prairie-sitting-empty ) endlich begreift, was für ne Blase das eigentlich ist
In erster Linie handelt es sich um Investitionen auf künftige Entwicklungen. Diese unterliegen Prognosen. Die entweder so wie berechnet, anders, oder gar nicht eintreten werden.
Egal wie man es dreht. Das aktuell, bei dem Ausbau der betrieben wird, Leerstände herrschen kann man sich denken.
Ich bin im Bereich Infrastruktur (Schwerpunt IT) tätig. Es wird nie
NUR Bedarfsorientiert gebaut.
Es spielen immer Prognosen, Erfahrungswerte, Verfügbarkeiten (GPUs seit Corona immer wieder sehr kritisch) neben den eigentlich Projekten (Programm/Anwendung/etc. als Treiber) eine große Rolle.
Ein gewisser Leerstand ist daher A immer mit einkalkuliert und B, kann aufgrund von "Boom", Marktlage der benötigten Komponenten, etc. dieser Leerstand z.T. höher als in etablierten Bereichen ausfallen.
PegasusHunter schrieb:
Und dazu kommt vielleicht, das einige Entwickler auf Grund der zunehmenden Haluzinationen der verschiedenen KI in Sorge um das Ganze sind. Wird auf einigen Seiten berichtet.
Dazu ist der Kontext sehr wichtig.
Wenn du über Copilot, ChatGPT und Co. redest. Ja da können Halluzinationen problematisch sein bzw. das Risiko dafür ist da.
Im Bezug auf Innerbetriebliche AI-Gestützte Prozesse (Datenanalyse, Datenabfrage für Tools, Medizinische Analysen, und keine Ahnung was) sollte diese jedoch nicht frei drehen dürfen. Daher keinen Text in Gänze frei generieren dürfen wie es dem Modell
beliebt.
Das muss auf vorgebender Datengrundlage, Labelprüfung bzw. bestimmten Regeln basieren und da passieren meine ich auch (so gut wie) keine Fehler.
Es kommt immer drauf an wie das Modell und die Anwendung strukturiert sind.
Simonte schrieb:
Ich frage mich auch wie man 13Milliarden wieder einholen will.
Die Blase ist echt groß.
Es gibt einsatzzwecke, ja.
Aber nicht für MS und nicht für soviel Kohle.
Azure, AWS, Google Cloud sind eventuell Begriffe. Und deren Business-Dienste sind bekanntlich nicht for free. Und in Azure steckt als LLM GPT.
Simonte schrieb:
Alle mit denen ich so Kontakt habe versuchen immer alles mit Copilot möglichst wegzuklicken und los zu werden.
Ich kenne aber auch einige Leute die zuviel mit LLMs machen und teils rapide verdummen :/
Die sind aber auch direkt raus, wenn es mal Geld kosten soll^^
Copilot und ChatGPT sind z.T. eine Art Google 2.0
Wie schlau oder dumm kann denn jemand werden indem die Person etwas via Google-Suche recherchiert?
Die Ergebnisse musst du doch auch in einen Kontext setzen, bewerten und verstehen! Vom Aufwand der Recherche mal ganz zu schweigen.
Wenn jemand keine Lust auf LLMs hat, na klar.
Aber die These man würde durch eine übermäßige Nutzung von LLMs teils rapide verdummen, stelle ich deutlich in Frage.
Entweder ich besitze grundsätzlich Kenntnisse um das Thema zu interpretieren, oder ich habe vor sowie nach der Konversation mit dem LLM null Plan von irgendwas. Das ist ja kein Prozess den das LLM betreibt.
Wer das eigenverantwortlich Denken bei der Nutzung eines LLM komplett deaktiviert, ja da gebe ich dir recht, dass ist problematisch. Diese Person hat dann aber u.U. nicht nur bei der Nutzung von ChatGPT und Co. ein Defizit.