News Code Red bei OpenAI: ChatGPT soll neues Modell und mehr Personalisierung erhalten

meisterkatzen schrieb:
Peinlich einige Beiträge hier. Nicht jeder brauch KI, das stimmt, aber die Nützlichkeit ist in vielen Bereichen schon jetzt enorm und wird weiter steigen.
dummerweise ist das einzige was Unternehmen in Folge machen, Arbeitsplätze zu reduzieren.
 
  • Gefällt mir
Reaktionen: JustAnotherTux, Fighter1993, fox40phil und 2 andere
theGucky schrieb:
Mit den RAM? Ja. Das hat er gemacht. Er hat bei SK-hynix und Samsung angeklopft und alles aufgekauft was es an RAM gab und geben wird. Das alles liegt in einem Lagerhaus rum.
Deswegen gab es Panikkäufe bei den anderen und deshalb gehen die RAM Preise hoch...
Kannst du das belegen?
 
  • Gefällt mir
Reaktionen: the_IT_Guy und HrLX
supertramp schrieb:
Was macht ChatGPT noch einmal Sinnvolles?
ChatGPT sticht da nicht besonders hervor, aber LLM allgemein (insbesondere Claude seit Sonnet 4.5) sind ungeheuer effizient wenn es ums programmieren geht. Insbesondere in Scripting Sprachen wie Python, JS, R etc. kann man Aufgaben die früher Wochen gedauert haben heute in ein paar Stunden/Minuten erledigen. Das verschafft mir einerseits mehr Freizeit, andererseits sieht mein Code seitdem auch viel besser aus.
Funktioniert natürlich nur gut wenn man ungefähr weiß was man tut..(was bei vielen die das nutzen nicht der Fall ist).

In anderen alltäglichen Kontexten sind LLMs extremst nützlich fürs Verfassen, analysieren und erklären von wissenschaftlichen Texten.

Meine Arbeit wird dadurch auf jeden Fall deutlich erleichtert, aber klar - ist nicht für jeden sinnvoll und/oder brauchbar...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BrollyLSSJ, newbieHW, Vendetta192 und 12 andere
icetom schrieb:
dummerweise ist das einzige was Unternehmen in Folge machen, Arbeitsplätze zu reduzieren.
Böser Henry Ford. Böse Automobilbauer. Die ganze Industrie um die Perdekutschen… einfach tot.
 
  • Gefällt mir
Reaktionen: aid0nex, Fraggil, stotheb und 7 andere
Ich benutze ChatGPT im Abo, seitdem es das bei uns gibt. GPT 5.1 Codex Max mit Reasoning High oder Highest ist nicht schlecht, aber ChatGPT mit Medium Reasoning ist jedenfalls wesentlich schlechter als es 4.1 oder 4o waren.

Man muss ständig nachhaken, damit man vernünftige Ausgaben bekommt, was früher wesentlich seltener der Fall war.

Gemini hab ich mir daher kürzlich im neuen Plus-Abo geholt - das ist billiger und funktioniert derzeit echt spütbar besser. Es wundert mich daher nicht, dass die bei OpenAI Panik schieben.
 
  • Gefällt mir
Reaktionen: fox40phil, schneeland, Czk666 und eine weitere Person
Im Grunde ist Google auch bei der Anzahl der täglichen Nutzer durch die KI-Zusammenfassungen in der Google-Suche schon mit Abstand führend. Das Ganze wird auch noch massiv ausgebaut werden (ggf. schon bald mit Gemini 3.0 Flash) und dann wird Google auch weitestgehend zu einer KI-Suche. Und wahrscheinlich völlig unangefochten.

GPT ist momentan mit Gemini 3.0 Pro, Opus 4.5, Kimi K2 Thinking, und ganz neu auch mit DeepSeek 3.2 eigentlich weitestgehend überflüssig gemacht worden. Da kommt man im Grunde für alle Zwecke besser, günstiger oder beides gleichzeitig weg.
 
Langfristig hoffe und setze ich ohnehin auf Gemini (obwohl ich momentan noch ChatGPT Plus nutze). Den Komfort der Geräte übergreifende und tiefe Integration kann mir nur Google bieten.
 
jonathansmith schrieb:
Gemini hab ich mir daher kürzlich im neuen Plus-Abo geholt - das ist billiger und funktioniert derzeit echt spütbar besser. Es wundert mich daher nicht, dass die bei OpenAI Panik schieben.
Ich wollte zu Gemini wechseln. Hab dann gekündigt und als Rückholangebot 3 Monate 50% billiger bekommen. Jetzt beobachte ich nochmal 3 Monate lang und dann seh ich weiter. Gemini 3 Pro ist schon echt gut.
 
MegatroneN schrieb:
War doch auch vor paar Jahren als Google erste Erfolge mit dieser KI hatte, die im Spiel Go die weltbesten Spieler fast schon gedemütigt hatte und dabei wurde die KI nach jedem Spiel gegen Profis noch besser als vorher.
oft werden die nachfolgenachrichten nicht so weit verbreitet:
To summarize: we’ve found a way to systematically search for exploits against game-playing AI systems, and shown this approach can uncover surprisingly simple hacks that can reliably beat superhuman Go bots. All of the AlphaZero-style agents that we’ve studied are susceptible to the cyclic attack. There is a clear warning here about the powerful AI systems of the future: no matter how capable they seem, they may still fail in surprising ways.
https://www.lesswrong.com/posts/DCL...perhuman-go-ais-have-surprising-failure-modes
 
  • Gefällt mir
Reaktionen: chaser767, Tevur, HrLX und eine weitere Person
OpenAI will bis 2030 einen Umsatz von 200 Milliarden US-Dollar
Und wie viel Gewinn? 🤡
Ergänzung ()

HrLX schrieb:
Insbesondere in Scripting Sprachen wie Python, JS, R etc. kann man Aufgaben die früher Wochen gedauert haben heute in ein paar Stunden/Minuten erledigen. Das verschafft mir einerseits mehr Freizeit, [...]
Inwiefern verschafft dir das mehr Freizeit? Du musst doch trotzdem 40h die Woche arbeiten. Oder bist du selbständig?
 
  • Gefällt mir
Reaktionen: syntax868, JustAnotherTux, fox40phil und 2 andere
gartenriese schrieb:
Inwiefern verschafft dir das mehr Freizeit? Du musst doch trotzdem 40h die Woche arbeiten. Oder bist du selbständig?
Theoretisch. Praktisch schaffe ich meine Arbeit jetzt in 10-20h - und das ist was meinen Arbeitgeber am Ende interessiert.
 
  • Gefällt mir
Reaktionen: Vendetta192, fox40phil und UrlaubMitStalin
Syrato schrieb:
Kannst du das belegen?
Welche Seite soll ich verlinken? Kannst auch KIs außer ChatGPT fragen, nunja vielleicht antwortet die auch.

Aber hier ist mal ein Link zur Quelle, von OpenAI direkt:
https://openai.com/index/samsung-and-sk-join-stargate/

Hier ne News dazu mit ein wenig mehr Inhalt. Die Rede ist von 40% der weltweiten DRAM Produktion.
https://www.tomshardware.com/pc-com...to-the-tune-of-up-to-900-000-wafers-per-month

Kitguru hat auch ein Video dazu gemacht, da wirds ein wenig erklärt.

P.S. Als weitere Info, OpenAI hat die Deals mit SKHynix und Samsung schnell hintereinander gemacht ohne den jeweils anderen davon zu informieren.
Ergänzung ()

gartenriese schrieb:
Und wie viel Gewinn? 🤡
Genau das ist ja das Ding.
In Stargate wollen sie in den nächsten 4 Jahren 500 Milliarden investieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
2 Monate ChatGPT plus gerade gekündigt, für den Einstieg war es super. Aber nach ca. 4 Wochen gingen mir die blumige Sprache und die Dark Patterns ziemlich auf die Nerven. Dazu immer mal wieder Loops, die zeitraubend waren. Habe versucht, den Bot entsprechend zu umzukonfigurieren, aber der blieb einfach eine gefällige Labertasche - nervig.

Bin jetzt seit 3 Tagen mit Claude im Abo unterwegs und bisher zufrieden. Zwischendurch teste ich gegen Gemini 3, das ist technisch ebenfalls gut, labert auch viel mehr.

Ich nutze die KI im Moment ausschliesslich für Nerdkram, derzeit Linux hoch und runter. Damit kann ich Sachen machen, die bisher unvorstellbar für mich waren, sowohl inhaltlich als auch bzgl. des Zeitaufwands. Es ist einfach geil, ein komplettes dmesg Bootloog in die KI zu werfen (1230 Lines) und innerhalb von 60 Sekunden eine präzise Auswertung und Implikationen zu bekommen. Man kann das Ding technisch einfach alles fragen und kriegt fundierte Antworten. Dazu kommt die iterierende Codegenerierung für Bash-Skripte - das ist einfach der Wahnsinn. Und ja - auch wenn die KI programmiert/ausspuckt - mein Verständnis für die zugrundeliegenden Technologien und Zusammenhänge ist viel tiefer geworden. Damit kann ich wieder Ideen und Konzepte extrapolieren, deren Umsetzung im Konkreten dann wieder die KI übernimmt.

Habe z. B. so mit NVMEs und vielen HDDs eine 140 TB grosse hochoptimierte 2x 10 GbE LACP Transfer-/Storage-Pipeline über 3 Rechner gebaut, bei der ich über alle Rechner dauerhaft 2.5 GB/s (2x 10 GBit) Transferspeed in die Backends schaffe. Am Anfang war es nur eine Idee, weil ich davon genervt war, dass ich sustained über 50 Gb nicht mal unsere vorherigen 2.5 Gbit sättigen konnte und immer wieder Einbrüche der Schreibraten irgendwo hatte.
 
  • Gefällt mir
Reaktionen: Vendetta192, Coenzym, aspro und 5 andere
@g0l3m Nice, des Interesse wegen muss ich Fragen: Was machst du jetzt mit "dauerhaft 2.5 GB/s (2x 10 GBit) Transferspeed in die Backends" ?
 
  • Gefällt mir
Reaktionen: Bright0001
Wo Erotik-Modus ? :D :D
1764714488498.png


Stellt doch erstmal eine Sache fertig statt ständig irgendwas halbes rauszublasen. :rolleyes:
 
@emerald: Gegenfrage: Was machen die gefühlten 80% (Hobby-)User hier im Forum mit ihren 12900K, 13900K, 14900K, 285K? (Steile These: 98% idlen zwischen sporadischen Zocks und Posts darauf rum, die restlichen 2% nutzen ab und zu mal ein Videotool oder eine IDE und der SMP-Load geht kurz mal auf 80%.)

Ist unsere Videopipeline. Da die Daten nun nur so durchflutschen, kommt als nächstes der Transkodierstack dran, Intel Quicksync unter Linux auf einer B580.

Übrigens ist mein neuer Lieblingsprozessor ein Intel N100. Billig, geile Schwuppdizität und 15 Watt für die ganze Plattform im Leerlauf inklusive 10 GbE NIC.
 
Zurück
Oben