ChatGPT und offener Browser?

Stagefire85

Ensign
Registriert
Apr. 2025
Beiträge
219
Ich hab kurze Fragen zur Benutzung von ChatGPT Plus.

Ich hab also das 23 € Abo.

Was macht der genau, wenn ich mehrere Fenster öffne und mehrere Eingaben aufeinmal mache?
Mit welcher Geschwindigkeit wird das dann für mich abgearbeitet?

Angenommen ich mache 4 Fenster auf.
Dauert dann jede Aufgabe 4x solange, weil ich nur 1x für mich die Rechenpower zur Verfügung gestellt bekomme?

Wo findet die Berechnung überhaupt statt?
Passiert da auch meinem Rechner auch was? Oder ist das alles Serverseitig?

Kann ich dem auch eine komplexe Aufgabe geben, die unter "Thining" z.B. 10 Minuten dauert und den Browser zu machen, vom Büro nach Hause fahren und dort dann das fertige Ergebnis aufrufen?
 
Es gibt meine ich keine Begrenzung paralleler Anfragen. Berechnung passiert auf den Server von OpenAI.

Aufgaben werden auch unabhängig vom Browser glaube ich zu Ende geführt.
 
"Weiß" ChatGPT die Antworten auf diese Fragen nicht?
 
  • Gefällt mir
Reaktionen: Matunuctus, acidarchangel, piepenkorn und 3 andere
Das geht Parallel :-)

Passend zum Thema hab ich mal Gemini gefragt:

Das sind super Fragen, die zeigen, dass du das Maximum aus deinem Abo herausholen willst. Keine Sorge, dein Rechner wird dabei nicht ins Schwitzen kommen – das meiste passiert weit weg von deinem Schreibtisch.

Hier ist der Überblick, wie das System arbeitet:

1. Multitasking in mehreren Fenstern​

Wenn du vier Fenster öffnest und in jedem gleichzeitig eine Anfrage abschickst, passiert Folgendes:

  • Kein "Teilen" der Geschwindigkeit: Die Aufgaben dauern nicht viermal so lange. OpenAI verarbeitet die Anfragen parallel in der Cloud. Jedes Fenster bekommt (bis zu einem gewissen Grad) die volle Rechenpower zugewiesen.
  • Warteschlange: Es kann sein, dass bei extrem vielen gleichzeitigen Anfragen eine kurze Verzögerung auftritt, bevor die Antwort startet, aber die eigentliche Generierungsgeschwindigkeit bleibt meist konstant hoch.
  • Limitierungen: Du teilst dir nur das Nachrichten-Kontingent (z. B. die Anzahl der Nachrichten pro 3 Stunden bei GPT-4o oder o1). Wenn du 4 Fenster nutzt, verbrauchst du dein Limit einfach viermal so schnell.

2. Wo findet die Magie statt?​

Die gesamte Berechnung ist zu 100 % serverseitig.

  • Der Ort: Die Berechnung läuft in riesigen Rechenzentren von Microsoft Azure (OpenAIs Partner), die meist in den USA oder in Europa stehen. Dort arbeiten tausende Hochleistungsgrafikkarten (GPUs) an deiner Antwort.
  • Dein Rechner: Dein PC oder Laptop dient nur als "Fernsteuergerät". Er muss lediglich den Text anzeigen. Dein Prozessor oder Akku wird also nicht durch die KI-Logik belastet.

3. Browser schließen und nach Hause fahren​

Das ist einer der größten Vorteile der Cloud-Struktur: Ja, das funktioniert.

  • Unabhängigkeit: Sobald du auf "Senden" geklickt hast und die Anfrage beim Server registriert wurde, arbeitet die KI.
  • Ablauf: Du kannst den Browser sofort schließen oder den PC ausschalten. Die KI schreibt die Antwort im Hintergrund fertig und speichert sie in deinem Chat-Verlauf.
  • Ergebnis abrufen: Wenn du zu Hause deinen Laptop aufklappst oder die App auf dem Handy öffnest, ist die Antwort (selbst nach einem 10-minütigen "Thinking"-Prozess) fertig generiert für dich hinterlegt.
 
Der Browser ist nur eine view auf Deine Istanz könnte man sagen.
Das läuft alles auf dem Server und uch "im Hintergund" weiter.

Ich denke auch parallel ist egal, der arbeitet intern sicher mit einer Art von Credits, also Rechenpunkten.
Da machen die alle so.
Bei Gemini ohne Abo sind die auch relativ schnell alle
Ist mir bei ChatGPT plus noch nicht passiert.
 
Stagefire85 schrieb:
Passiert da auch meinem Rechner auch was? Oder ist das alles Serverseitig?
Die Server auf denen die Modelle laufen kosten 6-Stellig. Das merkst du, wenn das bei dir zuhause betrieben wird.

Was wie schnell geht hängt von deiner Anfrage und verfügbaren Kapazitäten ab. Je nach Tageszeit ist es mal schneller und mal langsamer

Stagefire85 schrieb:
Kann ich dem auch eine komplexe Aufgabe geben, die unter "Thining" z.B. 10 Minuten dauert und den Browser zu machen, vom Büro nach Hause fahren und dort dann das fertige Ergebnis aufrufen?
Agent mode und Deep Research laufen weiter, aber die brauchen auch eher nicht nur 10 Minuten

klampf schrieb:
Ist mir bei ChatGPT plus noch nicht passiert.
zumindest mit Codex scheint je nach Monat bei 150-200 Millionen Token Schluss zu sein.
In etwa da laufe ich gerade ins rate limit
 
Zuletzt bearbeitet:
madmax2010 schrieb:
Die Server auf denen die Modelle laufen kosten 6-Stellig. Das merkst du, wenn das bei dir zuhause betrieben wird.

Was wie schnell geht hängt von deiner Anfrage und verfügbaren Kapazitäten ab. Je nach Tageszeit ist es mal schneller und mal langsamer


Agent mode und Deep Research laufen weiter, aber die brauchen auch eher nicht nur 10 Minuten


zumindest mit Codex scheint je nach Monat bei 150-200 Millionen Token Schluss zu sein.
In etwa da laufe ich gerade ins rate limit
Interessant,
wieviele Projekte, Code pro Tag ist das.
Bin mit Codex noch nicht ans Limit. (Mit anderen KIs quasi jeden Tag)
 
@Kizarou
relativ viel boilerplate. Die letzten Monate brauchte ich in einigen Projekten viele Visualisierungen um die gegebenen Daten zu verstehen.
Teils liegen da Terabyte weise Daten in verschiedensten Formaten.
vorher habe ich erst lange geschaut, wie ich die jeweiligen Dateien lesen muss, habe sie in einheitliche Formate gebracht und dann verschiedene Statistische Tests und visualisierungen von Hand implementiert um zu verstehen, wie man Neuronale Netze darauf trainieren kann, und wie man die daten noch Vorverarbeiten muss.

Jetzt ist es eher so, dass ich kurz die Daten beschreibe, welche Tests und Visualisierungen ich brauche. Dann braucht Codex 1-2 Stunden, in denen ich was anderes machen kann.
Danach habe ich eine Webanwendung die mir genau bietet was ich brauche.
Davon entstehen gerade meist mehrere am Tag.

Das ist nicht nachhaltig und kein sauberes Software engineering, aber es erlaubt mir Dinge zu testen, die ich zuvor aus Zeitgründen ausgeklammert habe.
Statt mehrere Anwendungen zu kombinieren und alten code auf neue Probleme von Hand anzupassen und zu debuggen, habe ich jetzt fuer jede Aufgabe eine Eierlegende Wollmilchau, die genau zu diesem einen Zweck entstanden ist.

es hilft sehr einige Paper und Doku zum Thema mit im Ordner liegen zu haben. Codext liest so etwas ausgiebig, was jedoch gern bei einer einzelnen Prompt ein paar Millionen token gegen die API wirft. Letzte Woche kam ich auf ~45 Millionen Input Tokens bei ca 2 Millionen Output.
Dabei entstanden ca 70.000 Zeilen Code in 20 kleinen Anwendungen. Matplotlib, pandas, gradio & co brauchen schon recht schnell viele LoC und früher war ich so fault es nur ging um mein Ziel zu erreichen.
Die Limits bei Codex sind wirklich verdammt hoch, da hast du recht.

Vor ein paar tagen habe ich mir einen Python-To-Tikz parsert gebaut, um Code in Latexdokumenten zu visualisieren. Die aufgabe ist knapp 4 Stunden gelaufen und brauchte knapp unter 10 Millionen Tokens.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: piepenkorn, Schwachkopp, 4nanai und eine weitere Person
Zurück
Oben