Hoffe hier kennt sich jemand aus und kann mir helfen.
Wenn ich mir eine sehr aktive Newsgroup neu aboniere und dann alle Header abrufe (ca. 90 Tage) dann dauert das nicht nur sehr lange, es werden auch rund 8GB an Daten abgerufen.
Was ich nciht verstehe:
Wie kann man für ein paar Tausend Textzeilen so viel Traffic haben?
Und wieso landen nur ca. 10% davon im Ordner "Spool"? Wohin geht der Rest?
Selbst die rund 10% die gespeichert werden, also ca. 800MB sind viel zu viel für die paar tausend Textzeilen die ich dann angezeigt bekomme.
Kann mir das wer erklären?
Danke!
Wenn ich mir eine sehr aktive Newsgroup neu aboniere und dann alle Header abrufe (ca. 90 Tage) dann dauert das nicht nur sehr lange, es werden auch rund 8GB an Daten abgerufen.
Was ich nciht verstehe:
Wie kann man für ein paar Tausend Textzeilen so viel Traffic haben?
Und wieso landen nur ca. 10% davon im Ordner "Spool"? Wohin geht der Rest?
Selbst die rund 10% die gespeichert werden, also ca. 800MB sind viel zu viel für die paar tausend Textzeilen die ich dann angezeigt bekomme.
Kann mir das wer erklären?
Danke!