Kein Zugriff auf PC im internen Netz möglich nach Windows-Update

Sehe ich genau so, komme nur im Moment nicht dazu, mir das mal genau anzusehen.
Spätestens morgen. Werde berichten.
Danke Euch allen jedenfalls mal für Eure bisherigen Kommentare :-)
 
habe mir nun das Squid Access log angesehen, kurz nachdem ich am Computer mit IP 192.168.0.147 (der besagte Problemcomputer) in BOINC erneut einen Download-Versuch von Tasks gestartet habe.
Und tatsächlich befindet sich im Access log des Proxy folgender Eintrag:

192.168.0.147 3128 - - [08/Jun/2025:16:08:55 +0200] "CONNECT lhcathome.cern.ch:443 HTTP/1.1" 403 3918 "-" "BOINC client (windows_x86_64 8.0.2)" TCP_DENIED:HIER_NONE

das ist insofern interessant, als nun klar scheint, daß der "Problem"-Computer sehr wohl erfolgreich eine Verbindung zum Squid Proxy herstellt, das ganze dort aber irgendwie stecken bleibt.

Natürlich könnte man jetzt meinen, das Problem liegt beim Squid Proxy. Aber warum funktioniert es dann mit allen anderen Computern? Also kann im Proxy nichts falsch laufen.
Ich bin ratlos.
Ergänzung ()

hab als letzten Versuch den Squid im Terminal 2 x hintereinander neu durchgestartet. Und siehe da: plötzlich funktioniert auch die Verbindung vom "Problem-Computer" wieder.
Keine Ahnung, was da falsch gelaufen ist, bzw. was der Grund dafür war.
Jedenfalls: Ende gut - alles gut
 
Zuletzt bearbeitet:
erich56 schrieb:
lhcathome.cern.ch:443
Sieht so aus, als ob die Daten über https reinkommen, also verschlüsselt.

Warum dann überhaupt einen Web-Proxy einsetzen? Ich dachte bei der ganzen Sache werden kleine Dateien runtergeladen, die auch andere Clients benötigen? Wenn Dateien allerdings verschlüsselt übertragen werden, können diese ohne Zertifikatsinjektion bzw. SSL-Proxy doch gar nicht im Proxy-Cache zwischengespeichert werden. Ergo gibts da überhaupt keine derartige lokale Beschleunigung beim Abruf der Dateien. Eher wird es durch den Proxy sogar langsamer (zusätzliche Latenz weil der Proxy zwischengeschalten ist). Außerdem setzt das voraus, dass es viele Dateien sind, die auch die anderen Boinc-Clients benötigen und identisch sind. Hast du den Squid-Cachemanager installiert und kannst mal checken, ob du überhaupt Cache-Hits hast?

erich56 schrieb:
403 - Forbidden.
Musst du dich vlt. noch richtig authentifizieren an dem Boinc-Client? Dein Boinc-Client will was runterladen, wo er wohl keinen Zugriff drauf hat?
Ergänzung ()

erich56 schrieb:
hab als letzten Versuch den Squid im Terminal 2 x hintereinander neu durchgestartet. Und siehe da: plötzlich funktioniert auch die Verbindung vom "Problem-Computer" wieder.
Ok, dachte das hättest du schon gemacht, ja dann passts ja jetzt. Aber die Frage nach dem Sinn des Webproxies bleibt für mich.
 
Zuletzt bearbeitet:
qiller schrieb:
Ok, dachte das hättest du schon gemacht, ja dann passts ja jetzt. Aber die Frage nach dem Sinn des Webproxies bleibt für mich.
siehe dazu den ersten Teil meines Posting #14.
Die Proxy-Zugriffe (sowohl die Anzahl, den Zeitpunkt, wie auch von welchen angeschlossenen Computern) kann ich im Squid Access log verfolgen. Derzeit erfolgen knapp über 1 Mio Zugriffe innerhalb 24 Stunden.

Und es gab schon Zeiten, als die einzelnen tasks sehr kurz waren, bzw. auch anders strukturiert, wo ich täglich nicht weniger als 2 Mio. Zugriffe hatte. Mit sowas wäre jedes handelsübliche Internet-Modem überfordert.
 
Zuletzt bearbeitet:
Ja, schon klar. Aber so ein Proxy macht nur Sinn, wenn ich entweder aus Sicherheitsgründen was filtern möchte, oder durch Nutzung des Caches eine lokale Beschleunigung für alle Clients erreichen möchte, weil z.B. immer wieder derselbe Content heruntergeladen wird und dadurch der Internetanschluss entlastet wird. Da stellen sich mir halt diverse Fragen:

1. Laden die Clients denn regelmäßig Daten/Dateien herunter, den andere Clients auch benötigen? Oder werden jedesmal komplett andere Dateien heruntergeladen?
2. Werden diese Dateien unverschlüsselt übertragen, damit sie überhaupt gecached werden können?
3. Falls sie verschlüsselt übertragen werden, ist denn eine Art SSL-Proxy implementiert, damit die Dateien auch bei verschlüsselter Übertragung gecached werden können?

Wenn dein Squid-Proxy quasi nur "Connect"-Anweisungen für https-Verbindungen weiterleitet, ist dein Proxy eigentlich ziemlich nutzlos und dürfte den Abruf der Dateien eher verlangsamen.
Ergänzung ()

erich56 schrieb:
wo ich täglich nicht weniger als 2 Mio. Zugriffe hatte. Mit sowas wäre jedes handelsübliche Internet-Modem überfordert.
Ähm, die 2Mio Anfragen kommen doch immer noch zustande. Nur eben nicht mehr von 13 verschiedenen Rechnern, sondern nur noch von einem, nämlich dem Squid-Proxy.
 
Zuletzt bearbeitet:
zu 1.: ja, die beim Start jeder Task vom CERN Server heruntergeladenen Dateien werden von allen clients, welche diese Dateien verarbeiten, verwendet.

zu 2: ich nehme an, die Dateien sind unverschlüsselt (müßte dazu aber nachfragen). Fakt ist, sie werden im Squid gecacht, und von dort an die clients weiter verteilt.
Ich kann das u.a. sehr gut Im Netztool "DU Meter" beobachten, wenn einer der clients gerade eine Task startet: der vom client gezogene Datenfluß ist identisch mit der Anzeige des am Proxy ausgehenden Datenflusses. Und daß es gleichzeitig im Proxy KEINEN eingehenden Datenfluß gibt, beweist, daß nichts vom Internet gezogen wird.
Wäre dem anders, hättest Du mit dem letzten Absatz Deines Postings natürlich recht. Aber, wie gesagt, die Dateien kommen vom Proxy, und nicht über's Internet. Mit der klitzekleinen Ausnahme, daß die paar Grunddaten für jede neue Task natürlich schon direkt von CERN kommen. Da reden wir im Regelfall aber von 1 file mit ganz wenigen MB.
Ergänzung ()

qiller schrieb:
Ähm, die 2Mio Anfragen kommen doch immer noch zustande. Nur eben nicht mehr von 13 verschiedenen Rechnern, sondern nur noch von einem, nämlich dem Squid-Proxy.
die 13 Rechner riefen insgesamt 2 Mio. Dateien pro Tag vom Squid-Proxy ab. Derzeit sind es etwa 1 Mio.
 
  • Gefällt mir
Reaktionen: qiller
Seit Edward Snowden hat ja die unverschlüsselte Datenübertragung deutlich abgenommen, daher meine (hoffentlich berechtigte) Frage. Ok, wenn die Dateien dann auch immer wieder verwendet werden können (wobei ich mich hier frage, warum der Boinc-Client diese dann nicht einfach lokal aufm Rechner zwischenspeichert), dann macht der Squid natürlich schon einen Sinn.
 
qiller schrieb:
wobei ich mich hier frage, warum der Boinc-Client diese dann nicht einfach lokal aufm Rechner zwischenspeichert
Der Entwicklungsstand von BOINC liegt schon sehr lange Zeit zurück (natürlich gibt es immer wieder Updates, aber keine großen Änderungen in der Grundkonzeption) - und damals war vermutlich die Notwendigkeit für sowas (noch) nicht gegeben. Als ich vor ca. 20 Jahren begann, BOINC-Projekte zu rechnen, waren das alles einige wenige Mini-files, und ich hatte dafür gerade mal 1 Computer in Verwendung :-)
 
  • Gefällt mir
Reaktionen: qiller
Zurück
Oben