News JavaScript: Sicherheitslücke in Chrome legt Windows 10 lahm

hatte ich unter Debian auch letztens, als ich zuviele dateioperationen auf dei SSD losgelassen habe, die gui und auch alles weitere wurden sehr langsam und haben auf eingaben kaum reagiert...
 
JavaScript ist einfach ein Risiko.
Den ganzen PC lahm legen per Browser ist aber definitiv eine Schwachstelle des OS und des Browsers.
Dachte das funktioniert so in dieser Form bei einzlenen Threads kaum noch.
Eher bedenklich das wir was solche Probleme angeht uns immer im Kreis drehen.
Gibt auch jede Menge Hacks die auf diesem Niveau agieren und einfach den PC mit Befehlen flooden.
 
@hide.me es reicht schon aus wenn man ein tar.gz eines html ordners mit 90k+ mini dateien erstellen will, und das system ist platt, was i/o angeht
 
  • Gefällt mir
Reaktionen: hide.me
@iamunknown Nö lediglich ein Archiv in tar.gz erstellen, als serversystem dient mir derzeit ein amd fx8350 und 2gb ram im Zusammenspiel mit einer Samsung 860 evo
 
Ravenstein schrieb:
serversystem [...] 2gb ram
Waren die Rohdaten für das Archiv überhaupt klein genug für den RAM? 2GB ist extrem wenig für einen Server, und wenn hier auf die SWAP ausgelagert werden muss wird es halt langsam. Das hat jedoch mit dem hier geschildertem "Problem" wenig zu tun...
 
2gb sind völlig ausreichend für einen Webserver, wer etwas anderes behauptet, hat keine Ahnung.

und selbiger war zu keinem Zeitpunkt voll, nur durch den Cache im ram, war der Betrieb der Website während des Vorgangs noch halbwegs möglich.
Die rohesten sind wenige kB gros, wie es für Webseiten eben üblich ist, die ssd war schlicht i/o mäßig platt. Wie es eben in diesem Fall auch passiert wenn ein Script im Browser durchdreht, und zuviele Zugriffe auf den Speicher ausführt, davon ist kein Betriebssystem sicher. Egal ob das ein Windows oder ein Linux basiertes System ist.
 
  • Gefällt mir
Reaktionen: areiland
cunhell schrieb:
Da freut es einen doch, dass Chrome auch die Basis des neuen Microsoftbrowsers wird. Wenn die Monokultur bei den Browserengines weiter zunimmt, werden wir das noch häufiger als jetzt sehen.
Ja, das wird sich zeigen. Aus technischer Sicht finde ich das auch sehr schade, aber aufgrund betriebswirtschaftlicher Faktoren und Marketing-Synergien scheint das wohl trotzdem attraktiv für MS zu sein...
mkdr schrieb:
... Es könnte zB eine Drosselung der CPU-Time geben für alle normalen window Anwendungen, die minimiert laufen in der Taskleiste und zusätzlich noch ne Blackliste. ... Wenn man ein Laptop mit Windows nutzen möchte, muss man alle 30 Minuten eine art manuelle Garbage-Collection durchführen, sprich alle möglichen Tasks die man nicht mehr brauch beenden.
Tja, genau hier setzt im Kern UWP an: In einem stark verbesserten und sichereren App-Zyklus. Genau das Beschriebene sollte mit UWP nicht passieren. Eine Anwendung, die minimiert ist, ist weg und braucht praktisch keine CPU/Memory. Win32 ist da viel primitiver. Auch das App-Management durch User und OS ist viel besser implementiert. Optimiert für Mobile-Geräte. Leider kommt UWP zu schleppend voran. Und Google hat ja auch nur geringes Interesse daran, dass Chrome unter Windows "perfekt" ist...
 
  • Gefällt mir
Reaktionen: areiland
  • Gefällt mir
Reaktionen: Creeed, areiland und Faust II
iamunknown schrieb:
Solche Pauschalaussagen haben (nahezu) nie einen tieferen Sinn, siehe meine ironische Antwort oben...
ich rede von einem gewöhnlichen webserver, mit einer kleinen seite, soetwas mit einer seite wie CB zu vergleichen, mit tausenden zugriffen gleichzeitig...
 
  • Gefällt mir
Reaktionen: LMAO und areiland
Ravenstein schrieb:
ich rede von einem gewöhnlichen webserver
Was ist ein "gewöhnlicher Webserver?
Ravenstein schrieb:
mit einer kleinen seite
Was ist eine kleine Seite?
Ravenstein schrieb:
soetwas mit einer seite wie CB zu vergleichen, mit tausenden zugriffen gleichzeitig
Ist am Ende auch nur ein Webserver. Ich erinner hier gerne nochmal an deine Aussage:
Ravenstein schrieb:
2gb sind völlig ausreichend für einen Webserver, wer etwas anderes behauptet, hat keine Ahnung.
Es gibt genügend Embedded Devices (z.B. Router) mit (zumindest früher) 8MB RAM oder weniger für OS + Webserver + alles was fürs Routing erforderlich ist. Nur weil es für diesen(!) Anwendungsfall reicht, bedeutet es weder, dass
  • ein Webserver nicht mehr als 8 MB RAM benötigt
  • ein Router nicht mehr als 8 MB RAM benötigt
  • ein OS nicht mehr als 8 MB RAM benötigt
Es mag sein dass für dein Projekt und deine Performanceansprüche 2GB RAM reichen, das ist jedoch kein Grund dies als allgemeingültige Aussage hinzustellen oder gar andere Menschen als unwissend(er) als sich selbst abzustempeln...
 
  • Gefällt mir
Reaktionen: Faust II
Ravenstein schrieb:
2gb sind völlig ausreichend für einen Webserver, wer etwas anderes behauptet, hat keine Ahnung.

Da hat jemand keine Ahnung von Caching... 2 GB langt bei ner 0815 Seite, sobald da aber noch andere Dienste dazu kommen wie Piwik bzw. Matomo, welche auf dem gleichen Server laufen sollte langen die 2 GB nicht mehr.

Im LAN sind 2 GB durchaus ok, hat mein NAS auch nur aber im Netz sollten es mehr als 2 GB sein, alleine schon weil RAM heute nichts mehr kostet. Mein root Server hat z.B. 32 GB und kostet nicht mal 50 € im Monat.
 
cunhell schrieb:
Da freut es einen doch, dass Chrome auch die Basis des neuen Microsoftbrowsers wird.
Wenn die Monokultur bei den Browserengines weiter zunimmt, werden wir das noch häufiger als jetzt sehen.

Cunhell

Oder genau das Gegenteil, weil nicht jeder getrennt seine eigene Engine pflegen muss sondern alle an der gleichen arbeiten und "härten" können.
 
  • Gefällt mir
Reaktionen: areiland
Galde schrieb:
Oder genau das Gegenteil, weil nicht jeder getrennt seine eigene Engine pflegen muss sondern alle an der gleichen arbeiten und "härten" können.
Nicht alle die an einem gemeinsamen großen "Arbeiten", haben das Ziel es zu verbessern.
Bestes Beispiel: Wikipedia und die Masse an Falschinformationen dort.
 
Galde schrieb:
Oder genau das Gegenteil, weil nicht jeder getrennt seine eigene Engine pflegen muss sondern alle an der gleichen arbeiten und "härten" können.

Was dabei rauskommt wenn "alle" die gleiche Codebasis verwenden und selbst daran Änderungen vornehmen sieht man doch an Android. Bis alle die Sicherheitspatches nachgezogen haben dauert es ewig, da alle ihre eigenen "Verbesserungen" einpflegen müssen.
Und Monokulturen haben im Allgemeinen mehr Nachteile als Vorteile, egal von wem sie kommen.

Cunhell
 
  • Gefällt mir
Reaktionen: I'm unknown, CMDCake, Creeed und eine weitere Person
cunhell schrieb:
Was dabei rauskommt wenn "alle" die gleiche Codebasis verwenden und selbst daran Änderungen vornehmen sieht man doch an Android. Bis alle die Sicherheitspatches nachgezogen haben dauert es ewig, da alle ihre eigenen "Verbesserungen" einpflegen müssen.
Und Monokulturen haben im Allgemeinen mehr Nachteile als Vorteile, egal von wem sie kommen.
Cunhell

Ja genau, da klappt das nicht weil jeder sein eigenes Süppchen kocht!
Da kommt auch keiner auf die Idee was an die Codebasis zurückzugeben.
Wenn Google dann einen Patch rausbringt reichen die Hersteller das nicht an den Kunden weiter weils entweder nicht zum eigenen Code passt oder lieber mit einem neuen Smartphone verkauft um die Müllwirtschaft in Gang zu halten :rolleyes:
Da ist nicht Android oder Google schuld, sondern der Kunde der das immer wieder mit einem Kauf belohnt ;)
 
Galde schrieb:
Wenn Google dann einen Patch rausbringt reichen die Hersteller das nicht an den Kunden weiter weils entweder nicht zum eigenen Code passt oder lieber mit einem neuen Smartphone verkauft um die Müllwirtschaft in Gang zu halten :rolleyes:
Ja wohl eher zweites. Sicherheitsupdates für den Linuxkernel, da soll mir mal Jemand erklären was da genau nicht zum mickrigen Code der 2-3 GUI-Änderungen der Hersteller passt. Es soll einfach nur zum Kauf neuerer Geräte gezwungen werden, nichts anderes steckt dahinter.
 
Zurück
Oben