News Qubes OS 4.1.1: Hochsicherheitslinux setzt auf Xen und Isolation

Zornica schrieb:
So viele VMs müssen doch ordentlich Energie ziehen?
Also ich arbeite mit einem Produkt, dass sich in vielen Aspekten zu diesem hier ähnelt (SINA Workstation). Dort sind meine Arbeitsumgebungen auch virtualisiert und als Hardware kommt ein T14 mit i7 zum Einsatz. Die Laufzeiten sind sehr passabel (ca. 5-6h), allerdings habe ich keinen direkten Vergleich eines T14 mit bspw. normalem Windows 10/11.

Zu Qubes OS: Für den Heimanwender wahrscheinlich total drüber. Bei all den Vorteilen der Abschottung durch Virtualisierung, die Bedienung kann nervig sein. Ich habe für einen anderen Job noch ein L14 das mit Win 10 Pro läuft und das ist bei der Bedienung immer wieder eine andere Welt. Ich kann mir nicht vorstellen, dass das bei Qubes großartig anders ist.
 
Wie immer, da muss nur etwas auf Linux basieren, und schon ist es das sicherste System auf der Welt:

https://www.qubes-os.org/security/qsb/

Die kochen auch nur mit Wasser. Deren Lücken - generell wie praktisch alle Lücken in Linux - werden einfach nicht so sehr kommuniziert wie Lücken in Windows. Fehler im IE - das BSI warnt, eine Meldung in der Tagesschau. Lücken in Linux-Servern, seit Jahren bestehend - keine Meldung.

So erzeugt man natürlich auch ein Gefühl der Sicherheit. Das ist aber nur ein Gefühl und hat mit der Realität nichts zu tun.
 
  • Gefällt mir
Reaktionen: WH95
yxcvb schrieb:
Wie immer, da muss nur etwas auf Linux basieren, und schon ist es das sicherste System auf der Welt:
Qubes Sicherheitskonzept ist weit davon entfernt einfach nur "auf Linux basiert" zu sein.
yxcvb schrieb:
Deren Lücken - generell wie praktisch alle Lücken in Linux - werden einfach nicht so sehr kommuniziert wie Lücken in Windows
Du linkst hier selbst auf die Herstellerseite, die das transparent und genaustens kommuniziert. Den Widerspruch merkst du selbst? ;)

yxcvb schrieb:
Fehler im IE - das BSI warnt, eine Meldung in der Tagesschau. Lücken in Linux-Servern, seit Jahren bestehend - keine Meldung.
Die Lücken sind meistens übrigens kein Teil von Linux, sondern Teil irgendeines Programmpakets, die prinzipiell OS-unabhängig sind. Die letzten großen, medial vertretenen Bugs, die mir spontan einfallen sind Heartbleed in OpenSSL oder Log4J, beide überwiegend in Linux Infrastrukturen vertreten. Bei beiden wurde das BSI auch aktiv.

Die ganzen anderen, wie Meltdown, Spectre und gerade aktuell Retbleed gehen auf die CPU Architektur zurück und sind sowieso unabhängig vom OS.

Aber dass es echte Kernelbugs selten bis nie in die Tagesschau schaffen, liegt vorallem an den Zielgruppen. Der Großteil der Bevölkerung (inklusive denen, die mit Ein/Ausschalten schon überfordert sind) und Behörden verwendet nunmal Windows. Da sind Hinweise und Warnung vom BSI mit wahrnehmbarer Außenwirkung schon sinnvoll, sonst würden die davon erst Recht nie was mitkriegen.

Kernelbugs dagegen sind erstmal vorallem für Serveradmins relevant. Und da ist man i.d.R. sowieso schon informierter durch entsprechende Kanäle und hat auch seine entsprechenden Routinen durchgeführt bevor das seinen Weg in die Tagesschau finden würde. Und oft ist es hier auch so, dass die Lücken behoben werden, bevor sie überhaupt böswillig benutzt werden konnten. Also allein die Zielgruppen und Umstände sind hier fundamental unterschiedlich.

yxcvb schrieb:
So erzeugt man natürlich auch ein Gefühl der Sicherheit. Das ist aber nur ein Gefühl und hat mit der Realität nichts zu tun.
Dass ein standardmäßig installiertes Consumer Linux gar nicht mal so optimal konfiguriert ist aus der Sicherheitsperspektive, damit hast du tatsächlich Recht. Aber die Feinheiten sind für Ottonormalverbraucher ziemlich irrelevant. Und nochmal zur Betonung: Qubes richtet sich auch in der Linuxwelt schon nicht an die Ottonormalverbraucher ;)
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, PHuV, LuxSkywalker und 5 andere
Akademisch wertvoll, praktisch Overengineering.
Mir gefällt der Mobile-Ansatz viel besser: Basis OS + Secure OS Space + Disposable VM je App + API-Driven Design für IO/Storage/Networking/Location/etc
 
[wege]mini schrieb:
Wenn man Sicherheit durch Isolation erkauft, ist man am Ende zwar komplett sicher vor fremden Einflüssen, leider aber auch allein. :evillol:
:D:D .. Das höchste Level an Sicherheit hat man spätestens dann erreicht, wenn man wieder bei der mechanischen Schreibmaschine angekommen ist und die Buchstaben gegen sumerische Keilschrift ausgetauscht hat und Zaubertinte benutzt.... Aber spätestens dann sollte man auch beginnen über den Nutzen des Ganzen nachzudenken..;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [wege]mini und WH95
M-X schrieb:
Xen wird neben KVM nach wie vor von AWS genutzt, mit XCP-NG gibt es einen aufstrebenden Hypervisor auf Xen Basis. So schlecht kann es also nicht sein.

Ich habe früher auf Xen gesetzt, da damals mit KVM noch einiges nicht funktioniert hat, gerade mit PCI Passthrought. Die Performance war damals auch um einiges schlechter und KVM noch nicht überall ausgereift. Aber mittlerweile sind die Maschinen so schnell geworden, dass der Overhead eines nicht Bare Metall Hypervisors irrelevant ist, und es zudem mit ESXi ja einen wesentlich stärkeren gibt. HA ist ebenfalls mit KVM realisierbar und für mich überwiegen nur noch die Nachteile der nicht Integration in den Kernel.
Zudem wäre mir das Risiko bei Xen viel zu groß, dass es fallen gelassen wird. Dies ist ja auch mit OpenVZ passiert, als LXC bzw. cgroups entsprechend weit waren.
Also es muss noch Vorteile geben, nur welche wären dies?

P.S.
Mir ist ein minimalistisches Linux auch viel lieber als ein "echter" Type-1 Hypervisor.
 
Mikel2002 schrieb:
Ja genau das sind solche Dinge die stören.
Mann muss quasi aufrüsten weil alles nur noch Hardware abhängig ist, das ist schlecht für die Umwelt aber das wird nicht kritisiert.
Naja. Wobei das ja heutzutage keine ungewöhnlichen Hardwarevoraussetzungen mehr sind.
Abgesehen davon zwingt Dich ja niemand neue Hardware zu kaufen. Das System ist halt für Leute mit hohen Sicherheitsbedürfnis. Und ich find ok wenn die QubesOS-Macher dann solche Systemvorraussetzungen formulieren statt ein System zu bauen welches unsicherer wäre als technisch möglich nur um Alt-Rechner zu bedienen. Wer Alt-Rechner fahren will für den gibts Alternativen.

Mikel2002 schrieb:
Linux war mal bekannt dafür schnell zu sein, die moderne linuxe sind alles andere als schnell.
Du verwechselst Linux mit Linux-Distributionen. Du kannst sehr wohl ein schlankes und schnelles Linux bauen. Ebenso gibts Distributrionen die sich auf schlank/schnell spezialisiert haben.
(sieht man auch schön daran, das Linux auch auf embedded-Hardware läuft und das sind Rechner die von der Leistungsklasse ziemlich weit unten sind)

Wenn Du Dich bewusst für ein fettes Linux entscheidest, dann kannst Du Dich schlecht darüber beschweren, das Linux ja so langsam ist.
Und was QubesOS angeht: Das ist halt für Leute für die Performance nicht so wichtig ist wie Security.

Mikel2002 schrieb:
Aber dass ich fur diverse Sachen alle paar Jahre Hardware wechseln muss und dadurch Kinderarbeit und Umweltverschmutzung fördere das wird nie kritisiert.
Ganz ehrlich: Noch nie hat Hardware performancemäßig so lange gehalten wie heute. Ich hab teilweise Hardware im Einsatz die ist schon >10 Jahre im Einsatz. Wenn ich überlege, das ich meinen ersten Privat-PC von 1991 noch hätte im Jahre 2001 einsetzen wollen: Wäre gar nicht gegangen.

Der Bedarf an aktueller Hardware ist sicher trotzdem zu groß und es wird zu viel neu gekauft, obwohls eigentlich gar nicht nötig wäre. Das aber Linux in die Schuhe zu schieben finde ich jetzt ziemlich konstruiert.
 
  • Gefällt mir
Reaktionen: LuxSkywalker, kim88 und Gast12345
Mikel2002 schrieb:
Ja genau das sind solche Dinge die stören.
Diese Hardware Features gibt es schon seit Jahren ist also nichts neues. Wenn dein Zeug keine 15 Jahre alte ist wird es vermutlich sogar supported.
Mikel2002 schrieb:
Linux war mal bekannt dafür schnell zu sein, die moderne linuxe sind alles andere als schnell.
Welches Linux war das genau ? Es gibt nicht DAS Linux. Und es läuft auch heute noch vom Router mit 256 MB RAM und 64 MB Rom bis zum Supercomputer quasi überall, es kommt halt darauf an wie die Distribution gebaut ist.
 
  • Gefällt mir
Reaktionen: LuxSkywalker und Gast12345
M-X schrieb:
Diese Hardware Features gibt es schon seit Jahren ist also nichts neues.
Ja. Für den reinen CPU-Teil so a-la VT-x (welches im Wesentlichen dazu dient privilegierte CPU-Instruktionen entsprechend zu behandeln damit man kein manuelles Trap-and-Simulate machen muss) das gibts tatsächlich schon länger. IOMMU (aka VT-d ; im Wesentlichen zuständig für den sicheren Zugriff auf Peripherie) hat sich erst in den letzten Jahren in der Breite etabliert (der Rechner an dem ich sitze hat ein Board das ca.12 Jahre alt ist und ich weiß noch das ich damals IOMMU haben wollte und das hatte bei weitem noch nicht jedes Board).
Insofern ist das jetzt nicht völlig von der Hand zu weisen aber die Schlussfolgerung so von wegen 'man muss sich neue Hardware kaufen' ist natürlich absurd.
 
Mikel2002 schrieb:
Ja genau das sind solche Dinge die stören.
Mann muss quasi aufrüsten weil alles nur noch Hardware abhängig ist, das ist schlecht für die Umwelt aber das wird nicht kritisiert.
Linux war mal bekannt dafür schnell zu sein, die moderne linuxe sind alles andere als schnell.

Wie soll man ohne Hardware Virtualisierung den Speicher schützen, außer durch langsame Emulation? Es gibt noch die Möglichkeit über Paravirtualisierung, aber dann kann man kein Windows laufen lassen, bzw. nur angepasste Linux Kernels.
Genauso ist es mit IOMMU bei angeschlossener Hardware. Ohne IOMMU kann man mit DMA Zugriff auf den gesamten Speicher gelangen.
Zudem nimmt die Performance von Linux über die Zeit eher zu, das sind zwar nur im niedrigeren Prozenzbereich aber dies belegen die Benchmarks. Klar gibt es hier und da Regressionen, die dann spätestens im folgen Kernel wieder beseitigt werden.
Zudem sind wir nun weit entfernt von den 2.x Zeiten, bei denen das Kopieren auf einen langsamen USB Stick, das System lahmlegen konnte.
 
  • Gefällt mir
Reaktionen: Gast12345
ebird schrieb:
Wie soll man ohne Hardware Virtualisierung den Speicher schützen, außer durch langsame Emulation?
Durch langsame Emulation. :-)
Abgesehen davon wird Speicherschutz durch die Memory-Management-Unit realisiert und die gibts beim x86 tatsächlich schon gefühlt ewig.
 
Mikel2002 schrieb:
Ja genau das sind solche Dinge die stören.
Intel Sandy Bridge vor 11(!) Jahren hatte z.b. schon VT-D...
Oder setzt du ernsthaft noch 15-20 Jahre alte Rechner ein, und willst ausgerechnet dort ein OS wie Qubes einsetzen das bewußt von HW Virtualisierung gebrauch macht?
Ich denke du willst nur trollen!

Mikel2002 schrieb:
Mann muss quasi aufrüsten weil alles nur noch Hardware abhängig ist, das ist schlecht für die Umwelt aber das wird nicht kritisiert.
So gut wie jeder kritisiert zurecht MS wegen Windows 11 genau aus diesem Grund, weil die gerade aus NICHT TECHNISCH notwendigen Gründen alte HW ausschließen...
Mikel2002 schrieb:
Linux war mal bekannt dafür schnell zu sein, die moderne linuxe sind alles andere als schnell.
Reines Trolling... Was ist den langsamer geworden? Was meinst du mit schnell? Die Bootzeit?
Mikel2002 schrieb:
Und das release kam jetzt sehr schnell ich bezweifle dass da die Sicherheit so ist wie sie ist.
Na wenn der Herr Chefexperte das so sieht...
Mikel2002 schrieb:
Wahrscheinlich nur wieder ein warmes brot ohne Aufstrich.
????
Mikel2002 schrieb:
Aber dass ich fur diverse Sachen alle paar Jahre Hardware wechseln muss und dadurch Kinderarbeit und Umweltverschmutzung fördere das wird nie kritisiert.
Alle paar Jahre? Wenn z.b. Sandy Bridge vor 11 jahren es schon unterstützt hat!
Und Kinderarbeit bei solchen Komplexen Dingen wie Computer Hardware? Da hätte ich gerne einmal ein Bsp. in welchem Bereich das bitte sein soll. Klar bei Klamotten, Schuhen oder ähnlichen Dingen gibt es das aber bei PC Hardware???
Mikel2002 schrieb:
Gebau so dass Hardware "Zeitschriften" auch Kinderarbeit ignorieren (gegt ausnahmsweise mal um ein os, aber bei anderen Themen werden kommentare zur Kinderarbeit gelöscht und nicht nur meine).
Nun wenn deine anderen Kommentare eine ähnliche Qualität haben wie der hier wundert es mich nicht. Aber ich bin gegen jede Art von Zensur, und jeder soll ungehindert seine Meinung verbreiten, egal wie abwegig ich siehe halte...
Mikel2002 schrieb:
Aber hey, immer neue Hardware kaufen fur haufen geld, dann haben die Leute wieder Grund zu sagen dass sie kein geld für Miete etc. haben ;-)
Nun der Hauptpunkt warum viele Leute kaum noch Geld haben liegt bei den allermeisten mit Sicherheit nicht an der Computer HW oder Technik. Sondern in der seit >20 jahren FALSCHEN Politik des Neoliberalismus.. Aber so lange die Leute die neoliberalen Queerfront Parteien wählen -> SELBER SCHULD!
 
  • Gefällt mir
Reaktionen: MR2007 und Gast12345
Mikel2002 schrieb:
Linux war mal bekannt dafür schnell zu sein, die moderne linuxe sind alles andere als schnell.
https://mirrors.slackware.com/slackware/slackware-iso/slackware-12.0-iso/
Damit kannst du das langsame moderne Linux mit dem gutem altem Linux ersetzen, dann bist du sicherlich wieder zufrieden.
Wenn nicht gibts online bestimmt auch noch nen paar ISOs zu Slackware 1.0

Aber mal ganz ernst, was soll so nen Kommentar bei ner Distro die sich auf Isolation fokusiert? Das so ein Overhead nunmal performance frisst sollte klar sein.
Aber genauso gibt es noch Distros die sparsam sind, dann halt ohne 5000 Funktionen wie die ganzen bösen modernen aufgeblasenen Distros.

Sind im auch nicht nur die Distros selbst, mein Firefox verbraucht ohne offene Tabs mehr RAM als mein ganzes OS. Ist halt nicht mehr alles so einfach wie vor 30 Jahren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MR2007 und Gast12345
frank99 schrieb:
Intel Sandy Bridge vor 11(!) Jahren hatte z.b. schon VT-D...
VT-d ist nicht nur eine Sache der CPU, sondern auch der Chipsatz muss mitspielen.
Vor 11 Jahren war (funktionstüchtiges) VT-d keineswegs selbstverständlich.
 
Habs vor Jahren mal ne zeitlang genutzt. Die Hardware war da wirklich der limitierende Faktor.
Ich glaub ich werds nochmal testen. Aber am Besten in einer VM. Sicher ist sicher 🤔
 
Ich denke, dass man durch Umstieg von Windows auf z.B. Ubuntu schon einen großen Schritt Richtung Datenschutz bzw Sicherheit gemacht hat.

Kann sein, dass dieses hier sicherer ist. Vermutlich aber auch zu kompliziert, wenn man das Einrichten des PCs nicht nebenberuflich macht. Die Version wird nur 13 Monate geupdatet.
 
Hab QubesOS mal getestet und will auch definitiv nichts gegen das Sicherheitskonzept sagen.
Mein Fazit: Es funktioniert hat aber noch einen gewaltigen Nerdfaktor, man muss sich da auch als erfahrener Linuxanwender erst mal reindenken. sonst kommt man damit nicht klar und ist schnell frustiert.
Die Zielgruppe ist derzeit noch ziemlich klein...
 
Dummsday schrieb:
Die Zielgruppe ist derzeit noch ziemlich klein...
Aber vorhanden. Ich denke da auch nicht an Buchstabenorganisationen sondern Unternehmen bei denen es auf gar keinen Fall Manipulationen an deren Datenbanken geben darf. Der Admin wird das System hassen, es ist ja auch zum hassen gemacht. Copy and paste, dadam dadam. Bei Banken oder Versicherungen sind die Sicherheitsvorkehrungen doch etwas ausgeprägter, wobei jede Entwicklungsabteilung eines etwas größeren Unternehmen das Daten extern zugänglich machen muss auch nach Lösungen dieser Art sucht.
 
beercarrier schrieb:
Aber vorhanden. Ich denke da auch nicht an Buchstabenorganisationen sondern Unternehmen bei denen es auf gar keinen Fall Manipulationen an deren Datenbanken geben darf. Der Admin wird das System hassen, es ist ja auch zum hassen gemacht. Copy and paste, dadam dadam. Bei Banken oder Versicherungen sind die Sicherheitsvorkehrungen doch etwas ausgeprägter, wobei jede Entwicklungsabteilung eines etwas größeren Unternehmen das Daten extern zugänglich machen muss auch nach Lösungen dieser Art sucht.
Klar gibt es Bereiche in denen sowas benötigt wird, für den 08/15 Anwender ist es derzeit aber kompletter Overkill und an der Benutzbarkeit und Verständlichkeit muss definitv noch gearbeitet werden...
Dennoch ein interessantes Konzept, dass sicherlich weiterentweickelt werden wird..
 
andy_m4 schrieb:
Durch langsame Emulation. :-)
Abgesehen davon wird Speicherschutz durch die Memory-Management-Unit realisiert und die gibts beim x86 tatsächlich schon gefühlt ewig.
Naja, langsame Emulation ist ja keine Lösung. Wer verbrät denn freiwillig 50% der Leistung für so etwas? Und Virtualisierungsupport ist zwar bei IBM schon fast ein halbes Jahrhundert alt, bei Sun bestimmt 30 Jahre. Bei Intel und AMD sind es nur ca. 15Jahre, bei IOMMU noch weniger. Aber sogar in der Serverbörse von Hetzner werde ich keinen Rechner ohne Support finden.
 
Zurück
Oben