News Clear Linux: Intels Linux-Distribution fällt fristlos dem Rotstift zum Opfer

chillipepper schrieb:
So einen dümmlichen Kommentar bekommt man nur selten zu lesen, meine Anerkennung.
Danke, das Kompliment kann ich vollumfänglich zurückgeben. Wo aus Deinem Kommentar geht gleich wieder hervor, dass Du vom professionellen Umfeld sprichst?
chillipepper schrieb:
Da entscheidet man sich nicht „spontan nach Gusto“, sondern sucht nach Standardisierung, langfristigem Support und maximaler Planbarkeit – genau das, was durch 800 Distributionen mit wechselndem Fokus und Lebensdauer konterkariert wird.
Dafür gibt es ja die LTS Versionen der Distributionen und ganz generell Distributionen mit verschiedenen Schwerpunkten. Da sind Deine genannten Punkte dann Kriterien für die Auswahl. Was macht Auswahl auf dem Markt da gleich wieder schlecht?

Ich kann das durchaus nachvollziehen, dass das aufwändig ist, aber das gehört leider dazu.
 
  • Gefällt mir
Reaktionen: jonderson und Termy
TechFA schrieb:
In jedem Falle aber, ist die jetzige Einstellung von Clear Linux mit an Sicherheit grenzender Wahrscheinlichkeit auf den kurzfristigen Abgang von Kirill Shutemov zurückzuführen – Intel hat dadurch seinen langjährigen führenden Linux-Entwickler verloren

Bei Intel und Linux denke ich an Andi Kleen, von Kirill Shutemov lese ich zum ersten mal.

Nach allem, was Du zu ihm schreibst, arbeitet er direkt mit den Kernel-Entwicklern an potentiellen Sicherheitsluecken in Intel-Hardware. Bei Clear Linux geht's dagegen um Performance. Ich denke nicht, dass die Clear Linux-Einstellung Shutemov nennenswert betrifft.

Aber wie man liest, gibt's bei Intel ja auch noch andere Einsparungen. Wenn Shutemovs Manager zu ihm gekommen ist, und ihn gefragt hat, welche Bruttomarge seine Arbeit hat (die man wohl nicht vernuenftig ausrechnen kann, wie das bei Security-Themen oft der Fall ist), und gleichzeitig Torvalds meint, er will schon sehen, dass Arbeit, die die Kernel-Community in Security steckt, tatsaechlich die Security verbessert und nicht nur theoretisch, kann es schon sein, dass Shutemov sich deswegen einen anderen Job gesucht hat.
 
  • Gefällt mir
Reaktionen: TechFA
Cool Master schrieb:
Gut, diese Aufsplittung bei Linux bzw. OSS allgemein schadet mehr als es bringt.
Das täuscht: Es gibt ein paar große Distributionen, auf denen fast alle anderen basieren. Wenn man systematisch daran geht, hat man schnell alle für einen selbst unwichtigen aussortiert. Und solange man in der gleichen "Familie" bleibt (z. B. von einem Ubuntu-Derivat zum anderen), ist die auch schnell gewechselt, falls einem später eine andere besser gefällt.

Oder vergleiche das mal mit der Auswahl in einem Supermarkt, oder dem Musikangebot eines Streaming-Dienstes: Das überfordert die meisten Leute doch auch nicht. Wie können da die paar geläufigen Linux-Distributionen und deren Variationen zu viel sein?
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Skysnake, Deinorius und 5 andere
chillipepper schrieb:
Aber in produktiven oder komplexen Umgebungen [...] was durch 800 Distributionen mit wechselndem Fokus und Lebensdauer konterkariert wird.
Meiner Meinung nach gibt es nur 3 Distributionen für produktive oder komplexe Umgebungen und das sind: RHEL, SLES und Ubuntu. Und oh Wunder, sie benutzen alle das gleiche Init-System und sind bis auf ein paar Begrifflichkeiten fast gleich aufgebaut und bieten Garantien.

Ein Problem besteht nicht, wenn es daneben noch ein paar hundert weitere Distributionen für nichtprofessionelle Nutzung gibt, die alle ihre Nische adressieren.
Nicht umsonst gibt es Rankings und Distributionen, die eben Millionenfach in Betrieb sind und andere, die auf einer Handvoll Rechnern laufen. Die Spreu trennt sich vom Weizen und das bekommt jemand auch mit, wenn er sich kurz einliest.
Beispielsweise ist Linux Mint unter nichtprofessionellen Nutzern sehr populär.
 
  • Gefällt mir
Reaktionen: Skysnake, uberLemu, Deinorius und 3 andere
Farrinah schrieb:
Bei der Schwemme an Distros der typische Sack Reis in China.
ja und nein. Wie schon erwähnt wurde haben einige Intel Entwickler immer wieder an Linux gearbeitet, wird interessant was mit denen passiert. Und soweit ich das verfolgt habe, war Intel bei den Grafikkartentreibern unter Linux auch offeneres als AMD und NVidia, mal sehen was da nun passiert.
 
Cool Master schrieb:
Wenn Intel die Zeit/Ressourcen in ein Debian, Ubuntu oder andere gesteckt hätte wäre das denke ich deutlich besser für alle gewesen als Distribution Nr. 5000 zu bringen, die so oder so nicht angenommen wird und wurde, da die Cloud Anbieter andere Distributionen nutzen.
Dieses Denken a-la "weniger Distribution führt dazu das sich Ressourcen aufaddieren" ist Quatsch.
Also ein klein Effekt hätte man sicher. Aber ob der so groß ist, darf bezweifelt werden.
Clear Linux konnte ja nur so stark optimiert werden, weil die freie Hand hatten. Eingebetten in ein Debian (oder was auch immer) hätte man ja sich auch immer an die Vorgaben von Debian halten müssen und nicht mal eben was ausprobieren können.

Und ja. Manchmal wirkt diese Distributionsvielfalt auch übertrieben, weils wirklich Distributionen gibt, wo man sich fragt, ob man das nicht hätte anders machen können.
Auf der anderen Seite führt das halt dazu, das man spezialisierte Systeme hat bzw. welche, die auch bestimmte Vorlieben ansprechen.
Bei anderen Produkten (Autos, Brotsorten, etc.) sagt ja auch keiner: "Vielfalt ist doof. Lasst uns das mal auch 3 Standprodukte reduzieren".

Es gibt sicher Aspekte, die man vereinheitlichen könnte. Insbesondere, wenns so Standardkram ist. So was wie Netzwerkkonfiguration oder weiß der Geier.
Das ist vermutlich auch eher realistischerweise umzusetzen als die Distributionsanzahl zu reduzieren.
 
  • Gefällt mir
Reaktionen: Anullu, Skysnake, Deinorius und 4 andere
chillipepper schrieb:
Aber in produktiven oder komplexen Umgebungen, insbesondere bei Servern, Studios, Forschung, Embedded oder Enterprise, ist das schlicht realitätsfern. Da entscheidet man sich nicht „spontan nach Gusto“, sondern sucht nach Standardisierung, langfristigem Support und maximaler Planbarkeit – genau das, was durch 800 Distributionen mit wechselndem Fokus und Lebensdauer konterkariert wird.
du erkennst schon die lösung und willst es trotzdem nicht verstehen? dein problem ist nämlich keins, wenn du einfach support kaufst. und sobald du deine distri hast, können alle anderen dir dann komplett egal sein. und was andere leute benutzen, ist nicht dein problem.

milliarden von embedded devices auf dem gesamten planeten (und ausserhalb), rechenzentren, serviceanbieter mit millionen kunden und sonstwas läuft alles mit linux. und deren betreiber haben es geschafft, die richtige wahl bzgl. der distribution zu finden, aber du schaffst das nicht? was sagt das jetzt über unseren unix-profi aus?
 
  • Gefällt mir
Reaktionen: Anullu, Skysnake, Deinorius und 5 andere
chillipepper schrieb:
Bei Linux-Distributionen reden wir nicht über kosmetische Unterschiede, sondern über unterschiedliche Init-Systeme

Abgesehen von ein paar Exoten hat sich systemd quer ueber alle Distributionen durchgesetzt.


Das ist fuer mich der groesste Unterschied, aber irgendwie funktionieren die alle sehr aehnlich. Das groessere Problem ist eigentlich, die richtigen Paketnamen zu finden.

Verzeichnisstrukturen

Die sind sehr aehnlich bis gleich, schon kommend von Unix (FHS), und dann noch durch LSB.

Security-Policies

Nicht so unterschiedlich, dass es mir im taeglichen Betrieb aufgefallen waere, mit einer Ausnahme: In Ubuntu darf ein Kindprozess kein ptrace auf seinen Elternprozess machen; da kriegt man aber auch gleich die Info, wie man das erlaubt, wenn man das moechte.


Und was ist das Problem? Und wie vergleicht sich das mit Windows, wo manche jedes Update sofort aufgedrueckt bekommen, andere es verschieben koennen, und wieder andere bei einer bestimmten Unterversion stehenbleiben und dafuer noch Security-Fixes bekommen (zumindest in Windows 10, sollte, nach allem, was ich gelesen habe, mit Windows 11 abgeschafft werden).

und teils inkompatible Binärschnittstellen.

Ja, klar kannst Du ARM-Software nicht auf AMD laufen lassen, das geht aber mit Windows oder MacOS auch nicht. Ansonsten ist mir in dem Bereich nur aufgefallen, dass Rueckwaertskompatibilitaet schlecht ist: Ein mit glibc-2.x verlinktes Programm laeuft oft nicht auf glibc-2.y, wenn y<x. Also lieber auf einer Maschine mit einem alten System linken, wenn man ein Binary produzieren will, das ueberall laeuft. Oder statisch linken.

Das betrifft nicht nur Userkomfort, sondern Wartbarkeit, Dokumentation, Bugfix-Kompatibilität und sogar Treiberverfügbarkeit.

Kann ich alles nicht nachvollziehen, ausser dass manche Hinweise zur Problembehebung auf stackoverflow von 2013 nicht mehr funktionieren (viele aber schon).

Was ist "Treiberverfuegbarkeit"? Treiber kommen mit dem Kernel mit.

Dass du diesen Unterschied nicht erkennst, zeigt nur, dass du die Problematik offenbar noch nie in einem ernsthaften Kontext erlebt hast.

Wir arbeiten seit ueber 25 Jahren beruflich mit Linux, vermutlich nicht ernsthaft genug:-). Die Menge an Distributionen war nie ein Problem.
 
  • Gefällt mir
Reaktionen: Skysnake, Deinorius, AlphaKaninchen und 4 andere
mae schrieb:
Wir arbeiten seit ueber 25 Jahren beruflich mit Linux, vermutlich nicht ernsthaft genug:-). Die Menge an Distributionen war nie ein Problem.

Und auch Du erkennst nicht das eigentliche Problem. Nämlich dass Hunderte Linux-Distributionen verhindern, dass Firmen in Erwägung ziehen, ihre Produkte für einen Wildwuchs von Linux-Distributionen zu entwickeln und zu supporten.

Linux hat in den letzten Jahrzehnten nur dort einen Platz gefunden, wo die erforderlichen Applikationen unter Linux zur Verfügung stehen.

Aber es gibt eine Menge an Standard-Applikationen die in bestimmten Bereichen nicht wegzudenken sind, wo man leider immer noch auf Windows (oder auch macOS) angewiesen ist, weil Linux nicht supported ist.

Und das ist sehr ärgerlich, weil man gerade jetzt eine Alternative zu Windows 11 gerne hätte.

Mein Workaround: migration zu Windows 10 Enterprise IoT LTSC 2021. Extended Support bis 2031 ...

Darum, weitere gefühlte 800 Linux Distributionen weniger wären ein Fortschritt und eine Chance für Linux, eine wirkliche Alternative zu Windows 10 zu werden. Aber dazu bedarf es Standardisierung, keine Vielfalt.
 
chillipepper schrieb:
Und auch Du erkennst nicht das eigentliche Problem. Nämlich dass Hunderte Linux-Distributionen verhindern, dass Firmen in Erwägung ziehen, ihre Produkte für einen Wildwuchs von Linux-Distributionen zu entwickeln und zu supporten.
ja klar, die ganzen firmen mit einem super businessplan, die sich dann sagen "och nee, zuviele distris, lassen wir dann mal sein"... wer software entwickelt, verkauft und supported gibt einfach die unterstützten distris vor.
chillipepper schrieb:
Mein Workaround: migration zu Windows 10 Enterprise IoT LTSC 2021. Extended Support bis 2031 ...
und da sind wir wieder am gleichen punkt wie im anderen thread. der unix-profi verwendet dann lieber windows!
 
  • Gefällt mir
Reaktionen: Skysnake, Deinorius, gongoscho und eine weitere Person
Es ist um Jedes OS Schade was nicht mit W beginnt und s Endet, wenn es einfach so Gesang und klanglos verschwindet.
Aber Clear Linux OS war jetzt auch kein all zu bedeutendes OS von Intel, was mich verleitet hätte es in eine VM zu installieren!

Wenn das hingegen Kali Nebula OS oder gewesen wäre....
 
  • Gefällt mir
Reaktionen: TechFA
chillipepper schrieb:
„Ausprobieren und das Passende nehmen“ ist ein legitimer Ansatz für Privatnutzer mit viel Zeit und niedrigen Anforderungen. Aber in produktiven oder komplexen Umgebungen, insbesondere bei Servern, Studios, Forschung, Embedded oder Enterprise, ist das schlicht realitätsfern.
Ja aber für diese Institutionen wäre ClearLinux nie in die Auswahl gekommen.

Für diese Anforderungen gibt es nur 3 relevante Distros: Ubuntu, Red Hat und Suse
 
  • Gefällt mir
Reaktionen: Skysnake und rollmoped
rollmoped schrieb:
RHEL, SLES und Ubuntu
Debian und seine weniger bedeutenden Derivate, die in der Regel nicht von Unternehmen eingesetzt werden (wie Proxmox und TrueNAS), möchten sich herzlich für die Erwähnung bedanken. ;)
 
  • Gefällt mir
Reaktionen: Skysnake, Deinorius, gongoscho und 3 andere
Mal sehen wann die CPU-Sparte dem Rotstift zum Opfer wird.. 😄


(Jaja, dummer Kommentar)
 
  • Gefällt mir
Reaktionen: TechFA und TPD-Andy
Jan schrieb:
stets der neueste Kernel waren und Optimierungen für Intels Prozessoren waren weitere Merkmale der Distribution
Das erste "waren" ist, glaube ich, fehl am Platz.
 
chillipepper schrieb:
Und auch Du erkennst nicht das eigentliche Problem. Nämlich dass Hunderte Linux-Distributionen verhindern, dass Firmen in Erwägung ziehen, ihre Produkte für einen Wildwuchs von Linux-Distributionen zu entwickeln und zu supporten.
Flatpak oder Snap läuft überall wenn man es möchte. Die Firmen die du meinst, möchten nicht Software ohne DRM, persönlicher Telemetrie und sonstiger Sammlwut veröffnetlichen. Und es sind genau die Firmen die ihre Software nicht für Linux anbieten, die am negativsten auffallen.
Intel MAC Software war sehr einfach auf Linux zu migrieren und keiner von diesen Firmen hat es gemacht.
Aber der geringe Markanteil! Mac hat auch kleinen Marktanteil, aber ist von Haus aus ein Dongle und die Firmen lieben Dongle.

@RedPanda05 Die verkaufen zu wenig Service. Die sind zu doof um Geld zu verdienen.
 
  • Gefällt mir
Reaktionen: Skysnake, Deinorius, Der Puritaner und 2 andere
tomgit schrieb:
Clear Linux OS ist noch nicht einmal bei Distrowatch in den Top 100 gelistet und wäre mir auch neu, dass es auf irgendwelchen Produktivsystem lief.
Vor Clear Linux hat Intel zu Open-Source jede Menge Patches beigesteuert und Optimierungen finanziert.

Clear Linux kam um alles zusammen zu schnüren und um die Öffentlichkeit nicht warten zu lassen. Maintainer diverser Projekte haben sich an den Patches bedient, wie es auch stückweit vorgesehen war. Solus z.B. war (ist?) eine auch auf Spiele ausgerichtete Distro, bei der sowas schnell landete.

Die Mehrperformance war aber auch auf AMDs messbar.

Unabhängig davon, in der Praxis hängt die Performance (oder Latenz usw.) bei viel Software da draußen aber nicht von solchen Optimierungen ab. Es sind eher schlechte Architektur, falsch gewählte Datenstrukturen, Unkenntnis von sync/async; DevOps „Spezialisten“ die auf das Basissystem pfeifen, inkohärente Container Landschaft…. Wer aber im HPC Umfeld tätig ist (oder CDNs, oder…), der greift sich eine Untermenge raus, das volle Clear Linux muss es nicht sein.

Hoffen wir, das Intel wenigstens zum alten Patch+Sponsoring Verhalten zurückfindet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deinorius, TPD-Andy und rollmoped
chillipepper schrieb:
Nämlich dass Hunderte Linux-Distributionen verhindern, dass Firmen in Erwägung ziehen, ihre Produkte für einen Wildwuchs von Linux-Distributionen zu entwickeln und zu supporten.
Es ist gar nicht nötig, den "Wildwuchs" zu supporten. Sehr oft unterstützen Firmen nur eine Distribution. Oder nur eine sehr kleine Auswahl.
Wenn jemand das Programm dann auf anderen Distributionen lauffähig macht, z.B. in einem Flatpak, bekommt er eben keinen Support dafür.
Beispielsweise würde es in der Regel ausreichen, nur LTS-Versionen von Ubuntu zu supporten.
 
Flatsteff schrieb:
Naja, so spontan ist natürlich blöd, wenn man sowas produktiv einsetzt, aber dass eine Linuxversion wegfällt, ist generell doch einfach nur egal, ich lese da nichts, was nicht 10 andere auch mehr oder weniger so bewerben?
Ist trotzdem mehrere Tage Aufwand, wenn man Clear Linux als Base Image verwendet hat zumal Clear Linux ja auch noch einen eigenen Package Manager hatte. Das kostet eine Firma dann auch einen fünfstelligen Betrag.
 
  • Gefällt mir
Reaktionen: Skysnake
Zurück
Oben