Kommentar Kommentar: Canonicals aggressives Marketing nervt

In Debian bzw. Ubuntu ein ppa einbinden, ist zwar prinzipiell nicht schwierig, man muss es nur finden und sich im Klaren darüber sein, dass damit die Systemsicherheit hinweg ist. Wer da unter welchem Namen und mit was für Zielen ein ppa hostet, lässt sich eigentlich nie herausfinden. Und für die anderen Distributionen kann man notfalls immer rpm nehmen. Ggf. sind ein paar Verzeichnisanpassungen notwendig und einige Abhängigkeiten zu erfüllen, aber ein rpm auspacken, kann man immer.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Dass niemand OneGet nutzen möchte liegt nicht an MS, sondern daran dass man auf Windows seit über 20 Jahren Software per setup.exe installiert. Das ist die bekannte und bewährte Methode, und solange es keine triftigen Argumente gibt die einen Mehrwert bedeuten, wird sich das auch nicht ändern. Darüber hinaus liegt OneGet als Source Code auf GitHub. Wer mag kann gerne ein Projekt für ne GUI starten. Leider ist es so, dass sobald es um Windows geht, Microsoft einem gefälligst alles hinprogrammieren soll. Wenn es um andere Systeme geht, engagiert man sich um etwas zu schaffen was es noch nicht gibt.
Die Grundstruktur sollte vom OS Hersteller kommen. Nur so kann langfristiger Support und Kompatibilität sichergestellt werden.
Dazu kommt, dass MS das fertig in der Schublade liegen hat - nennt sich Softwarecenter und wird von Firmen schon lange eingesetzt, um unprivilegierten Usern das Installieren ausgewählter Software zu ermöglichen. Das ist ein kompletter Paketmanager, mit Updates & allem, der in der Firma eben auf das Repository der Firma zurückgreift. So kann ich auf der Arbeit z.B. Python, Visual Studio, Notepad++, ImageJ, die Auswertungssoftware fürs Lasermikroskop und alles mögliche andere installieren. Solang es eine .msi gibt, kann man es integrieren. Auch automatischer Rollout ist möglich, so spielt die IT die neue Office-Version, Firefox etc. zentral ein.
Wie gesagt, MS hat das alles fertig. Sie releasen es nur für den Consumer nicht, denn:
Aktuell versucht MS halt den Store zu pushen, mit allen Restriktionen, neuer UI etc. Da wäre ein Paketmanager, mit dem sich nutzerfreundlich die bisherigen Programme verwalten lassen hinderlich...
Alles reine Politik.

Der App Store bei OSX enthält zwar Apples Software, aber so gut wie keine ordentliche Produktivsoftware für die Workstation. Genau wie der App Store bei Windows 8 aufwärts. Gibt es Creative Cloud? Nö, da lad ich mir nen Installer bei Adobe. Gibt es Font Management? Nö, da log ich mich in den Kundenbereich des Herstellers ein und lad mir ne DMG. Wenn im App Store sowas mal angeboten werden würde, fange ich auch mit dem Zählen der Jahre an. Bei MS genau das gleiche. Obwohl da jetzt wenigestens ein paar Triple-A Spiele im Store angeboten werden. Das steckt zwar auch noch in den Kinderschuhen, hat aber größeres Potential als irgendein dröger Paketmanager wenn dort auch große Hersteller ihre Desktopanwendungen einstellen könnten.

Das es bei Apple noch nicht komplett in der Breite angekommen ist, ok. Auch hier muss man sich eben von setup.dmg entfernen. Aber Apple tut wenigstens was dafür, dass es dahingeht. Und soweit ich weiß, muss ich um über den Store vertrieben zu werden auch nicht mein Programm zur Hälfte neu schreiben, wie bei Windows UWP's, was die Migration einfacher macht.
 
@Autokiller677

Man muss es zwar nicht neu schreiben dafür kostet es aber 99 € im Jahr und die App wird von Apple überprüft. Was natürlich gut ist aber auf der anderen Seite auch Zeit kostet was für ein Notfallpatch nicht gerade förderlicht ist.
 
@Cool Master:

Zur Klarstellung: Kostet jede App im Store einen 99€ oder meinst du damit nur die Kosten, um im Developer Programm (oder wie das heißt) zu sein?
Ich dachte immer ohne das Developer Programm kann ich eh nicht für Apple entwickeln, weil ich dann nicht an die SDK's etc. komme.
 
Nein die 99 € beziehen sich nicht auf pro/App sondern sind die Jahresgebühren für das Developer Program. Es gibt zwei Arten von Developer Program:

1. Kostenlos
2. Kostenpflichtig

Mit dem kostenlosen kann man alles machen wie mit dem Kostenpflichtigen mit zwei Ausnahmen:

1. Apps Signieren
2. Apps in den Store stellen

Bedeutet also wenn man die App einfach so lädt kommt die Meldung "Der Entwickler konnte nicht verifiziert werden bla bla bla" und man muss den Umweg über ein Rechtsklick und öffnen machen. Damit wird dieses Problem umgangen. Der zweite Punkt erklärt sich denke ich selber ;)
 
Sehr spannend wie hier Administratoren und reine Anwender aufeinander knallen. Natürlich will der reine Anwender nur die Anwendung nutzen und ihm ist es egal wie es funktioniert, Hauptsache es funktioniert und die Version mit dem Feature welches er braucht.

Und wie es halt so ist: Um Sicherheit macht sich der Anwender keine Gedanken. Die meisten Linux-Nutzer werden gar nicht wissen was hinter einem Paket-Repository steckt und welche Verantwortung Maintainer haben. Nein, da werden nicht einfach nur Dinge "irgendwie" kompiliert und zusammengepackt. Beim Kompilieren kann man schon durch falsche Flags Fehler machen und oftmals führen die Pakete auch Skripte aus (User-/Verzeichniserstellung, Rechteanpassung...). Und ganz wichtig: Die Deinstallationsroutine sorgt dafür, dass alles wieder rückstandslos entfernt werden kann. Eine doch recht wichtige Funktion die viele Leute so bewusst gar nicht wahrnehmen.

Zu glauben, dass jetzt jedes Projekt in der Lage ist entsprechend qualitative Pakete zu bauen ist einfach lächerlich und entbehrt jeglichen Grundlagen. Aber es interessiert den gemeinen Anwender nicht.

Ja, wer heute Debian Jessie installiert kann von Haus aus kein HTTP2. Unglaublich, ist aber so. Man kann nicht einmal einfach die entsprechenden Pakete selber bauen, weil die größte Abhängigkeit, OpenSSL, zu alt ist. OpenSSL ist nun aber nichts, was man mal eben aktualisiert (hier muss man aufpassen, sonst brechen alle Pakete die gegen die Debian-Version linken). Wenn jetzt nginx oder Apache-Pakete mit gebündelten oder statischen OpenSSL-Pakete daher kommen führt das wozu? Genau: Bei der nächsten Lücken wird man evtl. die System-Lib per Update-Mechanismus des Betriebssystem schnell aktualisiert bekommen aber woran keiner denken wird sind die ganzen 3rd-Party Pakete die gebündelte/statisch gelinkte -- nun veraltete und verwundbare -- Bibliotheken mitbringen. Wer hier wirklich glaubt, dass jedes Upstream-Projekt zeitnah Updates bereitstellt..

Bei größeren Libs wie OpenSSL mögen sich Lücken auch noch herumsprechen. Aber manche Lib gegen die ein Projekt wegen einer einzigen Funktion linkt, was selbst nicht einmal allen Core-Devs eines Projekts bekannt ist, die werden in Vergessenheit geraten bis es plötzlich knallt.

Bzgl. Einheitspakete: Klingt ja toll... Universalpakete für Linux. Manch kommerziellen Hersteller wird es freuen, denn aktuell werden eben nur kommerzielle Distributionen unterstützt die auch beim Kunden eingesetzt werden (für alles andere wäre der Testaufwand vermutlich zu hoch). Doch wozu braucht man dann noch verschiedene Distributionen wenn alles gleich ist? :) Evtl. stellt man sich einmal die Frage weswegen man CentOS, Fedora, Debian, Ubuntu etc. einsetzt.

Und wenn ich höre, dass irgendein Display-Server nun sicherer sei, weil das Paket an sich ja in einer Sandbox läuft und von dort aus dann fremde Libs/Programme nicht angesprochen werden können... man man man.
 
Schöner Beitrag der ein gutes Beispiel dafür ist warum es doch nicht so klug ist das die Distributionen ihre repositories mit zeug füllen das man dann einfach nehmen muss...
 
Fakt ist, wir brauchen ein System wo Entwickler ihre Scheiße selbst packen. Und das geht nur mit einheitlichen Standards. Linux ist eine Bewegung, Ubuntu wird immer mehr zum Betriebssystem, das ist der Unterschied. Sie konzipieren den Unterbau. Apps bauen darauf auf. Nicht ungekehrt. Canonical versucht entgegen aller Widerstände das zu erreichen, was Google mit Android längst geschafft hat, aber ohne dabei die Linux-Gepflogenheiten der Community völlig auszubooten. Das kann man gar nicht hoch genug würdigen.
 
Canonical versucht proprietäre Lösungen auf den Markt zu drücken. Im Kontext von Linux gibt es da gar nichts zu würdigen, das widerspricht einfach nur dem Konzept und hilft auch keinem. Zumal sie sich auch einfach an der schon existierenden Lösung beteiligen und diese fördern könnten: Wayland statt Mir, Flatpacks statt Snaps etc.

Aktuell führen sie sich eher auf wie Microsoft früher: Das müssen wir aber selber machen, so dass es unter unserer Kontrolle ist, und über unsere Marktmacht irgendwie reindrücken.
 
Eben. Warum muss jeder seine eigene Suppe kochen? Warum kann man nicht mal alle an ein Tisch bringen und zusammen arbeiten? DAS wäre Grundgedanke von Linux UND würde jedem gut tun.
 
Autokiller677 schrieb:
Canonical versucht proprietäre Lösungen auf den Markt zu drücken. Im Kontext von Linux gibt es da gar nichts zu würdigen, das widerspricht einfach nur dem Konzept und hilft auch keinem. Zumal sie sich auch einfach an der schon existierenden Lösung beteiligen und diese fördern könnten: Wayland statt Mir, Flatpacks statt Snaps etc.

Aktuell führen sie sich eher auf wie Microsoft früher: Das müssen wir aber selber machen, so dass es unter unserer Kontrolle ist, und über unsere Marktmacht irgendwie reindrücken.

Da das Zeug von Canonical afaik open source unter GPL ist, ist der begriff "propritär" eher unangebracht ;)
Man kann von den Alleingängen von Canonical halten was man möchte (ich bin persönlich auch der Meinung, dass die Energie besser in bestehenden Projekten aufgehoben wäre, grade wenn es wie bei Mir und Snap schon Projekte mit quasi gleichen Zielen gibt), aber auf der anderen Seite war es bei Linux schon immer so, dass es viele Alternativen gab - entweder führt das zu Koexistenz, oder zu natürlicher Auslese.
Nur weil da jetzt ne große Distro bzw Firma dahintersteht macht es das in meinen Augen nicht schlimmer als es in der Vergangenheit war.
 
Ok, proprietär ist nicht 100% korrekt. Aber wenn die URL's zum App-Store hardgecodet sind und man damit an Canonicals Infrastruktur gebunden wird entspricht das mMn. nicht der Idee von Linux und ist auch nicht wirklich open-source freundlich.

Ja, bei Linux wird oft geforkt und gesplittet - aber wie du schon sagst, die Projekte sind hier quasi identisch, daher ist der Sinn eines Forks für mich nicht unbedingt ersichtlich.
 
Autokiller677 schrieb:
Ok, proprietär ist nicht 100% korrekt. Aber wenn die URL's zum App-Store hardgecodet sind und man damit an Canonicals Infrastruktur gebunden wird entspricht das mMn. nicht der Idee von Linux und ist auch nicht wirklich open-source freundlich.

Ja, bei Linux wird oft geforkt und gesplittet - aber wie du schon sagst, die Projekte sind hier quasi identisch, daher ist der Sinn eines Forks für mich nicht unbedingt ersichtlich.

das gleiche kann man auch über open/libre-office und viele andere projekte sagen ;)
und hardcoded ist bei open source auch schwer :freak:

worauf ich raus will: ich bin auch mit vielem nicht einverstanden, aber das ständige canonical-gebashe bringt imho auch nichts. Und dass Canonical/Ubuntu in den letzten Jahren auch viel gutes für Linux geleistet haben darf man auch nicht unter den Tisch kehren.
Das schöne an Linux ist aber ja, dass man jederzeit auf ne andere Distro wechseln kann, wenn man die Schnauze von Ubuntu voll hat ^^
Solange snaps und/oder flatpacks aber optional bleiben und die repos darunter nicht leiden bleibe ich erstmal bei Kubuntu (den Mir-Quatsch machen die ja zum glück nicht mit ^^) :D
 
Bachsau schrieb:
Fakt ist, wir brauchen ein System wo Entwickler ihre Scheiße selbst packen.
Da widerspreche ich energisch! Entwickler haben einen Tunnelblick. Die sollen sich auf ihren Kram fokussieren und dokumentieren was sie tun. Aber Schuster bleibt bei deinen Leisten...

Und man sollte wirklich einmal hinterfragen ob Rapid-Development und Co. wirklich so toll ist. Lieber ein stabiles, ausgereiftes Interfaces worauf man sich verlassen kann anstatt alle 6 Monate einen kompletten Umbruch und alle 10 Tage irgendein Update so dass man am Ende nicht sichern sein kann ob was man Anfang des Monats noch tun konnte am Ende des Monats noch funktioniert oder "gerade" kaputt ist...
 
Whistl0r hat es auf den Punkt gebracht :) Als Entwickler kann ich dem nur zustimmen. Ich bekomme ein Design, sei es eingekauft oder vom Kunden, und so wird das Projekt umgesetzt. Alles andere ist einfach lächerlich. Ein UI Update alle X Monate? Ne eher Jahre! Wir bauen z.B. gerade unsere Firmen Webseite um. Die noch aktuelle Seite hat nun aber auch schon gute 4 Jahre aufm Buckel und darf nun etwas moderner werden :) Dazu kommt was auch ganz wichtig ist man darf nicht jedem Trend folgen.
 
naja, die frage ob bleeding edge oder LTS ist ja wohl eher Geschmackssache und nicht wirklich n pro oder contra gegenüber repos oder snaps/flatpacks/appimages/...
Der eine hat halt gerne den neuesten Stand, der andere lieber no-risk-Stabilität, wird ja zum Glück beides bedient :D
 
Oder man macht es einfach richtig und baut richtige Software ;) Dann brauch man kein LTS sondern kann Software ewig nutzen. Ein sehr gutes Beispiel dafür ist z.B. reoback. Da ist der letze Release knapp 10 Jahre alt und die Software läuft 1a auch ohne Support :) Einen echten Nachfolger findet man auch nicht wirklich zumindest nicht der 1. ohne Probleme läuft und 2. nicht überladen ist.

Vor allem ist halt neu nicht auch gleich automatisch besser. Klar wenn es wirklich Sinnvoll ist --> einbauen. Aber der Großteil mancher Änderungen sind einfach keine mehr und wenn steht z.B. bei meinen Apps immer nur "Bug fixes" super Angabe...
 
Whistl0r schrieb:
Da widerspreche ich energisch! Entwickler haben einen Tunnelblick. Die sollen sich auf ihren Kram fokussieren und dokumentieren was sie tun. Aber Schuster bleibt bei deinen Leisten...

Und solange die Mehrheit so denkt, wird wieder Linux noch irgendein anderes freies Betriebssystem jemals den Platz von Windows oder macOS einnehmen. Gnaz einfach deshalb, weil alles immer viel zu sehr voneinander abhängt. Es gibt einfach einen Unterschied zwischen Programmen, welche das Grundaufbau eines Betriebssystem bilden und Anwendungsprogrammen die gestartet werden, wenn der Nutzer etwas bestimtes damit machen will. Bislang krankt ausnahmslose jede Distribution an genau diesem Problem. Während ich mir ein stabiles System wünsche, wie es mir nur eine LTS bieten kann, wo auch Treiberentwickler eine zuverlässige Plattform vorfinden, auf die sie zählen können, benötige ich auf der anderen Seite ständig aktuelle Versionen von Firefox, FileZilla, LibreOffice und ähnlichem. Wenn ich versuche, daran etwas zu ädern führt das direkt in die Dependency Hell.

Entweder benutze ich also ein System, das so neu ist, dass es kaum von einer Zusatzsoftware unterstützt wird und für das es auch nur wenige offiziell paketierte Anwendungssoftware gibt (Arch Linux) oder ich muss damit Leben, dass das System meine Anforderungen nicht mehr erfüllt (Debian/Ubuntu LTS), ich mich z.B. mit bestimmten Servern nicht mehr verbinden kann, weil FileZilla die eingesetzte TLS-Version noch nicht unterstützt oder niemand den RDP-Client fixt, der aufgrund von Protokolländerungen nicht mehr funktioniert.

Beides ist Mist. Ein Grund warum ich inzwischen immer mehr am Mac mache, denn da habe ich genau das: Ein klar definiertes System, wo Apps eben Apps sind und keine Systemkomponenten.

Whistl0r schrieb:
Und man sollte wirklich einmal hinterfragen ob Rapid-Development und Co. wirklich so toll ist.
Eine schöne überlegung, die aber an den Tatsachen der Realität nichts ändern kann.
 
Das ist kein Problem offener Software, bei Windows sieht es nicht anders aus:

Hast du mal darauf geachtet dass Microsoft seit nun gut 2j jeden Monat ~1GB Updates für Office bereitstellt? Was machen die da? Richtig, die tauschen die gesamte Office-Installation aus. Mit O2016 kommt der Endkunde ja leider nicht mehr an C2R vorbei, weswegen das nicht mehr auffällt (der Stream wird einfach im Hintergrund geladen), aber das ist Snappy und Co. in Vollendung: Gebündelte Software mit allen Abhängigkeiten die der Hersteller ohne Nutzer-Interaktion (die Wahl "Mache ich das Update oder nicht) auf die Rechner der Nutzer schiebt...

Es gab zu XP-Zeiten mal ein Tool von Secunia(?) was den Rechner durchsucht hat. Nein, es hat nicht nur die installierten Programme aus der Registry ausgewertet sondern wirklich jede EXE/DLL Datei geprüft. Ergebnis: Die ganzen Hersteller bündeln ihre Programme unter Windows (das was wir jetzt mit Snappy, Flak und Co auch unter Linux bekommen werden) mit ihren Abhängigkeiten und kümmern sich nicht mehr darum, d.h. du hast dann da eine Anwendung mit veralteten Libs liegen. Du musst entscheiden ob das kritisch ist, wenn eine Anwendung irgendwelche Daten via SSL überträgt und dabei auf eine SSL-Lib zurückgreift die über bestimmte Zertifikate stolpert... ist dann halt ärgerlich wenn ein Systemdienst (also etwas was mit höchsten Rechten läuft) diese Lib verwendet. Im Usenet/ML ist ein Nutzer Namens Stefan Kanthak unterwegs der seit Jahren Programme/Hersteller öffentlich anprangert, welche veraltete Komponenten bündeln/installieren. Selbst Microsoft bekommt es nicht auf die Reihe ihre Abhängigkeiten aktuell zu halten, d.h. sie liefern vermeintlich neue Software mit veralteten eigenen Abhängigkeiten aus, wofür sie längst neuere Versionen haben...

Richtig müsste es also heißen: Noch ist es kein Open-Source-Problem. Denn dort achten die Maintainer der jeweiligen Distributionen darauf, dass die Anwendungen nichts bündeln sondern System-Libs verwenden, damit wenn diese gepatcht werden auch die jeweilige Anwendung nicht mehr gefährdet ist. Doch genau das wird sich dramatisch umkehren...

Und ich empfehle auch mal Bugtracker zu lesen: Sehr viele Bug-Reports inkl. Patche kommen von Maintainern. Das würde alles entfallen, wenn du Maintainer überspringst und es den Entwickler direkt machen lässt. Mit der Konsequenz das die Qualität noch weiter sinkt.


Zum Theme aktuelle Software: Es gibt auch Distributionen die ein Rolling-Release anbieten. Zuletzt hat selbst OpenSUSE so etwas an den Start gebracht. D.h. es braucht kein LTS-Release zu sein (die übrigens ganz andere Probleme haben), man kann aktuelle Software einsetzen ohne die Probleme zu haben die bald auf uns zukommen werden. Aber hier schreiben viele Leute die keine Ahnung haben (wie eben auch sehr viele Entwickler die ihr Gebiet überblicken aber keine Ahnung von Systemen/dem Gesamtbild haben) und viele Dinge durcheinander bringen...
 
Aaah.. ein wenig Licht in einer typischen, von Detail- oder gar Fachwissen wissen nicht sonderlich triefenden Stammtisch-Diskussion. Danke, Whistl0r.

Mal ehrlich... "Microsoft hat das Softwarecenter schon lange fertig, solls Linux doch auch einsetzen"? "Entwickler sollen ihren Kram selber ausliefern"? "Ubuntu wird zu einem Betriebssystem"? Was zur Hecke?!

Sorry, dass hier wenig konstruktives in Eigenregie steht. Ich würde Wistl0rs Post nur neu schreiben. Faktisch jedenfalls sind die neuen Anwendungspaket-Formate der Horror für Sysadmins schlechthin. Und Ubuntu setzt der Sache noch die Krone auf, weil man über Lizenzabkommen und Ubuntu-Store-Zwang eben NICHT die freie Wahl hat. - Anders als bei flatpak.

Regards, Bigfoot29
 

Ähnliche Themen

Zurück
Oben