macht mein vorhaben sinn?

Status
Für weitere Antworten geschlossen.
Da ich im Studium selbst Inventor genutzt habe, es zu Hause allerdings noch nie auf der Linux-Maschine getestet habe kann ich darüber noch nichts sagen. Ich versuche mal die aktuelle Trail unter Wine zum laufen zu bekommen. Die Ergebnisse aus der WIne-Datenbank sind ja alle samt uralt.
Mal schaun, ich werds heute vielleicht noch sagen können.
 
RonZ schrieb:
Die Repos von Ubuntu enthalten teilweise uralte Programm/Libs, die teilweise schon Jahre alt sind
14.04? Das einzige, was da wirklich überaltert ist, ist die Version von Inkscape...

zum einen freilich der Sicherheitsaspekt (wie lange hat es gebraucht bis Headbleed gefixt war, kam mir wie eine Ewigkeit vor.
Ubuntu hatte, genau wie Debian, den Fix in 2-3 Tagen raus. Schneller war die Konkurrenz auch nicht.
Und die Sicherheitspatches haben NICHTS, aber auch GAR NICHTS, damit zu tun, ob die Bibliothek oder Anwendung älteren Datums ist. Das Zauberwort heißt "Backport".

zum anderen hat man mit Software von Dritten, die oft auf aktuelle Libs angewiesen sind, häufig richtig Probleme.
Nenn mir 3 Anwendungen, die in üblichen Anwendungsszenarien vorkommen, und dabei durch solche Geschichten nicht installiert werden können.
Beachte dabei auch, ob es ein PPA gibt.

Auch bei solche Systeme kommen größere Umstrukturierungen vor, nur dass man dazu nicht das ganze System neu installieren muss.
Öhm, muss man auch bei Ubuntu, Debian oder CentOS nicht. Meine älteste Ubuntu-Installation hat gute 5 Jahre mit allen zwischenzeitlichen, halbjährlichen Updates mit gemacht.
http://3.bp.blogspot.com/-rFNYHXIZz4A/VP2UGqdoE3I/AAAAAAAAVxQ/jc47FU2_AVs/s1600/vivid-systemd.png <- so sieht es z.B. aus, wenn man von Upstart auf Systemd wechselt. Wow. Was für ein mörderischer Aufwand...

Ich finds klasse. Ist natürlich nur meine Meinung. Und nach einer Arch-Installation weiß man wesentlich mehr über die Gepflogenheiten eines solchen Systems als nach einer solchen von Ubuntu.
Das sind Dinge, die quasi kein einziger ANWENDER wissen muss. Warum sind Windows & OSX so erfolgreich, und Linux so ein Desktop-Flop? Weil diese Systeme den User von so einem Mist fern halten. Wären Android-Phones so teuer wie iOS-Devices, kein Aas würde auf Android setzen.

Und selbst Administratoren müssen so einen Mist nicht wissen. Kann ich einen Server sicher, stabil und flott betreiben, ohne ein eigenes Init-Script schreiben zu können? Aber SICHER! Kann ich den Server betreiben, ohne handgeklöppelte und mundgeblasene Postfix-Version oder Kernel? Jep, mache ich jeden verdammten Tag.

Ich sage nicht, dass Arch fürn Arsch ist. Es hat seine Fans, es hat seine Anwendungsbereiche... aber es ist eben doch nur ein Frickel-System für Leute, die unbedingt Bleeding Edge brauchen. 99% der Anwendungsfälle brauchen aber kein Bleeding Edge, sondern Stabilität und Einfachheit.
Ergänzung ()

VikingGe schrieb:
Was mich an den normalen Distros nervt, ist, dass die grundsätzlich mit steinalten Compilern daher kommen, die auch nie aktualisiert werden. C++11 gibt es nun nicht erst seit gestern, kann man aber vergessen, wenn jemand nichts besseres als einen drei Jahre alten GCC 4.7 zu bieten hat.
...und genau dafür gibt es PPAs.
https://launchpad.net/~ubuntu-toolchain-r/+archive/ubuntu/test?field.series_filter=

Gratuliere, du hast soeben die Tür in eine größere Welt AUSSERHALB frickeliger RR-Distris aufgestoßen.
 
14.04? Das einzige, was da wirklich überaltert ist, ist die Version von Inkscape...

Aha, das ist das einzige, ja? Du kennst dich ja unmenschlich gut in den Repos aus ..

Ubuntu hatte, genau wie Debian, den Fix in 2-3 Tagen raus.
Okay, in den Changelogs sieht man das auch. Allerdings werden Update-Zyklen überwiegend an Securityfixes fest gemacht, und sie dann back-ge-ported. Was ist jetzt mit wirklich aktueller Software? Gerade wenn es sich nicht um LibreOffice oder andere Dinge geht die deine sog. ANWENDER nutzen?
Was weiß ich .. zuletzt war das bei mir der OpenConnect-VPN-Server. Das letzte Update gabs da 2012 .. Selbst kompilieren war der Graus, da notwendige GnuTLS-Lib noch von 2011 und alles was davon abhängt ähnlich alt. Aktualisieren ging nicht, da andere Bestandteile von den alten Libs abhängig waren ..
Und das bei einem VPN-Server - Sicher ist da nur, das das nicht sicher ist. Was macht dieses Paket dann noch in der Repo?

Und die Sicherheitspatches haben NICHTS, aber auch GAR NICHTS, damit zu tun, ob die Bibliothek oder Anwendung älteren Datums ist. Das Zauberwort heißt "Backport".

Du redest ja gern von "gefrickel". Backporting in solch großem Stil ist für mich aber sowas von Gefrickel!

Nenn mir 3 Anwendungen, die in üblichen Anwendungsszenarien vorkommen, und dabei durch solche Geschichten nicht installiert werden können.
Beachte dabei auch, ob es ein PPA gibt.

Egal was ich dir jetzt nennen würde, es wären für dich keine "üblichen Anwendungsszenarien". Von daher - obsolet..
PPA's sind kein Stück besser als die AUR von Arch. Durch die automatisierte Kompilierung aus dem AUR passt wenigstens das Packet zu 100% zu meiner Hardware. Die PPA's muss man sich zusammensuchen, im AUR sind sie fast schon auf Garantie immer enthalten. Wenn ich keine Bleeding Edge möchte, dafür aber Signierte Quellen, gibts auch bei Arch PPA-äquivalente Repos.

Öhm, muss man auch bei Ubuntu, Debian oder CentOS nicht. Meine älteste Ubuntu-Installation hat gute 5 Jahre mit allen zwischenzeitlichen, halbjährlichen Updates mit gemacht.

Aha. Was für größere Umstrukturierungen erwartest du bei einer LTE-Version. Ich eher keine. Und wenn alle paar Jahre eine bei Arch ansteht, dann muss man eben nach den Schritten vorgehen, die archlinux.de vorschlägt. In meinen Augen deutlich einfacher und schneller als eine Neuinstallation.

Das sind Dinge, die quasi kein einziger ANWENDER wissen muss.

Na, sowas. Heißt das jetzt, ich bin kein Anwender oder muss sowas eigentlich nicht wissen?
Der TE scheint einen Ingenieurberuf nachgehen zu wollen/nach zu gehen. Man kann davon ausgehen, dass es einem solchen Anwender nicht schaden würde minimale Linux-Basics zu erlangen .. Wenn man dagegen allergisch ist, gibts immernoch Antergos, also quasi ein Arch mit grafischem Installer und Grundkonfiguration.

Warum sind Windows & OSX so erfolgreich, und Linux so ein Desktop-Flop? Weil diese Systeme den User von so einem Mist fern halten.

Windows ist erfolgreicher, weil es einfacher ist für jeden "Mist" Geld zu zahlen, den man bei Linux nicht mal wirklich brauch (Virenscanner) und dafür auch noch haufenweise Crap zu bekommen. Früher war die Installation einer Distro wirklich aufwändiger. Heute ist das ganz anders. Wenn man einmal ein Monopol hat, brauch man sich um Argumente für sein Produkt kaum noch zu rechtfertigen. Da der gemeine ANWENDER allerdings träge im Kopf ist, wird sich das auch nicht so schnell ändern.

OSX .. lass mich überlegen - weil es noch einfacher ist, noch mehr Geld dafür auszugeben, nur das OS und Gerät aus einer Hand kommen? Ach so, und es ist natürlich leichter und schneller den leuchtenden Apfel zu zeigen um dem Gegenüber zu zeigen das man wirklich "hipp" ist. Da der Großteil der Nutzer so schlicht denkt (siehe Apple Aktienkurs), hat sich das bewährt.

Nicht desto trotz, es gibt auch Distributionen, die diesen "Mist", wie du ihn nennst, ebenfalls vollständig vom User fernhalten. Das kann also nicht der Grund für die schwache Verbreitung sind.

Und selbst Administratoren müssen so einen Mist nicht wissen. Kann ich einen Server sicher, stabil und flott betreiben, ohne ein eigenes Init-Script schreiben zu können? Aber SICHER! Kann ich den Server betreiben, ohne handgeklöppelte und mundgeblasene Postfix-Version oder Kernel? Jep, mache ich jeden verdammten Tag.

Du scheinst Arch nie getestet zu haben. Wie kann man sich nur so disqualifizieren in dem man solchen Unsinn in die Welt setzt?

... aber es ist eben doch nur ein Frickel-System für Leute, die unbedingt Bleeding Edge brauchen. 99% der Anwendungsfälle brauchen aber kein Bleeding Edge, sondern Stabilität und Einfachheit.

Du hast es immer noch nicht verstanden, oder? Auch bei Arch kommen die Pakete erst in die Stable-Repos, wenn sie bewiesen haben, dass sie stabil sind ..

Und was meinst du, hat dem TE jetzt dieses Gelaber gebracht? Ich hab nur meine Empfehlung für Arch gegeben und du brichst daraufhin so eine Diskussion völlig ab vom Topic vom Zaun. Unglaublich ..
 
Warum eigentlich gleich so aggressiv? Ist ja nicht so, dass hier irgendjemand für Arch missioniert. Im Gegenteil, ich würde es erst empfehlen, wenn schon etwas Linux-Erfahrung gesammelt wurde, weil man eben doch vieles von Hand machen muss, und einem Neuling eher zu Mint raten. Auch wenn die Ersteinrichtung - nebenbei auch dank systemd - inzwischen auch nur noch aus Partitionieren, Pakete installieren und User einrichten besteht, das sind im besten Fall zwei Wiki-Artikel und 10 Befehle auf der Kommandozeile.

...und genau dafür gibt es PPAs.
...die einem beim nächsten Versionsupgrade gerne mal um die Ohren fliegen, wenn es da irgendwelche Konflikte mit den offiziellen Paketen gibt. Auf die Art und Weise habe ich nicht erst eine Ubuntu-Installation zerschossen.
Hilft aber allgemein wenig, wenn man vom Uni-Netz mit Debian-Rechnern redet, wo man selbst natürlich keine Admin-Rechte hat. Ein aktuell gehaltenes Ubuntu wäre dagegen schon ein Segen.

Ubuntu ist aber auch genau so lange einfach und toll wie man eben nicht versucht, daran herumzufummeln - die Umstellung auf systemd dürfte auch nur dann reibungslos funktionieren, wenn du keine eigenen Services hast und nicht zufällig irgendetwas an den Konfigurationsdateien geändert hast, womit die Migrationsscripte zufällig nichts anfangen können. Spätestens ab dem Punkt muss man eh Wiki-Artikel lesen und Befehle tippen, egal mit welcher Distribution.
 
RonZ schrieb:
Aha, das ist das einzige, ja? Du kennst dich ja unmenschlich gut in den Repos aus ..
Was gängige Anwendungen angeht? Mir fällt nichts für den Alltag wichtiges ein, dass unbedingt Bleeding Edge sein muss und wo nicht auch ne Version von vor nem halben Jahr reicht.

Okay, in den Changelogs sieht man das auch. Allerdings werden Update-Zyklen überwiegend an Securityfixes fest gemacht, und sie dann back-ge-ported. Was ist jetzt mit wirklich aktueller Software? Gerade wenn es sich nicht um LibreOffice oder andere Dinge geht die deine sog. ANWENDER nutzen?
ALLES, was in den Core-Repositories liegt, erhält für die gesamte Lebenszeit des Releases (also bei LTS: 5 Jahre) Security Fixes, sobald sie bereit stehen. FUNKTIONEN werden hingegen nicht hinzu gefügt, außer bei einigen wenigen Programmen (z.B. Browsern)

Was weiß ich .. zuletzt war das bei mir der OpenConnect-VPN-Server. Das letzte Update gabs da 2012 ..
Du darfst hier nicht die offizielle Version des Entwicklers mit der vergleichen, die von den Distributions-Maintainern verwaltet wird.
So hat PHP 5.3 z.B. gar keinen offiziellen Support mehr seitens der PHP-Devs. Da es aber die PHP-Version in Ubuntu 12.04 und Teil des Core-Repo ist, gibt es von den Ubuntu-Maintainern alle aktuellen PHP-Fixes backported für 5.3

Du redest ja gern von "gefrickel". Backporting in solch großem Stil ist für mich aber sowas von Gefrickel!
Die Frage ist: Wer frickelt. Frickelt jederUser selbst, oder frickeln einige wenige professionelle Paket-Maintainer?

Aha. Was für größere Umstrukturierungen erwartest du bei einer LTE-Version. Ich eher keine.
Lesen, verstehen, antworten.
Wenn ich von "halbjährlicehn Upgrades" geschrieben habe, dann hatte ich wohl kaum LTS im Einsatz... zumal es Ubuntu LTS in der Form noch gar nicht so lange gibt.

Nicht desto trotz, es gibt auch Distributionen, die diesen "Mist", wie du ihn nennst, ebenfalls vollständig vom User fernhalten. Das kann also nicht der Grund für die schwache Verbreitung sind.
...und wenn du dir den Einsatz der verschiedenen Distributionen anschaust, dann liegen diese auf Bedienbarkeit getrimmten Distributionen weit vorn.

VikingGe schrieb:
Warum eigentlich gleich so aggressiv? Ist ja nicht so, dass hier irgendjemand für Arch missioniert. Im Gegenteil, ich würde es erst empfehlen, wenn schon etwas Linux-Erfahrung gesammelt wurde, weil man eben doch vieles von Hand machen muss, und einem Neuling eher zu Mint raten.
Du vielleicht, aber viele Arch-Verfechter hier im Forum sind ganz kräftig am missionieren, und wollen jedem Einsteiger direkt die Arch-Keule auf den Kopf hauen.

...die einem beim nächsten Versionsupgrade gerne mal um die Ohren fliegen, wenn es da irgendwelche Konflikte mit den offiziellen Paketen gibt. Auf die Art und Weise habe ich nicht erst eine Ubuntu-Installation zerschossen.
Dafür gibts PPA-Purge. Wenn ein Distributions-Upgrade ansteht, notier ich mir die PPAs, die ich im Einsatz habe, purge sie und mach dann butterweich mein Upgrade.

Hilft aber allgemein wenig, wenn man vom Uni-Netz mit Debian-Rechnern redet, wo man selbst natürlich keine Admin-Rechte hat. Ein aktuell gehaltenes Ubuntu wäre dagegen schon ein Segen.
Punkt mehr für Ubuntu LTS, wenn es KORREKT verwendet wird.
Landscape mag was kosten, aber es ist eben andererseits auch fast so mächtig wie Active Directory.

Ubuntu ist aber auch genau so lange einfach und toll wie man eben nicht versucht, daran herumzufummeln
Möglich. Aber wie viele User haben das wirklich getan? Das sind doch eher die extremen Ausnahmefälle.

Üblicherweise ist doch das höchste der Gefühle, dass man sich doch mal ein Paket (z.B. n hochmodernen Kernel, oder Sachen wie Jailkit) selbst kompiliert hat. Wenn man dann clever war, hat man Checkinstall verwendet und kann den Kram vorher über die Paketverwaltung bereinigen.
 
Mir fällt nichts für den Alltag wichtiges ein, dass unbedingt Bleeding Edge sein muss ..

Nochmal: Arch != Bleeding Edge. Es ist im Vergleich zu anderen Distros leichter möglich diese zu Nutzen, aber man ist mit Sicherheit nicht dazu verdammt.
Nur weil Pakete angeboten werden, die der tatsächlich aktuellen Programmversion entsprechen, würde ich es lassen dies als Bleeding Edge zu diffamieren ..

.. und wo nicht auch ne Version von vor nem halben Jahr reicht.

Wenn das deine Meinung ist, bitte. Die musst du aber niemandem Aufdrücken.

[...] FUNKTIONEN werden hingegen nicht hinzu gefügt, außer bei einigen wenigen Programmen (z.B. Browsern)

Für meine Begriffe wäre ich damit nicht zufrieden. Aber wenn du weißt, dass "der gemeine ANWENDER" damit auskommt, dann wird das schon so sein.

Du darfst hier nicht die offizielle Version des Entwicklers mit der vergleichen, die von den Distributions-Maintainern verwaltet wird.

Nein, ich gehe dabei von den Changelogs aus, die in den Ubuntu-Repos zu finden sind. Und da wurden die letzten Änderungen im Falle von "ocserv" eben 2012 vorgenommen. Dass durch das Rückportieren die Versionsnummern nicht ausschlaggebend sind, ist klar.

Die Frage ist: Wer frickelt.

Auch hier nochmal: Was ist daran "gefrickel", wenn ein System nicht aus lauter Backports sondern aus den aktuellen Programmversionen besteht?

Lesen, verstehen, antworten.
Wenn ich von "halbjährlicehn Upgrades" geschrieben habe, dann hatte ich wohl kaum LTS im Einsatz.

Okay, dass du eine nicht-LTS Version fünf Jahr lang nutzt, davon bin ich nicht ausgegangen. Oder hast du es hinbekommen zwischen den Versionen zu Upgraden ohne eine Neuinstallation? Geht das denn sauber?

... zumal es Ubuntu LTS in der Form noch gar nicht so lange gibt.

Okay, mit Precise wurde 2012 der 5 Jahres-Zyklus eingeführt.

Du vielleicht, aber viele Arch-Verfechter hier im Forum sind ganz kräftig am missionieren

Alles klar. Eine Empfehlung, in einen Satz verpackt, ist also eine Missionierung? Unglaublich ..

Üblicherweise ist doch das höchste der Gefühle, dass man sich doch mal ein Paket (z.B. n hochmodernen Kernel, oder Sachen wie Jailkit) selbst kompiliert hat.

Siehste, und das geht eben unter Arch wesentlich einfacher. Aktuelle Kernels gibts in den Repos. Und wenn es da was nicht gibt, kompiliert man es über das AUR genau so leicht, wie als würde man ein Paket aus dem Repo installieren.

Jedem das seine. Aber der Umgangston ist hier teilweise schon echt unter der Gürtellinie..
 
RonZ schrieb:
Okay, dass du eine nicht-LTS Version fünf Jahr lang nutzt, davon bin ich nicht ausgegangen. Oder hast du es hinbekommen zwischen den Versionen zu Upgraden ohne eine Neuinstallation? Geht das denn sauber?
Ja, wenn man mit PPA-Purge eventuell in Verwendung befindliche PPAs vorher entsorgt, und auch sonstige per Hand installierte .deb-Pakete erst einmal vorsorglich entfernt.
Die Kiste lief von Ubuntu 8.04 bis ich glaub 13.04 durch, dann habe ich beim Wechsel auf ne SSD mal komplett neu aufgesetzt.

[qutoe]
Siehste, und das geht eben unter Arch wesentlich einfacher. Aktuelle Kernels gibts in den Repos. Und wenn es da was nicht gibt, kompiliert man es über das AUR genau so leicht, wie als würde man ein Paket aus dem Repo installieren.
[/QUOTE]
Ich weiß ja nicht, für wie kompliziert du es erachtest, ein verwaltbares Paket für RHEL- oder Debian-Ableger zu erzeugen... Fakt ist: Beide Linux-Zweige können mit "Checkinstall" perfekt befüttert werden.

Source runterladen (z.B. aus GIT), ./configure laufen lassen (beim Kernel eben noch die Kernel-Config anpassen resp. die vom letzten Maintainer-Kernel übernehmen) und dann einfach "checkinstall" als Root zünden. Fertig ist das von der Paketverwaltung erfasste Programm.

Und das mit den "aktuellen Kernels" ist eben auch relativ zu sehen. Die Ubuntu-Kernels enthalten immer einiges an Backports späterer Releases. Auch da kann man sich nicht auf die pure Versionszahl verlassen. Mit Mainline haben die nix zu tun.
 
Source runterladen (z.B. aus GIT), ./configure laufen lassen (beim Kernel eben noch die Kernel-Config anpassen resp. die vom letzten Maintainer-Kernel übernehmen) und dann einfach "checkinstall" als Root zünden. Fertig ist das von der Paketverwaltung erfasste Programm.

Wenn keine Abhängigkeiten da wären, nun ja, kann man das noch irgendwie mit vertretbarem Aufwand machen. Bei Abhängigkeiten zu Fremdpaketen/Libs wirds dann aber schon richtig Arbeit. Gefrickel wirds dann, wenn mehrere Lib-Versionen parallel notwendig sind, weil irgendwelche anderen Abhängigkeiten ältere Versionen verlangen ..

Mit dem einmaligen installieren ist es dann aber i.d.R. nicht getan. Man will das ja auch irgendwie pflegen. Heißt, bei jedem Update der selbe Spaß wieder. Ne du, das wär mir nix auf Dauer.

Für das Arch-User-Repository gibts z. B. für die shell yaourt mit exakt der gleichen Syntax wie der offizielle Paketmanager pacman. Der sagt dann, wenn aktualisierte Quellen vorliegen. Ein GUI-Pendant in Form von Octopi bringt dann noch ein notification-Icon mit, was dich automatisch informiert.
(Immer aktuelle) Abhängigkeiten werden aus den offiziellen Repos bezogen - wenn da nicht vorhanden, werden die aus dem AUR gleich mit kompiliert.

Und das mit den "aktuellen Kernels" ist eben auch relativ zu sehen. Die Ubuntu-Kernels enthalten immer einiges an Backports späterer Releases. Auch da kann man sich nicht auf die pure Versionszahl verlassen. Mit Mainline haben die nix zu tun.

Kernel-Releases bringen ja nicht nur Sicherheitsupdates, sondern auch Features. Wenn die Hardware noch recht aktuelle ist, hab' ich lieber ein einigermaßen aktuelles Modell am laufen. Und wenn in den offiziellen Repos vorhanden, dann um so besser. Dann gehts eben auch ohne "gefrickel" ..
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben