Mein Leben mit Linux - Ein Tagebuch

BlackPanther87

Cadet 3rd Year
Dabei seit
Dez. 2017
Beiträge
44
Inhaltsverzeichnis

Tagebuch-Einträge

1 - 27.01.2020 - Aller Anfang ist leicht
2 - 01.02.2020 - Doch nicht alles Gold was glänzt, wie?
3 - 09.02.2020 - Ein Blick auf OOTB-Pakete, das BIOS und TB3
4 - 21.02.2020 - Zeit für ein kleines Upgrade
5 - 29.03.2020 - Geplante Systemstruktur oder: Denken in Modulen
6 - 05.04.2020 - Risikoanalyse: Testumgebungen verschlüsseln?
7 - 21.04.2020 - Wie? Immer noch nichts produktives?
8 - 29.04.2020 - Nun aber los...
9 - 03.06.2020 - Backup-System mit Persistenz, Teil 1

Anmerkung: Ist ja wieder einige Zeit vergangen seit dem letzten Eintrag. Eigentlich wollte ich gar nicht so lange warten, aber einige Dinge haben mich dann doch wieder von einem konsequenten Arbeiten und Schreiben hieran abgehalten. Dazu gehört auch, dass insbesondere die zweite Variante zur Erstellung einer "benutzerdefinierten" Live-Umgebung mehr Zeit braucht, als ich zunächst vermutet hatte. Dementsprechend habe ich mich (wieder mal) zum Auftrennen entschieden (alles zusammen würde wohl locker 6000 Wörter bedeuten). Jedenfalls gehe ich in diesem Eintrag damit hauptsächlich auf meine Gedanken hinter der Nutzung von Parrot OS für die Backups meiner Hostsysteme ein. Außerdem zeige ich einen (relativ einfachen) Weg, eine an die eigenen Bedürfnisse angepasste Live-Umgebung zu erhalten. Im komenden Eintrag kommt dann die (deutlich) komplexere Variante, die allerdings eben auch wieder deutlich mehr Möglichkeiten bietet.
Einleitung
Über mich
Genutzte Hardware
Feedback, Kritik, Wünsche
Änderungen
Wunsch-Liste

Einleitung


Nachdem mir in vergangenen Threads ja durchaus konstruktiv geholfen wurde, würde ich die Gelegenheit gerne nutzen und etwas zurückgeben. Ich spielte schon länger mit dem Gedanken, mir einen Ersatz-Laptop für meinen "alten" Gigabyte AERO 15X V8 (i7-8750, 1070Max-Q) zu holen. Hauptgrund dafür ist die recht bescheidenen Akkulaufzeit unter Debian. Mir ist bekannt, dass das unter anderen Distributionen besser aussieht, darum gehts aber nicht (siehe meine Anforderungen weiter unten).

Mitte Januar habe ich dann also eine Bestellung für einen Dell Precision 7540 getätigt (nähere Infos zur Konfiguration in Genutzte Hardware). Ich würde in diesem Thread nun gerne nutzen, um in einer Art Tagebuch meine Erfahrungen mit diesem Laptop im Speziellen aber auch anderer Hardware und Linux im Generellen zu teilen. Auch werde ich in den entsprechenden Teilen immer wieder versuchen, nähere Infos zu geben, sollte ich Lösungsmöglichkeiten finden für Probleme, auf die ich gestoßen bin. Und das werde ich zweifellos, gemessen an meiner geplanten Systemkonfiguration.

Was dies nicht sein soll

Es ist wichtig festzustellen, dass dies kein expliziter Guide werden soll. Zwar werde ich - wie zuvor beschrieben - hier und da auf festgestellte Probleme und mögliche Lösungen eingehen. Diese beinhalten aber oft nur einen Teil des Lösungswegs, verlinken auf andere Guides, Manuals oder ähnliches. Fortgeschrittene Themen (LVM alleine...) würden oft einen eigenen Guide für sich rechtfertigen, die ich im Rahmen dieses Threads aber nicht (in großem Umfang zumindest) erstellen werde. Eventuell ergibt sich ja aber das ein oder andere dann doch.

Auch würde ich herstellerspezifische Diskussionen (CPUs, GPUs, Drucker usw.) gerne auf ein Minimum beschränken. Wo es technisch bezogen notwendig und sinnvoll ist, gerne. Sicherheitstechnische Punkte betrachte ich gemäß meiner Anforderungen relativ stark, ich bin aber kein (IT)-Sicherheitsexperte in irgendeiner Art und Weise!

Eine Warnung (insbesondere) an Neulinge

Ich hatte im Abschnitt oben ja schon klar gestellt, dass dies kein Guide wird. Um das noch etwas zu präzisieren: Hin und wieder können auch mal "Bad Practices" gezeigt werden. Ich bin in vielen Bereichen von Linux selbst noch Neuling, also wird es ganz normal sein, auch mal Fehlschläge zu sehen. Sonst wär's ja irgendwie kein Tagebuch ;)
Jedenfalls ist es aus diesem Grund stark empfohlen, genau hinzuschauen, bevor ihr versucht, entsprechende Konzepte bei euch umzusetzen. Dies gilt natürlich umso mehr für das einfache Kopieren von Terminalbefehlen.



Über mich


Ich bin Anfang 30, verheiratet und zwei Kinder (ein paar Paketkonflikte sind da nix gegen, ich sags euch). Genug davon aber^^.

Beruflich bin ich (mit Ausnahme von vier Jahren Medizintechnik) im Maschinenbau unterwegs. Dort beschäftige ich mich seit einiger Zeit mit allen Aspekten der funktionalen Sicherheit. Ursprünglich einfacher Elektriker, muss ich mich hier auch mit Fluidtechnik, Mechanik im Allgemeinen und inzwischen auch mehr und mehr Sicherheit im Automatisierungsumfeld beschäftigen. Für Leute, die sich damit auskennen einige (für alle anderen wohl zusammenhanglose) Nummern: 60204, 12100, 13855 bzw. für USA auch UL508A/NFPA79. Davon abgesehen bin ich auch als Dozent für obige Themen bei meiner hiesigen IHK tätig. In meiner Freizeit würde ich sagen, gibts "von allem ein bisschen" - nichts, dass hier wirklich heraus stechen würde.

Mein Anforderungsprofil


Ich führe an dieser Stelle die Kernanforderungen einfach mal stichpunktartig auf. Als Vorbemerkung nur dieses:

An Diejenigen, die beim Lesen dieses Threads (und meiner gelisteten Hardware weiter unten) sagen: "Ein Mittelklasse-Notebook und ein Desktop wären billiger." - absolut richtig :daumen:
  • Ich will die Anforderungen aber möglichst mit einem einzigen System erfüllen. Der Administrierungsaufwand für zwei solcher Systeme, die aufgrund unterschiedlicher Hardware mit Sicherheit schonmal nicht einfach Copy&Paste wären, ist mir zu hoch (vor allem in Anbetracht der Systemkomplexität).
  • Dieses System muss wie schon angedeutet ein Notebook sein (hauptsächlich wegen der Dozententätigkeit).
  • Ich benutze viel Industriesoftware, die im Consumer-Umfeld nicht zu finden ist. Ähnlich wie die Nummern weiter oben werden die meisten wohl wenig Leuten etwas sagen: Eplan P8, TIA Portal (auch S7 Classic), Studio5000 (Rockwell), TwinCat (Beckhoff), CATIA.
  • Einige Software verträgt sich bei gleichzeitiger Installation auf dem selben System, andere weniger. Insbesondere PLC-Software (Maschinensteuerungen) sind hier meiner Erfahrung nach eine einzige Seuche (ja, ich meine dich, Siemens). Wie tief sich da ins System eingegraben wird (tlw. muss) treibt jemanden wie mir, der gerne Ordnung hält, die Schweißperlen auf die Stern. Zudem läuft vieles hier nur auf Windows. Jedenfalls resultiert das in der Notwendigkeit zur Virtualisierung in nicht unerheblichem Ausmaß --> RAM, CPU, SSD.
  • Ich benötige unterwegs keine übermäßige Performance was die Grafikleistung angeht. Dennoch muss es mir möglich sein, bei Bedarf vereinfachte, entsprechend vorbereitete Modelle etwa im CAD darzustellen --> dedizierte GPU (zumindest Einstiegsklasse).
  • Auch wenn ich unterwegs nicht übermäßig viel GPU-Leistung benötige, will ich zuhause dennoch die Möglichkeit haben, anspruchsvollere Sachen laufen zu lassen - "richtige" CAD-Konstruktion inkl. Simulationen. Ich nutze auch eine Spezialsoftware zur Fluidsimulation und Detektion "toter" Stellen (nicht zirkulierendes Wasser, was zur Keimbildung neigt). Selbst Gaming wäre wieder ein Thema, hätte ich die Möglichkeit dazu. Also würde ich gerne eine EGPU bei Bedarf anschließen können --> Thunderbolt 3 nötig und damit auch Intel als Prozessor (auch im Rahmen meiner Dozententätigkeit hilft TB3).
  • Grundsätzlich bin ich frei bei der Wahl meiner GPU (gilt sowohl für dedizierte interne, als auch eine eventuelle externe). Aufgrund persönlicher Erfahrungen neige ich aber definitiv zu AMD.
  • Separation nach Nutzungszweck ist mir sehr wichtig. Ich will Privatsachen und zum Beispiel Dinge, die meine Dozententätigkeit betreffen, so gut es geht trennen. Dennoch hätte ich gerne alle Daten in "Griffreichweite", wenn ich unterwegs bin, möglichst auf dem selben Gerät --> Multiboot (evtl. sogar mit mehr als einer Installation der "gleichen" Distribution) mit teils verschlüsselten Bereichen.
  • Ich halte mein System gerne schlank - und damit meine ich nicht "Ubuntu minimal"-schlank. Das führt dazu, dass ich nur das absolut notwendige installiere (meine Hosts wären alleine definitiv unbenutzbar). Auch weil ich spezifizierte Ordner meiner Installationen ähnlich Quellcode über GIT verwalte.



Genutzte Hardware


Ich führe hier meine genutzten Hardwarekomponenten relativ ausführlich auf. Bei Komplettsystemen (aktuell nur Laptops) gebe ich auch etwas nähere Specs.

Zukünftiges Hauptsystem - "Der Newcomer"​
Dell Precision 7540​
Gekauft 2020​
i9-9980HK​
AMD Radeon Pro WX3200​
15" FHD IPS (100% sRGB-NonTouch-Version, Aluminium)​
128GB - aufgerüstet von 8GB RAM, zu sehen in Eintrag #4
2x 2TB EVO 970 - aufgerüstet von 1x Toshiba 256GB SSD, zu sehen in Eintrag #4
Intel i219LM Ethernet​
Intel Wifi 6 AX200​
2x TB3​

Um dieses System soll es in diesem Thread hauptsächlich gehen, deswegen führe ich es zuerst auf. Sofern nicht explizit in Tagebuch-Einträgen anders beschrieben, beziehen sich alle meine Erfahrungen auf Linux in Zusammenhang mit diesem System.

Aktuelles Hauptsystem - "Das Arbeitstier"​
Schenker Clevo P370EM​
Gekauft 2012​
i7-3740QM (4x3,7GHz)​
GTX680M SLI​
17" FHD TN (recht hell)​
16GB RAM​
256GB SSD​
750GB HDD​
Realtek Ethernet​
Intel Centrino Advanced-N 6235​

Sicherlich mein treuester Begleiter in all den Jahren und funktioniert in Anbetracht des Alters nach wie vor hervorragend (gemessen an den Komponenten). Auf diesem schreibe ich diesen einleitenden Teil und führe den Großteil meiner aktuellen produktiven Arbeit aus (sofern nicht hohe Leistung gefordert ist).
Weder Fisch noch Fleisch - "Das verlorene Kind"​
Gigabyte Aero 15xV8​
Gekauft 2018​
i7-8750H​
GTX1070Max-Q​
15" FHD IPS​
32GB RAM (aufgerüstet von 16GB)​
2x 2TB Samsung 970EVO (umgerüstet)​
Realtek Gaming Ethernet​
Intel Wireless-AC 8265​
1x TB3​

Tja, was soll ich sagen. Irgendwie passt es leider nicht so wirklich zu meinem Workflow. Nicht falsch verstehen, das ist im Grunde genommen sicher kein schlechtes System. Allerdings habe ich damit - besonders unter Debian - einige Kopfschmerzen. Das Aufrüsten des Arbeitsspeichers war eine mittlere Katastrophe - selbst als unterstützt gelistete Module laufen nicht zuverlässig (glücklicherweise ist jetzt eine Kombination eingebaut, die problemlos funktioniert). Die Akkulaufzeit ist mehr als bescheiden, gemessen am verbauten Akku (max. 4 Stunden). Ich weiß, es gibt Wege das zu ändern und unter anderen Distris (Ubuntu, aber auch Arch) sieht das mit der Grafikumschaltung deutlich besser aus (durchaus 9 Stunden bei leichter Office-Nutzung unterwegs), dennoch stört mich das deutlich mehr als ich anfangs dachte. Für richtig grafikintensive Sachen benötige ich das noch, plane aber einen Verkauf, sobald das Dell einsatzbereit konfiguriert ist (aktuell laufen dort die meisten Anwendungen direkt auf dem gleichen Hostsystem).
Sonstige Hardware​
Externer Monitor 1: Acer XB280HK (4K, GSync)​
Externer Monitor 2: Eizo Foris 2434​
Keyboard: Corsair K70​
Maus: Irgendein Rapoo-Geraffel, suche aktuell noch^^​
Lautsprecher: Edifier 1280T​
Multifunktionsgerät: Canon MG6150​
Netzwerk: Netgear-Switch im Büro, Telekom-Hybrid-Router mit PowerLan hier und da​
Externe Speicher: Das übliche, aber Dinge wie NitroKey, YubiKey und ein Istorage Datashur Pro sind auch im Einsatz.​

Der Acer-Monitor ist natürlich suboptimal bei meiner AMD-GPU. Allerdings tut er nach wie vor seinen Dienst und wird in mittlerer Zukunft wohl gegen ein FreeSync-Modell getauscht. Außerdem bin ich am Überlegen, mir einen Laser mit Duplex-Scan und ADF zu besorgen (etwa Brother MFC-9332CDW).



Feedback, Kritik, Wünsche


Entsprechend Was dies nicht sein soll werde ich in diesem Guide auch nur Fragen explizit zu angesprochenen Inhalten wirklich beantworten, keine generellen ("Kann mein XPS 9560 nicht booten"). Erstellt für solche oder ähnlichen Themen bitte entsprechend einen eigenen Thread. Gerne zum Laptop, Dell (Support-Vertrag) oder meinen Setup an sich natürlich.

Allgemein könnt ihr natürlich Punkte anbringen oder Wünsche äußern, welche Themen euch bei meinen Beobachtungen besonders interessieren würden. Ich werde sicherlich nicht alles beachten können, nehme das aber in meine Wunschliste auf und versuche bei Gelegenheit das ein oder andere mit ein zu binden. Unter Umständen ergibt sich vielleicht auch die Gelegenheit für die ein oder andere kleine Guide-Auskopplung.




Änderungen

  • 24.01.2020 - Einleitenden Teil zum Tagebuch gepostet, Thread gestartet.
  • 27.01.2020 - Tagebucheintrag #1 gepostet
  • 31.01.2020 - Einige Formattierungsänderungen Eintrag #1 vorgenommen, um Navigation zukünftig zu vereinfachen (Sprungmarken zum Inhaltsverzeichnis des einzelnen Eintrags als auch zum Startpost).
  • 01.02.2020 - Tagebucheintrag #2 gepostet
  • 04.02.2020 - Nachdem ich festgestellt hatte, dass die Anker (ANAME/ALINK) ja postübergreifend referenziert werden, die Ankernamen entsprechend eindeutig gestaltet. Ein allgemeiner Anker im Eintrag 2 sollte somit nicht mehr auf einen anderen Eintrag verlinken.
  • 09.02.2020 - Tagebucheintrag #3 gepostet
  • 21.02.2020 - Tagebucheintrag #4 gepostet
  • 29.03.2020 - Tagebucheintrag #5 gepostet
  • 05.04.2020 - Tagebucheintrag #6 gepostet
  • 14.04.2020 - Eintrag #6 aufgrund anscheinend aufgetretener Missverständnisse etwas überarbeitet. Änderungen nachvollziehbar per Diff in diesem Beitrag.
  • 21.04.2020 - Tagebucheintrag #7 gepostet
  • 22.04.2020 - Abschnitt mit Warnung an Neulinge zu OP hinzugefügt.
  • 29.04.2020 - Tagebucheintrag #8 gepostet; Anmerkung zu sinnloser Konfiguration des Dells aus OP entfernt, da nicht länger zutreffend.
  • 03.06.2020 - Tagebucheintrag #9 gepostet



Wunsch-Liste
 
Zuletzt bearbeitet:

BlackPanther87

Cadet 3rd Year
Ersteller dieses Themas
Dabei seit
Dez. 2017
Beiträge
44
#1 - Aller Anfang ist leicht
(mit der richtigen Vorbereitung)

27.01.2020

Anmerkung: Nachdem ich mein Ziel von ca. 1500 Wörtern je Eintrag sonst meilenweit verfehlt hätte, kommen die Teile zur Ersteinrichtung von Dells Ubuntu-Installation, einem Blick auf die installierten Pakete und genutzten Repos sowie weitere Tests der OOTB-Erfahrung im nächsten Eintrag.

Zurück zum Startpost

Übersicht für diesen Eintrag


Meine Marktsondierung
Bestellvorgang bei Dell
Erste Eindrücke
Abschluss
Fußnoten



Meine Marktsondierung


Nachdem ich meine Anforderungen recht genau beschreiben konnte 1), war es also an der Zeit, sich auf die Suche nach potenziellen Herstellern und Geräten zu machen. Es war relativ schnell klar (eigentlich bereits vorher), dass ich mit klassischen Consumer-Geräten (inkl. Gaming) nicht glücklich werden würde. Also von Haus aus schon mal auf Workstation-Systeme konzentriert.

Ich habe also verschiedene Bestenlisten bezüglich Workstation-Notebooks studiert und meist kamen die folgenden Namen auf:
  • Lenovo - P-Serie
  • Dell - Precision
  • HP - ZBook
  • Clevo-Barebones (führe ich mal als solches, also bspw. Schenker)
  • MSI - WT/WS

Im folgenden dann die Reihenfolge, in der die Optionen für mich persönlich rausgeflogen sind, mit Begründung.
  1. MSI - In keinster Weise handelt es sich hierbei (meiner Meinung nach!) um einen Hersteller für Notebooks, die auch nur irgendwie professionell genutzt werden sollten. Ich kenne die GS65-Stealth-Reihe und der "Workstation"-Entsprechungen und die Verarbeitungsqualität ist nicht wirklich berauschend. Zudem ist natürlich der (faktisch nicht vorhandene) Business-Support nur ein weiterer Grund, hier weiter zu schauen.
  2. Clevo (Schenker) - Ich mag mein P370EM ja sehr gerne (sollte man in der Einleitung vielleicht gemerkt haben). Aber bei den aktuell zur Verfügung stehenden (für mich potenziell interessanten) Modellen muss ich mich irgendwie an den Kopf fassen. Modelle mit konfigurierbaren Achtkern-CPUs gibts zwei - bei einem davon muss ich mit sehr schlechter Akkulaufzeit rechnen, da Desktop-CPU. Also, das Compact 15 angeschaut. Den 9980HK nur mit dem 4K-OLED-Display...? UltraHD würde ich aus Gründen der Skalierung auf dem internen Bildschirm vermeiden (ich weiß, die ist besser geworden in letzter Zeit, aber dennoch). Ich hasse Dell ja bei seinen XPS-Modellen dafür, aber naja. Dazu kommt, dass ich wieder an eine NVIDIA-GPU gebunden wäre. Die wohl recht ordentliche Garantieabwicklung (allerdings alles einschicken, kein Vor-Ort) konnte da auch nicht mehr wirklich was reißen.
  3. Lenovo - Ich habe mich von Haus aus auch hier auf die "großen" Modelle P53/P73 konzentriert. P1 und die ganzen "Slim"-Modelle waren nicht wirklich von Belang. Ich bin nicht an eurem merkwürdigen PRO-System interessiert, ich will mir einfach eine Zusammenstellung ansehen, die meinen Anforderungen am nächsten kommt. Das war vor einen halben Jahr vielleicht noch möglich, zuletzt hatte ich aber das Gefühl, dass immer weniger frei konfigurierbare Systeme vorhanden waren. Unabhängig davon wäre ich in jedem Fall wohl auf NVIDIA gebunden gewesen. Zudem ist das mit dem Support meiner Erfahrung nach mit Lenovo manchmal so ne Sache...
  4. HP - Nun wirds wirklich interessant - warum war HP so lange im Rennen? Nun, meiner bescheidenen Meinung nach sind deren Notebooks oft unterschätzt, wenn man die EliteBooks und/oder ZBooks betrachtet. Rein nach dem Aussehen betrachtet hätte ich mir wohl schon längst ein Elitebook 1030 geholt - aber naja, man sagt ja immer, die inneren Werte zählen, wa? Jedenfalls ist HP hier der erste aufgelistete Hersteller, der in seinen Workstations doch tatsächlich AMD GPUs anbietet. Also mal nach nem Konfigurator bei HP geschaut und fündig geworden - aber auch hier sind über die Zeit mehr und mehr Modelle zum Konfigurieren verschwunden 2). Die "großen" Modelle wie das ZBook 15G6 waren zum Zeitpunkt an dem es "ernst" wurde schon gar nicht mehr gelistet. Übrig geblieben (mit AMD GPU) wären nur Modelle mit U-Prozessoren der 8ten Generation. Nicht wirklich das, was ich gesucht hatte.
  5. Dell - Ich hatte im Hinterkopf, an verschiedenen Stellen gelesen zu haben, dass Dell seine Precisions auch mit AMD-Grafikkarten anbietet. Wirklich glauben konnte ich das allerdings nicht. Ich hatte ja schließlich kein einziges Review zu Precisions mit AMD-Grafikkarten gefunden. Jedenfalls klick ich mich mehr durch den Konfigurator für das Precision 7540 und seh da tatsächlich eine Radeon Pro WX3200. Potzblitz! Daraufhin etwas mehr mit dem Konfigurator auseinander gesetzt und kaum wirkliche Hasenfüße gefunden. Ja, aus irgendwelchen Pseudogründen meint der Konfigurator, mir bei einem 9980HK Windows 10 Pro for Workstations aufs Auge drücken zu müssen. Aber das lässt sich ja ganz leicht ändern - da offiziell Ubuntu vorinstalliert angeboten wird :D
    Dazu ordentliche Konfigurationsmöglichkeiten bei Arbeitsspeicher (aber hallo, die Aufpreise, dazu unten auch nochmal...), SSDs, Display sowie rundherum. Die bekannten Service-Optionen dazu, die mir in meinem Fall dann doch ganz gelegen kommen. Mit minimalem RAM und kleinster SSD treibt mir der Preis zwar die Schweißperlen auf die Stirn, aber da muss ich wohl durch.


Bestellvorgang bei Dell


Nachdem meine Wahl nun im Grunde getroffen war und ich auch relativ genau wusste, wie meine Konfiguration im Detail aussehen sollte, ging es an die eigentliche Bestellung. Wer sich schon mal auf Dells Website umgesehen hat, wird vielleicht eine "Kleinigkeit" bemerkt haben: Es gibt getrennte Angebotsportale für Privat- und Geschäftskunden. Mehr noch, manche Modellserien werden Privatkunden erst einmal gar nicht angeboten - mein gewünschtes Precision gehört dazu (gleiches gilt auch für die komplette Latitute- und Vostro-Reihe).

Diese Beschränkungen mögen sich zunächst etwas künstlich anfühlen und sind es aus meiner Sicht auch. Jedenfalls führt dieser Umstand dazu, dass online Precision-Notebooks faktisch nur als Geschäftskunde zu bestellen sind. Nun gibt es in Dells Shop zwei Möglichkeiten, dennoch an diese Geräte zu kommen:
  1. Man gibt sich einfach als Geschäftskunde aus, indem beim Firmennamen in der Bestellung irgendwas angegeben wird 3). Dell fordert keine weiteren Daten (USt.-Nr. oder ähnliches), somit kann die Bestellung auch abgeschlossen werden.
    ABER: In diesem Fall akzeptiert man die Geschäftsbedingungen des Geschäftskundenshops, die sich in einem wichtigen Punkt vom "regulären" unterscheiden: ES GIBT KEIN WIDERRUFSRECHT! Somit sollte dieser Weg wirklich nur gewählt werden, wenn Ihr euch über die möglichen Konsequenzen absolut im Klaren seid! Da gerät die Tatsache, dass alle Preise natürlich erstmal ohne Mehrwertsteuer gelistet werden, fast zur Nebensache.
  2. Dell ist nun aber ja ein gewinnorientiertes Unternehmen. Es kann also nicht schaden, sich mit dem entsprechenden Anliegen mal an den Kundendienst zu wenden. Je nachdem, welchen Sachbearbeiter ihr an der anderen Leitung habt, kann es durchaus sein, dass ihr dennoch an die Business-Modelle kommt.

Ich PERSÖNLICH habe die erste Variante gewählt. Ich wusste sehr genau, was ich will und was nicht, ein Widerruf innerhalb der ersten 14 Tage konnte ICH daher ausschließen. Nochmal, ich würde persönlich bei Unsicherheiten aber IMMER Variante 2 empfehlen!

Nachdem die Bestellung durch war, wurde die Bezahlung bei mir "vorgemerkt". In sofern ganz nett, da das Konto so wirklich erst bei Lieferung belastet wird. Jedenfalls kam bereits 2 Tage nach Bestelleingang die Versandankündigung mit UPS. Nun darf man sich nicht verwirren lassen: Anscheinend tut sich am Status nichts, bis das Paket das erste Mal in Europa gescannt wird, was bei mir einige Tage dauerte. Einen Tag nach der Registrierung in den Niederlanden war es dann auch schon bei mir (wie gesagt mit UPS). Insgesamt ging die Bestellung damit deutlich schneller vonstatten, als es mir online angezeigt wurde (15.01. Bestellung, 22.01. Zugang, dabei laut Shop "Zugang bis spätestens 02.02.).

An dieser Stelle nochmal zusammengefasst eine detaillierte Aufstellung der konfigurierten Hardware. Man verzeihe mir das Englisch an dieser Stelle, ich führe die Optionen gemäß dem Konfigurator auf.
Precision 7540 CTO Base​
Intel Core i9-9980HK, 8 Core, 16MB Cache, 2.40GHz up to 5.00GHz Turbo, 45W​
Radeon Pro WX 3200 w/4GB GDDR5​
8GB, 1x8GB, DDR4 2666MHz Non-ECC Memory​
M.2 256GB PCIe NVMe Class 40 Solid State Drive​
Intel Wi-Fi 6 AX200 2x2 .11ax 160MHz + Bluetooth 5.0 Driver​
15.6" FHD Non-touch, no WWAN, IR Cover (Aluminium), w/Prem Panel Guar 100% sRGB​
Palmrest with Smart Card, FIPS Fingerprint reader & NFC​
(Netzteil) E5 180W 7.4mm Lot 6 PCR, Chicony​
6 Cell 97 Whr Long Life Cycle Lithium Ion Polymer Battery​
Ubuntu Linux 18.04​
5Y ProSupport Plus​

Anmerkung: Wie zuvor bereits beschrieben, sind Arbeitsspeicher und SSD absichtlich so merkwürdig gewählt. Die Aufpreise für RAM waren mir dann doch etwas zu viel des Guten und SSDs sind noch 2x 2TB von meinem Gigabyte verfügbar. Ich plane im Rahmen eines kommenden Eintrags (wahrscheinlich direkt des nächsten) die Konfiguration entsprechend aufzurüsten.




Erste Eindrücke


Anmerkung: Solltet ihr weitere allgemeine Details zur Verarbeitungsqualität oder ähnlichem benötigen, empfehle ich den Test des (im Grunde baugleichen) Vorgängers 7530 auf Notebookcheck.

Ich habe mich aus ästhetischen Gründen ganz bewusst für den Panel-Deckel aus Aluminium entschieden (mit dem 100%-sRGB-Panel). Auch die Handballenablage mit Kombination aus SmartCard, FIPS Fingerabdruckleser und NFC ist wohl nicht allzu üblich, deswegen zunächst doch einige Fotos.

Test


Ich muss schon zugeben, der Deckel macht ordentlich was her... und ist hoffentlich weniger anfällig gegen Fingerabdrücke (ich krieg da nen Putzfimmel...).
IMG_5854.JPG

Die Scharniere wirken recht vertrauenswürdig und besitzen beidseitige Aufnahmen. Das Display an sich wippt kaum, trotz meines schwereren Aluminium-Deckels (mein Gigabyte treibt mich öfters mal in den Wahnsinn damit).
IMG_5861.JPG

An der vorderen Seite ist rechts ein Aus/Ein-Indikator. Eine separate Anzeige für den Ladezustand gibt es (leider) nicht. Zudem ist hier der Streifen für die WiFi-Antennen zu sehen. WWAN ist bei Modellen mit Aluminium-Deckel nicht verfügbar (aber für mich auch nicht notwendig, von der mir unbekannten Linux-Unterstützung mal abgesehen).
IMG_5847.JPG

Separate Headset/Mikrofon-Anschlüsse wären mir zwar lieber, aber mit dem Kombo-Anschluss kann ich leben. Die USB-A-Anschlüsse sind übrigens alle, es gibt nur die zwei.
IMG_5891.JPG

An der Rückseite nichts Besonderes. Alle Anschlüsse, die ich hinten erwarten würde bzw. bevorzuge, liegen auch dort.
IMG_5890.JPG

Ehrlich gesagt für mich die interessanteste Seite am ganzen Notebook. Hier haben wir 2 Thunderbolt3-Anschlüsse, die ich in meiner späteren geplanten Ausbaustufe auch beide benötigen werde. Im Übrigen implizieren 2 Anschlüsse, dass die interne Anbindung mit "vollen" 4 PCIe-Lanes geschieht. Bei einem Anschluss ist das nicht immer so klar (interessant für EGPU, selbst wenn nur ein Port genutzt wird). Dann haben wir einen SD-Kartenleser, bei dem die Karte komplett aufgenommen wird. Sie kann also, wenn gewünscht, während des Transports im System verbleiben. Zu guter Letzt dann noch einen SmartCard-Leser, den ich später durchaus plane zu verwenden.
IMG_5889.JPG

Auch wenn ich NFC sehr kritisch gegenüberstehe, sagt ja niemand, dass man es zu Authentifizierungszwecken nutzen muss. Da es auch preislich vernachlässigbar war, wird es im Zweifelsfall im BIOS deaktiviert. Nachdem ich aktuell noch meine Zweifel bezüglich der Funktionalität habe, ist das wohl wahrscheinlich.
IMG_5868.JPG

Beim Fingerabdruckscanner setze ich auf die FIPS-Variante. Ähnlich wie bei NFC werde ich mein Glück mal versuchen, viel spezifische Doku (abseits von Device ID prüfen) gibts dazu ja nicht.
IMG_5870.JPG

Es gibt eine mechanische Blende für die Webcam, etwas was ich gegenüber reinen Software-Lösungen sehr begrüße. Besser sind hier nur noch Schalter, die das Bauteil elektrisch auf der Hardwareebene trennen. Laptops, die das bieten, kann man aber ja an einer Hand abzählen.
IMG_5866.JPG




Abschluss


Soweit an dieser Stelle mit meinem ersten "richtigen" Eintrag. Viel Linux-spezifisches war hier nicht wirklich dabei, muss man ja sagen. Das wird aber im nächsten Eintrag garantiert besser. Dann gibt es auch eine erste grobe Zusammenfassung meiner Zufriedenheit sowie ein Fazit zum System an sich.




Fußnoten

  1. Aus meiner Erfahrung ein oft wiederkehrendes Problem, unabhängig von welchem Themenbereich wir reden: Ein Beschluss/eine Bestellung/wasauchimmer wird getätigt, ohne eigentlich die Anforderungen genau zu kennen. Anfragen zur sicherheitstechnischen Machbarkeit (Maschinenbau) einer Anwendung kommen deshalb inzwischen auch mit sehr detaillierten Angaben zur angedachten Funktion, da ich ja sonst immer das schlimmste annehmen muss und sonstwas eingebaut haben will :evillol:
  2. Da schreib ich so am Eintrag und schau zufällig nochmal nach, was sich am Konfigurator getan hat - inzwischen gibt's nur noch EIN Modell zum Konfigurieren für mich - das x360 1040 G5. Soll das ein Witz sein (ja, ich weiß, eventuell 10te Generation Intel Vorbereitung und blabla...)?
    https://store.hp.com/GermanyStore/Promotion.mvc/GetPromotion?promotionId=R657&targetType=Products
  3. Ich hätte selbst drauf kommen können, aber "Privatkunde" ist vielleicht nicht das cleverste beim Firmennamen. Auf dem Paket steht natürlich der Firmenname und nicht der Name des schlussendlichen Empfängers. Unter Umständen hat dann also der Paketbote etwas Probleme, euch zu finden.

 
Zuletzt bearbeitet:

Obreien

Lt. Junior Grade
Dabei seit
Jan. 2006
Beiträge
259
Der Beginn klingt sehr Interessant und vielversprechend.

Den Weg den du beschreitet bzw beschreiten willst ist ähnlich den meinem, außer das du das Projekt schon angehst.

Komme aus der Haustechnikplanung und hab auch viel mit CAD und z. B. Siemens Software zu tun die natürlich nur unter Win läuft.

Mich würde interessieren wie du den Multiboot bzw eine Visualisierung realisiert.

Welchen Desktop nutzt du, wie sieht deine Minimalinstallation aus?

Einsatz KVM, VPN, Remote Desktop?
 

BlackPanther87

Cadet 3rd Year
Ersteller dieses Themas
Dabei seit
Dez. 2017
Beiträge
44
Mich würde interessieren wie du den Multiboot bzw eine Visualisierung realisiert.
Naja, Multiboot wird es bei mir zwar geben, aber zunächst mal nur Linux-basierte Hosts auf den internen SSDs. Mein Windows-Host plane ich auf eine externe SSD auszulagern, sodass ich den Großteil der üblichen Probleme (Windows überschreibt GRUB2 usw.) umgehen können sollte.

Kleine Anekdote: Bei meinem Gigabyte hatte ich das merkwürdige Verhalten, dass mein UEFI anscheinend immer den Eintrag für den Windows-Bootloader an erster Stelle haben wollte. War das nicht der Fall (etwa weil Windows in der Rangfolge erst an zweiter Stelle war), wurde der Eintrag an erster Stelle (üblicherweise dann GRUB) einfach überschrieben. Das war selbst bei unterschiedlichen Datenträgern der Fall. Da half nur das Deaktivieren (nicht Löschen, dann wurde auch automatisch wieder ein Eintrag hinzugefügt) des Windows-UEFI-Eintrags. Siehe auch die Manpage dazu.

Welchen Desktop nutzt du, wie sieht deine Minimalinstallation aus?
Ich werde höchstwahrscheinlich KDE nutzen. Meine Minimalinstallation sieht dabei üblicherweise so aus, dass ich zunächst eine Installation nur mit Terminal erstelle und dann die Desktopumgebung manuell installiere (im Grunde plasma-desktop mit einigen weiteren).

Ich denke, man muss hier unterscheiden, von welchem Anwendungsgebiet wir reden. Für nicht sicherheitsrelevante Sachen kann ich mir ja durchaus vorstellen, dass diese über Fernwartung administriert/eingespielt werden. Wenn ich mich mit Maschinen beschäftige, geht es aber in aller Regel um Sicherheitsprogramme, deren Auswirkung immer jemand direkt vor Ort beim Kunden verifizieren sollte (meiner Meinung nach muss). Mal davon abgesehen, dass - je nach Steuerungstyp - jemand eventuell direkt an der PLC über einen Drehschalter einen entsprechenden Programmiermodus anwählen muss. Somit - nein, ich plane derlei Lösungen aktuell nicht und habe auch zuhause keine wirkliche Anwendung dafür.

EDITH meint: Halt, so ganz richtig ist das nicht. Zumindest KVM plane ich dann doch durchaus zu verwenden, wenn vermutlich auch für die vorhersehbare Zukunft nicht für meine "professionellen" Sachen. Ich kenne mich mit VirtualBox ganz gut aus inzwischen und würde nur nach eingehender Testphase wechseln.


Anmerkung: Nur ums klarzustellen: Sicherheit != Funktionale Sicherheit
Beim ersten mag es um Firewalls, VPNs oder ähnliches im Automatisierungsumfeld gehen. Im Fehlerfall steht da vielleicht die Maschine/Anlage. Beim zweiten Fall reden wir aber von abgetrennten Armen, Knochenbrüchen oder schlimmeren, weil sich auf einmal was bewegt, was eigentlich abgeschalten sein sollte. Da ich mit Normen arbeite, auch hier wieder: IEC 62443 (Industrial Security), IEC 61508 (Funktionale Sicherheit, anwendungsunabhängig).
 

RalphS

Lt. Commander
Dabei seit
Feb. 2015
Beiträge
1.568
Kurzer Hinweis, mit UEFI werden keine Bootloader mehr überschrieben.
Eventuell ist rEFInd was für Dich. Der hat den "Vorteil", daß er sich die letzte Bootoption merkt. Konfiguiert werden muß er nicht, er guckt sich beim Start alle (!) verfügbaren ESP an, bietet gefundene EFI-Dateien zum Start an und hat sogar in den meisten Fällen passende Icons dafür.

Habe damit nach vielen Jahren grub2 in den Ruhestand geschickt. Allerdings ist ein paralleles grub2 natürlich immer noch sinnvoll für besondere Startoptionen - die Kommandozeile dort macht so schnell keiner nach.
 

BlackPanther87

Cadet 3rd Year
Ersteller dieses Themas
Dabei seit
Dez. 2017
Beiträge
44
Kurzer Hinweis, mit UEFI werden keine Bootloader mehr überschrieben.
Grundsätzlich richtig, das sollte nicht der Fall sein. In meinem speziellen Fall hatte die Firmware allerdings anscheinend einen Fehler, der bei Multiboot mit Windows den UEFI-Eintrag für dessen Bootloader an erster Stelle der BootOrder UND der Listung erwartete.

Bash:
# efibootmgr
BootOrder: 0000,0001
Boot0000* Linux Boot Manager
Boot0001* Windows Boot Manager
In dem Fall wurde der Windows Boot Manager an die erste Stelle gesetzt. Da half am Ende nur das Deaktivieren des Windows Bootloaders mit efibootmgr -A. Ich hatte auch die Möglichkeit, das Verhalten am Nachfolgemodell Gigabyte Aero 15X9 zu testen, dort trat das nicht auf. Auf Nachfrage bei Gigabyte bezüglich eines eventuellen BIOS-Updates für das alte Modell kam nur "Linux wird offiziell nicht unterstützt".

Eventuell ist rEFInd was für Dich. Der hat den "Vorteil", daß er sich die letzte Bootoption merkt. Konfiguiert werden muß er nicht, er guckt sich beim Start alle (!) verfügbaren ESP an, bietet gefundene EFI-Dateien zum Start an und hat sogar in den meisten Fällen passende Icons dafür.
An sich find ich rEFInd ja sehr interessant, werde aber wohl zunächst mal auf GRUB2 setzen, da ich mich damit (relativ) gut auskenne. Davon ab hat der Entwickler selbst eine sehr interessante Zusammenfassung zu Vor- und Nachteilen verfasst: askubuntu. Sicher werde ich aber in meiner Bastelumgebung mal wieder was dahingehend testen.
 

Lord_Dragon

Commander
Dabei seit
Dez. 2006
Beiträge
2.051
@BlackPanther87
Wow du hast dir hier echt mühe gegeben und deine Finger sicherlich wund getippt. Meine Hochachtung erstmal dafür.
Da ich beruflich in Zukunft wohl auch hier und da mit Linux zu tun habe, werde ich hier wohl einiges an nützlichen Infos herausziehen können. Ich denke mal das ich dabei nicht der einzige bleibe.

Vielen Dank für deine Arbeit und deinen Fleiß :daumen:
 

BlackPanther87

Cadet 3rd Year
Ersteller dieses Themas
Dabei seit
Dez. 2017
Beiträge
44
#2 - Doch nicht alles Gold was glänzt, wie?

01.02.2020

Anmerkung: Auch diesen geplanten zweiten Teil werde ich aus Gründen der Länge nochmal aufteilen. Zwar ist dieser etwas kürzer als zuletzt. Da ich für die installierten Pakete aber einen etwas genaueren Einblick nehmen will, und das auch thematischer besser mit den allgemeinen Systeminfos zusammenpasst, behandele ich das im kommenden Eintrag #3 (der wird dann auch wieder länger ;) ).

Zurück zum Startpost

Übersicht für diesen Eintrag


Ersteinrichtung
Was funktioniert, was nicht?
Fußnoten



Ersteinrichtung


Nach dem ersten Start gibt es die im Grunde üblichen Fragen zur Einrichtung, wie man sie auch bei einer "regulären" Ubuntu-Installation sieht. Mit einer Ausnahme: Im zweiten Schritt muss man eine Dell-eigene EULA akzeptieren. Nun ist es nicht so, dass mich persönlich das groß tangieren würde. Ich plane ohnehin eine frische Installation von Debian. Es steht nach meinem Kenntnisstand auch nichts merkwürdiges drin (ich hab die aber nicht bis ins letzte Detail geprüft). Was zumindest unschön ist allerdings, dass diese nur auf Englisch verfügbar zu sein scheint (somit unabhängig von der im Schritt zuvor ausgewählten Sprache).

Ist man jedenfalls mit mit der einmaligen Definition seiner Einstellungen durch, wird man nach einigem Minuten mit dem Gnome-Desktop von Ubuntu begrüßt. Hier wird man sogleich auch darauf hin gewiesen, dass man doch ein Wiederherstellungsmedium erstellen sollte. Dies wird über ein Dell-eigenes GUI geregelt, dass ich als "zweckmäßig" beschreiben würde.

Bevor man versucht, eigentliche Systemfunktionen zu testen, sollte natürlich sichergestellt werden, dass ausstehende Updates installiert werden. Also Terminal geöffnet 1) und los gehts:
Bash:
$ sudo apt update
...
W: GPG-Fehler: http://dl.google.com/linux/chrome/deb stable Release: Die folgenden Signaturen konnten nicht überprüft werden, weil ihr öffentlicher Schlüssel nicht verfügbar ist: NO_PUBKEY 78BD65473CB3BD13
E: Das Depot »http://dl.google.com/linux/chrome/deb stable Release« ist nicht signiert.
N: Eine Aktualisierung von solch einem Depot kann nicht auf eine sichere Art durchgeführt werden, daher ist es standardmäßig deaktiviert.
N: Weitere Details zur Erzeugung von Paketdepots sowie zu deren Benutzerkonfiguration finden Sie in der Handbuchseite apt-secure(8).
Na, das geht ja gut los oder was? Zunächst mal kann ich nicht ganz verstehen, warum Dell Chrome neben dem bereits ja ohnehin existierenden Firefox installieren lässt. Zum anderen kann ich mir schon vorstellen, dass die obige Meldung bei eher unbedarften Nutzern Fragezeichen auftauchen lässt (da der Fehler ja OOTB besteht). Dabei ist die Behebung gar nicht so schwer:

Bash:
sudo apt-key adv --recv-keys --keyserver keyserver.ubuntu.com 78BD65473CB3BD13
sudo apt update
Nach kurzer Suche kam zwar auf, dass dies eine relativ neue Sache zu sein scheint - siehe das LinuxMint-Forum etwa. Dennoch bleibt der Punkt grundsätzlich bestehen: Ohne das Chrome-Repository gäbs das Problem zunächst gar nicht. Wenn ein Nutzer das selbst nachträglich installieren will, wird er sich (vermutlich) etwas mehr informieren.
Nunja, nach dem diese Sache behoben war, konnte ich auch das Upgrade durchführen. Und wie man sehen kann, war das eine ganze Menge:

Bash:
$ sudo apt upgrade
...
749 aktualisiert, 25 neu installiert, 0 zu entfernen und 0 nicht aktualisiert.
Es müssen 800 MB an Archiven heruntergeladen werden.
Nach dieser Operation werden 871 MB Plattenplatz zusätzlich benutzt.
Faktisch ist das ein Upgrade von der 18.04-"Grundversion" auf 18.04.2. Ob es vorteilhafter für den Kunden wäre, die Systeme eventuell direkt mit dem aktuellen Point-Release auszuliefern, mag sein. Mir persönlich ist das alles relativ egal, da ja sowieso beizeiten neu aufgesetzt wird. Das Update an sich ging ohne Komplikationen vonstatten (auch wenn es relativ lang gedauert hat), sodass ich dann mit den eigentlichen Funktionstests beginnen konnte.




Was funktioniert, was nicht?


Nachdem das System also grundsätzlich auf dem aktuellen Stand war, konnte ich mich also endlich daran machen, mein System aus Hardwaresicht auf grundsätzliche Funktionalität zu prüfen. Wenn ich eins vermeiden will, ist ein OOTB-defektes System zu haben, bei dem ich dann bei einer Neuinstallation rätseln darf, ob's jetzt ein Anwenderfehler meinerseits oder doch ein Garantiefall ist.
  1. Laden: System lädt mit angeschlossenem Netzteil? Jap.
  2. USB: Zum besseren Arbeiten erstmal meine externe Funktastatur und -maus geschnappt. USB-A-Dongle eingesteckt, problemlos erkannt.
  3. HDMI: Nur ist es ja doch schon angenehmer, etwas mehr Bildschirmfläche zu haben, also meinen EIZO FS2434 über HDMI angeschlossen. Es dauert einen kurzen Moment, aber ich bekomme ohne Murren ein Signal. Gnome erkennt mein Ansinnen auch direkt und fragt mich entsprechend nach dem gewünschten Anzeigemodus (selbstverständlich erweitern).
  4. mDP: Weiterhin habe ich ja noch meinen Acer XB280HK (4K, GSync, nur ein einzelner DP-Anschluss). Mein Precision 7540 hat einen MiniDisplayPort-Anschluss. Also, Kabel gesucht, was auf dem Dachboden noch in irgendeiner Kiste rumliegt. Angestöpselt und zunächst mal gewundert, warum in der Bildschirmmitte nur ein winziger Teil des Desktophintergrunds angezeigt wird.
    Also erstmal versucht, die Bildschirmeinstellungen zu öffnen (also die entsprechende Seite in Gnome-settings) und festgestellt, dass die Settings-App abstürzt. Kurzerhand xrandr konsultiert und gesehen, dass der Bildschirm am mDP-Port zwar scheinbar erkannt wird, aber nur mit 640x480 als verfügbare Auflösung.
    Bevor ich hier groß weiter Fehler suche, mal versucht, mein Gigabyte Aero 15xV8 anzuschließen (das hat nämlich auch einen mDP-Port, mein P370EM hingegen hat einen "normalen" DP-Port). Und - schau an - der Fehler wandert mit 2). Aufgrund dessen gehe ich aktuell mal von einem fehlerhaften Kabel aus. Tangiert mich persönlich sowieso nicht wirklich, siehe weiter unten.
    Anmerkung: Dennoch werde ich in der nächsten Zeit das endgültige Ergebnis hier nachtragen.
  5. LAN: Problemlos, wie zu erwarten.
  6. WLAN: Auch hier problemlos - etwas das mich zunächst etwas überrascht hat. Der ein oder andere aufmerksame Leser hat vielleicht bemerkt, dass ich fürs Wifi ein Intel Wi-Fi 6 AX200-Modul konfiguriert habe. Dies wird so nicht direkt in Ubuntu 18.04 unterstützt. Wie wir weiter unten sehen, werden hier einige zusätzliche Repos dafür genutzt.
  7. Webcam/Mikrofon: Scheint soweit problemlos zu funktionieren. Allerdings ist die Qualität (Video und Audio) nicht berauschend. Ist jetzt aber auch kein wichtiges Kriterium für mich.
  8. Audio: Der Komboanschluss bereitete mir keine Probleme. Auch keine unerwarteten "popping noises", über die immer mal wieder berichtet wird.
  9. IR-Kamera: Nicht, dass ich die wirklich benötigen würde. Sie ist halt da. Erwartungsgemäß funktioniert sie nicht.
  10. NFC: Im Gegensatz zu Infrarot hätte ich für Nahfeldkommunikation durchaus hier und da praktische Nutzungsszenarien. Z.B. muss ich hin und wieder mal (passive) RFID-Tags einlesen. Wie erwartet, konnte ich hier allerdings zunächst nichts erreichen. Auch hier habe ich aber passende Alternativen, mit denen ich mich arrangieren kann.
  11. FIPS-Fingerabdruck: Auch hier ohne große Überraschung. Keine Funktion gegeben und anscheinend auch nicht mal eine Applikation dafür installiert.
  12. Smartcard: Kann ich aktuell mangels entsprechender Karten gar nicht testen. Ist aber definitiv geplant, nachgeholt zu werden. Erwarte hier zumindest keine wirklichen Probleme.




Fußnoten


  1. Ich persönlich empfehle ja, Updates immer über das Terminal auszuführen. Das mag für Leute, die das Terminal etwas scheuen, zwar unkomfortabel erscheinen. Aus meiner eigenen Erfahrung lassen sich aber so schon viele Probleme vermeiden, die "Auto-Updater" hin und wieder einfach mit sich bringen. Zudem geht es im Grunde eigentlich nur um zwei Kommandos.
  2. Etwas, was viele Leute leider nicht kennen bzw. durchführen: Kreuztests. Wie oft hab ich auf der Arbeit die Diskussion, dass etwa Teil XY nicht funktioniert. Da werden stundenlang Fehler gesucht, bis mal jemand auf die Idee kommt, ein anderes baugleiches Teil zu testen. Um beim Beispiel des Monitors zu bleiben: Vermutlich hat man nicht mal einfach so einen zweiten vergleichbaren Monitor zuhause rumliegen. Bei einem Kabel ist das dann aber schon wahrscheinlicher. Da zudem der Monitor am "regulären" DP-Anschluss meines P370EM funktionierte, konnte ich auch diesen als Fehlerquelle (praktisch) ausschließen. Der Kreuztest muss nicht in "beide Richtungen" plausibel erscheinen. Aber die Fehlermitnahme in eine Richtung klärt das Ganze aus meiner Erfahrung schon meist recht schnell.
 
Zuletzt bearbeitet:

Ratz_Fatz

Lt. Commander
Dabei seit
Mai 2011
Beiträge
1.047
Grundsätzlich richtig, das sollte nicht der Fall sein. In meinem speziellen Fall hatte die Firmware allerdings anscheinend einen Fehler, der bei Multiboot mit Windows den UEFI-Eintrag für dessen Bootloader an erster Stelle der BootOrder UND der Listung erwartete.

Bash:
# efibootmgr
BootOrder: 0000,0001
Boot0000* Linux Boot Manager
Boot0001* Windows Boot Manager
In dem Fall wurde der Windows Boot Manager an die erste Stelle gesetzt. Da half am Ende nur das Deaktivieren des Windows Bootloaders mit efibootmgr -A. Ich hatte auch die Möglichkeit, das Verhalten am Nachfolgemodell Gigabyte Aero 15X9 zu testen, dort trat das nicht auf. Auf Nachfrage bei Gigabyte bezüglich eines eventuellen BIOS-Updates für das alte Modell kam nur "Linux wird offiziell nicht unterstützt".
Dann nochmal den USB-Live-Stick starten und die Startreihenfolge ändern. Wenn mehrere SSDs vorhanden sind, sind auch mehr Einträge unter efibootmgr(efibootmgr -v) gelistet. Einfach das Betriebssystem was als erstes gestartet werden soll, mit dem Zahlencode an die erste Stelle setzen.

Code:
sudo efibootmgr -o 0000,0001
 

BlackPanther87

Cadet 3rd Year
Ersteller dieses Themas
Dabei seit
Dez. 2017
Beiträge
44
Dann nochmal den USB-Live-Stick starten und die Startreihenfolge ändern. Wenn mehrere SSDs vorhanden sind, sind auch mehr Einträge unter efibootmgr(efibootmgr -v) gelistet. Einfach das Betriebssystem was als erstes gestartet werden soll, mit dem Zahlencode an die erste Stelle setzen.

Code:
sudo efibootmgr -o 0000,0001
Falls es vorher nicht ganz klar geworden ist: Genau das hat damals nicht funktioniert. Stattdessen hat die Firmware von sich aus beim nächsten Start den Eintrag für GRUB überschrieben (genau genommen hat das ja nicht an BootOrder gelegen, sondern das Index 0 Grub war). Nachdem dann im LiveSystem nochmal die Listungen geprüft wurden, war der UEFI-Eintrag für Grub "weg". Durch das Deaktivieren des Eintrags für Windows konnte ich das nur umgehen, da die Firmware "nur" auf Vorhandensein UND erster Stelle der Bootorder für Windows prüfte. Somit war zwar Windows an erster Stelle (und Eintrag 0 mit dem Windows Bootloader belegt), wurde aber durch die Deaktivierung einfach übersprungen. Durch Gigabyte halbseiden bestätigtes Verhalten, aber nichts was irgendwie für die alte Generation gefixed werden sollte.

Im Grunde ist das alles aber ja nun auch egal. Für mein Gigabyte funktioniert der Workaround, für mein Dell sollte das nicht von Interesse sein.
 
Zuletzt bearbeitet:

RalphS

Lt. Commander
Dabei seit
Feb. 2015
Beiträge
1.568
Zunächst nochmal ein explizites Dankeschön für den umfassenden Bericht. :daumen:

Bisher sieht es so aus, als ob Du sehr gut weggekommen wärst mit der Konfiguration. Das mit dem "DELL-eigenen Kram" stößt mir ein bißchen auf... verwundert aber auch nicht und von der anderen Seite betrachtet ist es sogar gar nicht mal so schlecht, wenn sie das Zeug supporten, daß sie dann auch eigene Software dafür entwickeln.

Stichwort HW-Support lohnt immer zuallererst ein Blick in die Kernelkonfiguration. Bei Linux ist Funktionalität zunächst optional - ein Distributor kann ein Modul in der Kernelkonfiguration konfigurieren, er kann es aber auch sein lassen und kann sogar Funktionalität rausnehmen -- entsprechend weiß man OOTB nie, ob diese oder jene Distribution tatsächlich "die" Hardware ansteuern kann, insbesondere auch dann, wenn "die Hardware" mit Linux durchaus funktionieren kann.

Der Teil mit dem GPG-Schlüssel ist verständlich, daß das zunächst irritiert, aber das soll so sein. Die Idee ist, daß man die Kontrolle behält über wer-ist-was. Man kann als Distibutor sagen, mein Kram ist mein Kram, da installiere ich auch meine Keys für... aber fremder Kram ist etwas gänzlich anderes. Der Anwender muß dem verwendeten Repository Vertrauen schenken. Das kann er aber nur, wenn er sich die Keys dazu selber beschafft -- das Vertrauen basiert dann inhärent auf der eigenen Initiative (ich habs selber gemacht, also ist es auch so, wie ich es wollte).

Natürlich sei die Frage erlaubt, ob dieser ganze Wildwuchs mit kilometerlangen source.list Einträgen wirklich nötig ist... ich persönlich denke eher, eine Referenz aufs eigene Quellmaterial genügt vollends, um den Rest muß sich dann der Anwender kümmern. Nach Schnauze vorbestimmen, was der Anwender kriegen soll, ist der falsche Ansatz unter jeder Betriebsumgebung.

Entsprechend darf auch keines der bisher-nicht-vertrauenswürdigen Repositories für irgendetwas verwendet werden.

Übrigens, daß es nur einige wenige Installationsimages gibt ist völlig normal. OEMs müssen diese supporten. Heißt, wenn es ein installierbares Image gibt, dann muß das getestet und für gut befunden werden. Würde man ständig da was reinklatschen, dann müßte man ebenso ständig neu testen, einschließlich aller Abhängigkeiten.
Den Aufwand betreibt niemand.
Wenn der Nutzer das dann selber macht (was er im Normalfall natürlich auch sollte) dann ist das nicht mehr Sache des OEM, der kann sich dann nämlich im Zweifel auf "mach erstmal Neuinstallation von unserem Image" berufen und nur wenn das auch nicht hilft, dann muß der OEM wirklich tätig werden.
 

aRkedos

Lieutenant
Dabei seit
Nov. 2012
Beiträge
968
  1. Ich persönlich empfehle ja, Updates immer über das Terminal auszuführen. Das mag für Leute, die das Terminal etwas scheuen, zwar unkomfortabel erscheinen. Aus meiner eigenen Erfahrung lassen sich aber so schon viele Probleme vermeiden, die "Auto-Updater" hin und wieder einfach mit sich bringen. Zudem geht es im Grunde eigentlich nur um zwei Kommandos
Naja letztlich machen die grafischen updater im Hintergrund nichts anderes als die Konsolenbefehle auszuführen. Ich würde allerdings auch Empfehlen, dass in der Konsole zu machen weil es wie du schon sagtest echt nur 2 Befehle sind und es auch schneller und einfacher geht als sich durch menüs zu klicken.

Auf jeden Fall interessantes Tagebuch. Weiter so :)
 

BlackPanther87

Cadet 3rd Year
Ersteller dieses Themas
Dabei seit
Dez. 2017
Beiträge
44
@RalphS
Ich bin da voll bei dir. Um so weniger versteh ich dann, wieso man einen redundanten Browser mit einem entsprechenden Repository packen muss, wo genau das dann beim ersten Update nach Erhalt des Systems "Probleme" macht (wie geschrieben, nichts, was sich nicht innerhalb kurzer Zeit beheben ließe). Ich werde im nächsten Teil nochmal etwas genauer auf die Dell-eigenen Pakete eingehen, da gibts nämlich noch ein paar weitere Sachen, die mir als QA-affinen Menschen einfach missfallen. Kleinigkeiten, aber einfach unnötige Sachen. Ich schieb das jetzt nicht auf Dell an sich, mir ist durchaus bewusst, wie das in der Praxis läuft (Maschinenbau oder IT, am Ende ist das gar nicht so unterschiedlich...^^).

@aRkedos
Im Grunde richtig, ich hatte allerdings in der Vergangenheit schon Fälle, wo der GUI-Updater von Ubuntu abstürzte und das nur durchs Arbeiten mit dem Terminal behoben werden konnte (denke das war damals irgendwas mit GTK).

Danke euch jedenfalls für die interessanten Rückmeldungen. Der nächste Part sollte im Laufe der Woche kommen. Bin nur gerade etwas im Stress wegen neuer Arbeit und so.
 

CB-Andi

Ensign
Dabei seit
Sep. 2018
Beiträge
170
Klasse Bericht - macht Spaß mitzulesen. Bin gespannt wie es bei dir weitergeht.
Von meiner Seite aus schon mal viel Erfolg und Spaß mit deinem neuen Arbeitstier.
 

BlackPanther87

Cadet 3rd Year
Ersteller dieses Themas
Dabei seit
Dez. 2017
Beiträge
44
#3 - Ein Blick auf OOTB-Pakete, das BIOS und TB3

09.02.2020

Zurück zum Startpost

Übersicht für diesen Eintrag

Allgemeine Systeminfos, Geräteinfos
OOTB-Pakete im Detail
Ein näherer Blick ins BIOS
Thunderbolt 3-Praxistest mit WD19TB
Ein erstes Fazit
Fußnoten



Allgemeine Systeminfos, Geräteinfos

In diesem ersten Abschnitt will ich zunächst nochmal ein wenig mehr auf die allgemeinen Daten meines Precision 7540 eingehen sowie die Ausgaben für USB- und PCI-Geräte näher betrachten.

Neofetch

Zunächst einmal das wohl bekannte Neofetch 1):
Code:
$ neofetch
            .-/+oossssoo+/-.               cb@cb-Precision-7540
        `:+ssssssssssssssssss+:`           ----------------------------
      -+ssssssssssssssssssyyssss+-         OS: Ubuntu 18.04 LTS (whiteha X00) x86_64
    .ossssssssssssssssssdMMMNysssso.       Host: Precision 7540
   /ssssssssssshdmmNNmmyNMMMMhssssss/      Kernel: 4.15.0-1067-oem
  +ssssssssshmydMMMMMMMNddddyssssssss+     Uptime: 3 mins
/sssssssshNMMMyhhyyyyhmNMMMNhssssssss/    Packages: 1884
.ssssssssdMMMNhsssssssssshNMMMdssssssss.   Shell: bash 4.4.20
+sssshhhyNMMNyssssssssssssyNMMMysssssss+   Resolution: 1920x1080
ossyNMMMNyMMhsssssssssssssshmmmhssssssso   DE: GNOME 3.28.4
ossyNMMMNyMMhsssssssssssssshmmmhssssssso   WM: GNOME Shell
+sssshhhyNMMNyssssssssssssyNMMMysssssss+   WM Theme: Adwaita
.ssssssssdMMMNhsssssssssshNMMMdssssssss.   Theme: Ambiance [GTK2/3]
/sssssssshNMMMyhhyyyyhdNMMMNhssssssss/    Icons: Ubuntu-mono-dark [GTK2/3]
  +sssssssssdmydMMMMMMMMddddyssssssss+     Terminal: gnome-terminal
   /ssssssssssshdmNNNNmyNMMMMhssssss/      CPU: Intel i9-9980HK (16) @ 5.000GHz
    .ossssssssssssssssssdMMMNysssso.       GPU: AMD Polaris12
      -+sssssssssssssssssyyyssss+-         GPU: Intel UHD Graphics 630
        `:+ssssssssssssssssss+:`           Memory: 1524MiB / 7727MiB
            .-/+oossssoo+/-.
Dem aufmerksamen Beobachter werden hier vielleicht bereits folgende Sachen auffallen:
  • Ubuntu meldet sich nicht als "Standard"-Ausführung.
  • Ebenfalls scheint es sich beim Kernel um eine durch Dell(?) angepasste Version "4.15.0-1067-oem" zu handeln. Ich werde das bei den Paketen nochmal genauer betrachten.
  • Ansonsten gibts erstmal nichts ungewöhnliches. Die installierten Pakete sowie der genutzte Arbeitsspeicher ist mir etwas zu viel (dafür, dass vom Terminal abgesehen eigentlich nichts läuft), aber das wird sich später ja noch ändern.
PCI-Geräte

Anmerkung: Ausgabe gekürzt auf die Stellen, auf die ich mich hier näher beziehe. Vollständige Liste hängt an.

Code:
$ lspci -k
...
00:02.0 VGA compatible controller: Intel Corporation Device 3e9b (rev 02)
    Subsystem: Dell Device 0926
    Kernel driver in use: i915
    Kernel modules: i915
...
00:08.0 System peripheral: Intel Corporation Xeon E3-1200 v5/v6 / E3-1500 v5 / 6th/7th Gen Core Processor Gaussian Mixture Model
    Subsystem: Dell Xeon E3-1200 v5/v6 / E3-1500 v5 / 6th/7th Gen Core Processor Gaussian Mixture Model
...
01:00.0 VGA compatible controller: Advanced Micro Devices, Inc. [AMD/ATI] Polaris12
    Subsystem: Dell Polaris12
    Kernel driver in use: amdgpu
    Kernel modules: amdgpu
...
02:00.0 Non-Volatile memory controller: Toshiba America Info Systems Device 011a
    Subsystem: Toshiba America Info Systems Device 0001
    Kernel driver in use: nvme
...
05:00.0 System peripheral: Intel Corporation JHL7540 Thunderbolt 3 NHI [Titan Ridge 4C 2018] (rev 06)
    Subsystem: Dell JHL7540 Thunderbolt 3 NHI [Titan Ridge 4C 2018]
    Kernel driver in use: thunderbolt
    Kernel modules: thunderbolt
...
6f:00.0 Network controller: Intel Corporation Device 2723 (rev 1a)
    Subsystem: Intel Corporation Device 4080
    Kernel driver in use: iwlwifi
    Kernel modules: iwlwifi
Auch hier wieder einige Punkte näher beleuchtet:
  • Die integrierte Intel-GPU scheint den standardmäßigen Treiber zu nutzen.
  • Die CPU wird falsch erkannt. Nichts ungewöhnliches hier aber und auch nicht tragisch, wenn andere Tools (wie neofetch bzw. das Gnome-eigene SystemInfo) das richtig erkennen.
  • Die dedizierte AMD Pro WX3200 wird zumindest grundsätzlich erkannt als "Polaris12-GPU". Richtige Generation schonmal, genauer teste ich das nochmal weiter unten.
  • Als NVME-SSD scheint eine Toshiba verbaut zu sein. Vermute mal nicht die hochwertigste, aber ich hab ja auch die billigste Variante gewählt. Prüfe ich später beim Aufrüsten nochmal.
  • Für Thunderbolt 3 wird (wie erwartet) ein TitanRidge-Controller verwendet.2)
  • Für mein WLAN-Modul AX200 (WiFi 6) wird das standardmäßige iwlwifi verwendet. Ich werde das weiter unten nochmal näher betrachten, denn eigentlich bietet 18.04 nicht so ohne weiteres Support hierfür (Stichwort Backport).
USB-Geräte

Auch hier wieder zunächst einige (gekürzte) Ausschnitte von lsusb (mit Details). Beachtet bitte, dass ich mich hauptsächlich auf die Geräte konzentriere, die in Eintrag #2 nicht funktioniert haben.

Code:
...
Bus 001 Device 004: ID 8087:0029 Intel Corp.
...
  bDeviceClass          224 Wireless
  bDeviceSubClass         1 Radio Frequency
  bDeviceProtocol         1 Bluetooth
...
Ganz vergessen, dass im Eintrag #2 zu testen. Funktioniert jedenfalls, auch wenn ichs nun wirklich nicht benötige. Trage das bei Gelegenheit als Anmerkung noch nach.

Code:
...
Bus 001 Device 003: ID 0bda:5532 Realtek Semiconductor Corp.
...
  iProduct                1 Integrated_Webcam_HD
...
  ** UNRECOGNIZED:  1c 10 05 00 df 60 dd d8 89 45 c7 4c 9c d2 65 9d 9e 64 8a 9f 00 00 03 06 4c 03 15 00
  ** UNRECOGNIZED:  08 10 11 01 03 00 00 00
...
Die Webcam, die in den wichtigen Punkten (Kamera an sich und Mikro) ja funktioniert. Ich vermute, dass sich hier auch die Infrarot-Kamera versteckt, für die von Haus aus auch keine Softwareunterstützung vorgesehen ist. Eventuell führe ich hier später Tests mit Howdy durch 3).

Code:
Bus 001 Device 002: ID 0a5c:5843 Broadcom Corp.
...
      iInterface              4 Broadcom ControlVault 3 w/FingerPrint
      ** UNRECOGNIZED:  10 25 00 00 00 00 00 00 00 00 00 00 00 00 00 00
...
      bInterfaceClass        11 Chip/SmartCard
      bInterfaceSubClass      0
      bInterfaceProtocol      0
      iInterface              5 Contacted SmartCard
...
      iInterface              6 Contactless SmartCard
...
Hier ist dann unser Fingerabdruck-Scanner - wie zuvor beschrieben, habe ich hier die FIPS-Variante, die prinzipiell aufgrund der größeren Auflagefläche eine höhere Sicherheit bieten kann (wenn's denn funktionieren würde). Die Suche nach der ID war relativ erfolglos. Allerdings konnte ich die nahezu gleiche (5834) entdecken, die früher im 7520 verbaut war. Dafür ist bis heute ein offener Report im Repository von fprintd vorhanden. Würde also keine Hoffnung darauf setzen, dass da jemals was kommt.
Davon abgesehen haben wir die reguläre SmartCard als auch NFC über dasselbe Device. Zweiteres wäre mir relativ egal, das erste zumindest ganz nett. Werde ich später mit entsprechenden Karten hoffentlich nochmal genauer betrachten können.

Glxinfo

Wie zuvor bei den PCI-Geräten bereits beschrieben, will ich hier zur Funktionsprüfung nochmal einen genaueren Blick auf die beiden GPUs werfen. Ich werde allerdings keine Benchmarks durchführen. Mir ist dabei im Grunde nur wichtig, dass die AMD-GPU bei Setzen des Parameters DRI_PRIME entsprechende Rückmeldung gibt.

Zunächst einmal für die Intel-GPU (wie zuvor wieder gekürzt)
Code:
$ glxinfo
name of display: :0
display: :0  screen: 0
direct rendering: Yes
Extended renderer info (GLX_MESA_query_renderer):
    Vendor: Intel Open Source Technology Center (0x8086)
    Device: Mesa DRI Intel(R) UHD Graphics 630 (Coffeelake 3x8 GT2)  (0x3e9b)
    Version: 19.2.1
    Accelerated: yes
    Video memory: 3072MB
...
Ich will an dieser Stelle gar nicht auf die Ausgabe im Detail eingehen. Aber es sollte klr sein, dass ich hier vor allem an Device interessiert bin. Um jedenfalls die gleichen Informationen über die AMD-GPU abrufen zu können, muss vor dem Aufruf von glxinfo der Parameter DRI_PRIME auf 1 gesetzt werden.

Code:
$ DRI_PRIME=1 glxinfo
name of display: :0
display: :0  screen: 0
direct rendering: Yes
Extended renderer info (GLX_MESA_query_renderer):
    Vendor: X.Org (0x1002)
    Device: AMD Radeon (TM) Pro WX 3200 Series (POLARIS12, DRM 3.30.0, 4.15.0-1067-oem, LLVM 7.1.0) (0x6981)
    Version: 18.3.0
    Accelerated: yes
    Video memory: 4096MB
    Unified memory: no
...
Soweit, so schön. Wir sehen, dass sich die AMD-GPU mit dem erwarteten Typ der Pro-Serie meldet, inklusive des entsprechend genutzten (oem-)Kernels.




OOTB-Pakete im Detail

Ich beginne diesen Abschnitt zunächst einmal ganz grundlegend mit einer kurzen Analyse der mit Apt verwalteten Pakete. Dabei identifiziere ich einige, die ich mir genauer anschauen will. Im Anschluss werfen wir dann noch einen genaueren Blick auf die hinterlegten Repositories.

So aber bitte nicht!

Anmerkung: Wie zuvor auch, findet ihr die volle Liste als Referenz im Anhang. Hier führe ich entsprechende Kommandos aus, da ich weiß, auf was gefiltert werden soll.

Code:
$ apt list installed | grep 'dell'
dell-0926-bionic-meta/unbekannt,unbekannt,now 5 all  [installiert]
dell-0926-meta/unbekannt,unbekannt,now 5 all  [installiert]
dell-eula/now 1.07 all  [Installiert,lokal]
dell-recovery/now 1.61~somerville3 all  [Installiert,lokal]
dell-recovery-casper/now 1.61~somerville3 all  [Installiert,lokal]
dell-service-meta/unbekannt,unbekannt,now 7ubuntu3 all  [installiert]
dell-super-key/now 0.04 all  [Installiert,lokal]
Gib alle (mithilfe von Apt) installierten Pakete aus, filtere die Ausgabe dann auf diejenigen Einträge, die (irgendwo) dell enthalten.

Zunächst einmal muss man lobend anerkennen, dass alle diese Pakete so benannt sind, dass sie an der selben Stelle der Ausgabe gefunden werden können. Somit ist bei einer vollständigen Liste zunächst mal keine große Sucherei vonnöten. Nun bin ich von Natur aus ja ein recht neugieriger Mensch, also schauen wir mal, ob wir weitere Informationen über das erste Paket erhalten können.

Code:
$ apt-cache show dell-0926-bionic-meta
Package: dell-0926-bionic-meta
Status: install ok installed
Priority: optional
Section: misc
Installed-Size: 9
Maintainer: Commercial Engineering <commercial-engineering@canonical.com>
Architecture: all
Source: whitehaven-mlk-meta
Version: 5
Depends: whitehaven-mlk-meta
Description: Meta package for whitehaven-mlk 0926
This is a metapackage for whitehaven-mlk 0926
Leider gibt das hier auch nicht viel mehr Info her. Zumindest eine kurze Beschreibung des Inhalts wäre ganz nett. Ich bin beileibe kein Programmierer, aber auch mir ist bewusst, dass die Darstellung von redundanten Informationen ("sprechende" Variable mit dazu faktisch gleichem Kommentar) eher schlechter Stil ist. Dennoch ist diese Ausgabe zumindest für eine kleine Überraschung gut: Das Paket scheint gar nicht von Dell zu stammen, sondern von Canonical selbst gepflegt zu werden (genauer gesagt deren kommerziellem Support). Vollkommen plausibel, wenn man darüber nachdenkt. Canonical kann das als Dienstleistung anbieten und Dell seine Systeme vorkonfiguriert mit (theoretisch!) besserer Unterstützung als dem Default-Image ausliefern.

Ich bin an dieser Stelle nun noch nicht ganz am Ende und würde gerne das Ursprungs-Repository für das Paket erfahren (in den Kern-Repositories kanns ja nicht enthalten sein).

Code:
$ apt-cache policy dell-0926-bionic-meta
dell-0926-bionic-meta:
  Installiert:           5
  Installationskandidat: 5
  Versionstabelle:
*** 5 500
        500 http://dell.archive.canonical.com/updates bionic-dell-whitehaven-mlk/public amd64 Packages
        500 http://dell.archive.canonical.com/updates bionic-dell-whitehaven-mlk/public i386 Packages
        100 /var/lib/dpkg/status
Keine große Überraschung mehr an dieser Stelle. Wir sehen, dass hier auf jeden Fall ein Repository speziell für Dell im Spiel ist.

Schon viel besser, Mario!

Dass das Ganze auch besser aussehen kann, zeigt das folgende Beispiel.
Code:
$ apt-cache show dell-super-key
Package: dell-super-key
Status: install ok installed
Priority: optional
Section: admin
Installed-Size: 34
Maintainer: Mario Limonciello <Mario_Limonciello@Dell.com>
Architecture: all
Version: 0.04
Depends: dconf-gsettings-backend | gsettings-backend
Description: Disables the super key by default.
Homepage: http://linux.dell.com/

$ apt-cache policy dell-super-key
dell-super-key:
  Installiert:           0.04
  Installationskandidat: 0.04
  Versionstabelle:
*** 0.04 100
        100 /var/lib/dpkg/status
Kurz und prägnant erklärt die Beschreibung, was dieses Paket eigentlich tut. Hier sehen wir auch, dass dieses Paket anscheinend direkt von Dell kommt. Weiterhin ist das so rudimentär (die Beschreibung sagt eigentlich alles), dass die Verwaltung über ein Repository nicht für notwendig erachtet wurde.


Da gibt's doch noch mehr?

Wer im Abschnitt zu Neofetch aufgepasst hat, wird vielleicht noch wissen, dass ein Kernel abweichend vom Standard genutzt wird. Der Release mag gleich sein, dennoch "meldet" er sich mit "oem". Also wollen wir doch mal schauen, was hier alles oem ist.

Code:
$ apt list installed | grep 'oem'
linux-headers-4.15.0-1067-oem/bionic-updates,bionic-security,now 4.15.0-1067.77 amd64  [Installiert,automatisch]
linux-image-4.15.0-1067-oem/bionic-updates,bionic-security,now 4.15.0-1067.77 amd64  [Installiert,automatisch]
linux-modules-4.15.0-1067-oem/bionic-updates,bionic-security,now 4.15.0-1067.77 amd64  [Installiert,automatisch]
linux-oem-headers-4.15.0-1067/bionic-updates,bionic-updates,bionic-security,bionic-security,now 4.15.0-1067.77 all  [Installiert,automatisch]
Nun bin ich mir nicht ganz sicher, was ich davon halte, wenn ein OEM mit seinen Maschinen einen (wie auch immer) angepassten Kernel liefert, aber am Ende ist mir das auch relativ egal, da ja eh bald neu aufgesetzt wird. Wollte es an dieser Stelle nur nicht unter den Tisch fallen lassen.

Snaps gibt's ja auch noch

Der Vollständigkeit halber an dieser Stelle auch noch die installierten Snaps - die ich persönlich nicht nutze und wohl auch in Zukunft eher von absehe 4).

Code:
$ snap list
Name                  Version                     Rev   Aufzeichnung  Herausgeber  Hinweise
core                  16-2.32.8                   4650  stable        canonical✓   core
core18                20200113                    1650  stable        canonical✓   base
gnome-3-26-1604       3.26.0                      64    stable/…      canonical✓   -
gnome-3-28-1804       3.28.0-16-g27c9498.27c9498  116   stable        canonical✓   -
gnome-calculator      3.28.1                      170   stable/…      canonical✓   -
gnome-characters      3.28.2                      96    stable/…      canonical✓   -
gnome-logs            3.28.2                      34    stable/…      canonical✓   -
gnome-system-monitor  3.26.0                      41    stable/…      canonical✓   -
gtk-common-themes     0.1                         3     stable/…      canonical✓   -
Zuletzt noch ein Blick auf genutzte Repositories

An dieser Stelle greife ich etwas vor: Natürlich sollte jeder Nutzer möglichst eine Art "Sicherheitskonzept" im Kopf haben. Wie genau das aussieht, ist selbstverständlich abhängig vom individuellen Nutzungsszenario. Ich werde die Kernpunkte meines eigenen in einem späteren Eintrag noch ausführlicher vorstellen, aber an dieser Stelle bereits der erste Grundsatz:

Installiere (auf kritischen Hosts) nur die wirklich notwendige Software 5).
Weiter gedacht bedeutet dies natürlich auch: "Nutze nur unbedingt notwendige Repositories". Dies schließt die Vermeidung vom Fremdquellen soweit irgendwie möglich ein 6). Somit interessiert mich natürlich, welche Repositories Dell hier denn in seiner OOTB-Installation denn hinzugefügt hat. Schauen wir uns zunächst die reguläre sources.list an.

Code:
$ sudo grep -v '#' /etc/apt/sources.list | grep -v -e '^$'
deb http://de.archive.ubuntu.com/ubuntu/ bionic main restricted
deb http://de.archive.ubuntu.com/ubuntu/ bionic-updates main restricted
deb http://de.archive.ubuntu.com/ubuntu/ bionic universe
deb http://de.archive.ubuntu.com/ubuntu/ bionic-updates universe
deb http://de.archive.ubuntu.com/ubuntu/ bionic multiverse
deb http://de.archive.ubuntu.com/ubuntu/ bionic-updates multiverse
deb http://de.archive.ubuntu.com/ubuntu/ bionic-backports main restricted universe multiverse
deb http://archive.canonical.com/ubuntu bionic partner
deb http://security.ubuntu.com/ubuntu bionic-security main restricted
deb http://security.ubuntu.com/ubuntu bionic-security universe
deb http://security.ubuntu.com/ubuntu bionic-security multiverse
Gebe alle Zeilen aus sources.list aus, die am Anfang KEINE Raute besitzen (Negierung mit -v). Anschließend filtere auch die "leeren" Zeilen heraus (Regulärer Ausdruck mit -e.

Nun kann das irgendwie aber ja nicht alles sein. Wenn wir uns an die "negativen" Paketbeschreibungen waren da ja auch noch andere Repositories im Spiel. Also mal weiter schauen:
Code:
$ sudo cat /etc/apt/sources.list.d/* | grep -v '#'
deb [ trusted=yes ] file:/var/opt/amdgpu-pro-local/ ./
deb http://dell.archive.canonical.com/updates/ bionic-dell public
deb http://dell.archive.canonical.com/updates/ bionic-dell-service public
deb http://dell.archive.canonical.com/updates/ bionic-dell-whitehaven-mlk public
deb http://oem.archive.canonical.com/updates/ bionic-oem public
deb [arch=amd64] http://dl.google.com/linux/chrome/deb/ stable main
Gebe den Inhalt aller Dateien im Ordner /etc/apt/sources.list.d aus (Wildcard *), dann filtere alle auskommentierten Zeilen heraus.

Diese beiden Ausgaben muss man nun als eine verstehen. Das ist ja ne ganze Menge. Darunter haben wir auch einen Spezialfall, bei dem ein "lokales Repository" genutzt wird, um die GPU-Treiber zu installieren 6). Zum Vergleich mal die (OOTB!)-Liste, wenn ich in der Vergangenheit Ubuntu manuell installiert hatte:

Code:
deb http://de.archive.ubuntu.com/ubuntu/ bionic main
deb http://de.archive.ubuntu.com/ubuntu/ bionic-security main
deb http://de.archive.ubuntu.com/ubuntu/ bionic-updates main
Ist es jetzt fair, Dells Installation mit meiner eigenen zu vergleichen? Nein, natürlich nicht. Mit der dargestellten Liste ist ziemlich sicher, dass (gerade bei einem Notebook bzw. halbwegs aktueller Hardware) viele Sachen nicht bzw. unsauber laufen. Natürlich ist es verständlich, dass Dell eine bessere Funktion beim Erhalt des Systems einer abgespeckten Repository-Liste vorzieht. Die meisten Kunden (selbst solche, die mit Linux arbeiten) werden sich dafür wohl nicht wirklich interessieren. Selbst ich werde ja eine Neuinstallation durchführen. Dennoch ist mir recht wichtig, zu wissen, was eigentlich genutzt wurde, sollte ich später auf Probleme stoßen, die mit Dells Installation nicht vorhanden sind.




Ein näherer Blick ins BIOS

Nachdem wir uns die eigentliche Installation zu Gemüte geführt haben, will ich an dieser Stelle gerne nochmal einen detaillierteren Einblick ins BIOS des Dell Precision geben. Im Gegensatz zu den meisten Consumer-Notebooks erwartet man bei Business-Geräten ja oft mehr als eine Handvoll Einstellungen. Bei meinem Gigabyte Aero 15xV8 ist zum Beispiel die Einstellung der Laufwerksmodi und einiges für SecureBoot schon das höchste der Gefühle (BootOrder natürlich auch, aber naja). Sofern die entsprechende Einstellung systemweit gelten soll (wenn z.B. Hyperthreading insgesamt deaktiviert werden soll), ist das Verfahren über das BIOS natürlich sehr angenehm.

Anmerkung: Ich werde im Folgenden nicht auf alle Einstellungen eingehen. Vielmehr werde ich grundsätzliche bzw. für mich persönlich interessante Dinge aufgreifen. Solltet ihr an einer vollständigen Auflistung interessiert sein, empfehle ich Dells offizielles Benutzerhandbuch. Auch ist anzumerken, dass alle referenzierten Einstellungen auf Englisch benannt sind.

Nach dem Start erreiche ich mit F12 zunächst einmal das einmalige Bootmenü. Hier fällt direkt auf, dass es separate Einträge für BIOS-Updates und Diagnosemöglichkeiten gibt. Der Eintrag BIOS-Setup bringt einen dann auch ins eigentliche BIOS 7). Auch hier fällt schnell auf, dass es sich nicht um eine "alte", textbasierte Oberfläche handelt, sondern schon etwas mehr fürs Auge getan wird. Dabei gibt es auch Mausunterstützung.

Im Folgenden gehe ich im Detail auf einige der Einstellmöglichkeiten ein, sortiert nach der Kategorie, in der sie zu finden sind:
  1. General
    • Hier gibt es in verschiedenen Unterkategorien Diagnoseinformationen zum System im Allgemeinen, Prozessor, Arbeitsspeicher und einigen weiteren Dingen. Im Vergleich zu meinem Aero kann ich hier etwa den installierten RAM je Speicherbank sehen (insgesamt 4 verfügbar), im Gegensatz zu einer einfachen "Insgesamt"-Angabe.
    • Weiterhin von Interesse ist hier die Option UEFI Boot Path Security, die standardmäßig auf Always, Except Internal HDD steht. Dies bedeutet, dass von internen Laufwerken zunächst mal ohne Passworteingabe gebootet werden kann, beim Boot von einer externen SSD aber etwa das Admin-Passwort des BIOS eingegeben werden muss 8). Damit passt das zunächst einmal genau zu meinem Nutzungszenario, bei dem Boots von einem externen Laufwerk nur in absoluten Ausnahmefällen durchgeführt werden sollen.
  2. System Configuration
    • Die NVME-Laufwerke unterstützen selbstverständlich RAID, wenn es denn benötigt wird. In der maximalen Ausbaustufe (alle 3 Slots belegt), womit theoretisch auch Raid5 möglich sein sollte 9).
    • Für Thunderbolt gibt es verschiedene Einstellmöglichkeiten, ich vermute, dass bei angeschlossener Dockingstation und richtigem Parameter auch ein Netzwerk-Boot möglich ist (ich teste das nicht). Jedenfalls ist die standardmäßige Sicherheitsstufe in meinem Fall genau das, was ich mir vorstelle. Beim ersten Verbinden einer neuen Station benötigt das System die entsprechende Autorisierung durch einen Administrator (im entsprechenden OS). Danach geht die Verbindung dann automatisch.
    • Davon abgesehen lassen sich hier auch einige Geräte ausschalten, wenn gewünscht - Mikrofon, Lautsprecher, Kamera, SD-Kartenleser (dafür auch einige weitergehende Optionen) 10).
  3. Video
    • Hier kann die Option zum Deaktivieren der dedizierten GPU von Interesse sein. Insbesondere vielleicht, wenn man zu einer Konfiguration mit NVIDIA-GPU gegriffen hat, dennoch Debian nutzen und unterwegs gleichzeitig eine gute Akkulaufzeit haben möchte. In diesem Fall würde ich dann die entsprechende Option nutzen.
    • Weiterhin gibt es die Möglichkeit, die integrierten Display-Port sowie HDMI-Anschlüsse des Systems über die dedizierte GPU ansteuern zu lassen statt die Intel iGPU. Dies sollte zum Beispiel bei der Unterstützung von GSYNC/FreeSync an externen Bildschirmen helfen.
  4. Security
    • Relativ viele Einstellmöglichkeiten, von denen einige leider recht obskur beschrieben sind. Abseits der "normalen" zum Definieren von getrennten Admin/Systempasswörtern wird man das meiste wohl selten benötigen (TPM ist hier auch zu finden, für Linux aktuell halt relativ uninteressant).
  5. Secure Boot
    • In sofern nur von Interesse, da ich es deaktivieren will. In einem Multiboot-System ist das kaum zu handeln meiner Meinung nach (selbst wenn man Windows/Mac außen vor lässt) und der sicherheitstechnische Einfluss hält sich meist auch in Grenzen.
  6. Performance
    • Man könnte Hyperthreading hier systemweit deaktivieren. Werde ich allerdings individuell handhaben (später dazu mehr).
  7. Power Management
    • Etwas das ich sehr begrüße, ist die Option Wireless Radio Control. Damit ist es möglich, WLAN/WWAN automatisch zu deaktivieren, wenn man mit einem kabelgebunden Netzwerk verbunden ist. Das ist bei mir aufgrund meiner vielfältigen Tätigkeiten sehr wechselhaft.
    • Davon abgesehen sind die Konfigurationsoptionen zur Steuerung des Ladeverhaltens natürlich sehr interessant, vor allem da man hier auch Ladeschwellen einstellen kann.
    • Weiterhin kann man hier auch die Nutzung von Stand-by in Betriebssystemen deaktivieren und es gibt einige Einstellungen zum Ladeverhalten.
  8. POST Behavior
    • Verschiedene kleinere Optionen, von Interesse (da in Kürze betrachtet) ist hier vielleicht noch die Option zur Anzeige von Warnungen bei Verwendung bestimmter Netzteile.
  9. Wireless
    • Die Gruppe beschreibt schon relativ genau, was man hier erwarten kann. Es lassen sich WWAN/GPS, WLAN und Bluetooth einzeln steuern. Außerdem kann man auch konfigurieren, was über den entsprechenden FN-Key gesteuert wird.
  10. Maintenance
    • Unter anderem kann hier ein Downgrade des BIOS bzw. das Zurücksetzen desselbigen durchgeführt werden.
    • Von besonderem Interesse ist vielleicht noch die Funktion Data Wipe, die wohl ein sicheres Löschen aller internen Laufwerke in Anlehnung an NIST 800-88 ermöglicht - siehe auch Dells offizielle Doku dazu 11).
Soweit, so gut. Insgesamt muss ich sagen, dass ich doch sehr angetan bin vom Umfang und den einzelnen Einstellmöglichkeiten, die mir Dell hier einräumt - selbst in Anbetracht, dass es sich um ein ernsthaftes Business-Gerät handelt.




Thunderbolt 3-Praxistest mit WD19TB

Anmerkung: Leider keine Bilder an dieser Stelle. Einfach vergessen beim Auspacken bzw. Aufstellen welche zu machen. Eventuell kommt an späterer Stelle aber ja noch eine "Schreibtisch"-Tour. :cool_alt:

Im letzten Teil dieses laaangen Eintrags will ich dann nochmal ein kurzes einführendes Wort zu Thunderbolt 3 mit der "Original"-Dockingstation WD19TB verlieren. Und um es zusammenzufassen: ziemlich unspektakulär, was gut ist!

Zunächst einmal sei anzumerken, dass ich bewusst eben diese Dockingstation bestellt habe. Es gibt ja noch die WD19DC, die sogar das Precision über beiden TB3-Anschlüsse laden können soll und so dann das Netzteil ersetzt. Ich versuche aber von solchen "Sonderlösungen" bewusst die Finger zu lassen. Davon abgesehen würde sich bei dieser Variante ein Problem mit der künftig geplanten eGPU ergeben (denn dann gibts nur eines von beiden zeitgleich). Billig ist der Spaß übrigens in jedem Fall nicht, auch wenn man bei üblichen Händlern weit von der UVP von 390€ entfernt ist (aktuell ab ca. 240€ zu haben).

Beim Auspacken fällt zunächst einmal auf, dass das mitgelieferte Netzteil weniger "schön" aussieht. Sowohl das Netzteil der Dockingstation als auch das "reguläre" des Precision besitzen eine Nennleistung von 180W, wobei ersteres dann doch etwas größer und schwerer ist. Das Thunderbolt-Verbindungskabel ist (wie bei fast allen) Geräten verhältnismäßig kurz und starr, was aber auch systembedingt ist.

Bevor ich mich daran gemacht habe, irgendwas an die Dockingstation anzuschließen, teste ich natürlich erst einmal die grundsätzliche Verbindung. Also ganz einfach mit angesteckter Dockingstation das Precision gestartet (reguläres Netzteil nicht angeschlossen). Im ersten Moment etwas verdutzt, als plötzlich noch vor dem DELL-Logo eine Warnmeldung angezeigt wird. Bei genauerer Betrachtung will die mich aber nur darauf hinweisen, dass ich eine Stromversorgung nutze, bei der unter Umständen nicht die volle Leistung zur Verfügung gestellt werden kann, der Akku sich bei Last also entladen könnte. Also bestätigt und weiter gehts.

Auf dem Ubuntu-Desktop zunächst mal gewundert, dass sonst irgendwie keine Info über die angeschlossene Dockingstation kommt. Also kurz mal in den Einstellungen nach Thunderbolt geschaut und bemerkt, dass hier erst mit Authentifizierung die Verbindung gestattet werden muss (wir hatten das ja weiter oben beim BIOS). Gesagt, getan. Danach funktioniert das Laden jedenfalls bereits wunderbar.

Nachdem mir bereits bekannt ist, dass Displays in Verbindung mit Dockingstationen und wildem An- und Abstecken Probleme bereiten kann, fahre ich zunächst einmal wieder herunter. Dann gehts ans Anschließen: meine beiden externen Monitore (1x HDMI, 1x DP), 2 (aktive) USB-Hubs, Netzwerk, Lautsprecher. Im Grunde also schon relativ gut belegt. Dann anschließend wieder angemacht und - oh Wunder - beide externen Anzeigen erwachen ohne Murren zum Leben. Auch meine (über einen der Hubs) angeschlossene Corsair K70 und meine Gigabyte Uranium Aivia funktionieren sofort.

Weiter gehts mit weiteren Tests von USB-Geräten an den Hubs - keine Probleme. Auch die Front-USB(C)-Anschlüsse werden natürlich getestet. Das Netzwerk funktioniert wie erwartet. Insgesamt gibt es aktuell eigentlich nur zwei Sachen, die ich nicht explizit testen kann:
  • Den TB3-Anschluss auf der Rückseite der Dockingstation kann ich nicht mit entsprechender Hardware testen. Theoretisch sollte hier DaisyChaining möglich sein.
  • Auch den Multifunktions-USB-C-Anschluss an der Rückseite kann ich mangels entsprechendem Monitor nicht testen.
Insgesamt bin ich höchst zufrieden mit der grundlegenden Funktion.



Ein erstes Fazit

Wie zuvor angekündigt, will ich an dieser Stelle nochmal ein kurzes, erstes Fazit zu meinem neuen Arbeitstier ziehen:
  • Der Bestellvorgang bei Dell war nicht sonderlich schwer, auch wenn man sich den beschriebenen Implikationen bei Bestellung über den Geschäftskundenshop bewusst sein muss!
  • Die Lieferung ging zügig und in der Tat auch schneller als auf der Website angegeben.
  • Der Lieferumfang ist zwar nicht berauschend, allerdings muss man sich vor Augen führen, dass das in den meisten IT-Abteilungen von Unternehmen ja auch gar nicht erwünscht ist.
  • Die Verarbeitungsqualität ist so, wie man sie eigentlich von einem Gerät dieser Klasse erwarten würde. Größe und Gewicht können zwar nicht mit aktuellen "schlanken" Gaming-Maschinen oder den MacBooks mithalten, das ist für mich aber auch gar nicht (so) wichtig.
  • Die Ubuntu-Installation von Dell funktioniert OOTB ohne nennenswerte Probleme. Ich persönlich hatte zwar dennoch einige Sachen zu mäkeln, aber irgendwas ist ja immer. :D
  • Das BIOS kann einen schon fast erschlagen mit der Fülle an Konfigurationsoptionen, aber es ist wie mit allem: Auf Standard stehen lassen, außer man weiß was man tut.
Soviel Text muss auch mal ein Ende finden und damit belasse ich es dann auch für heute. Im nächsten Eintrag wird es dann wieder was "hartes" zu sehen geben - ich will nämlich aufrüsten :evillol:



Fußnoten

  1. Neofetch habe ich nur im Rahmen dieses Tests installiert, das Paket taucht dementsprechend nicht in den Paketlisten auf.
  2. Nicht darauf festnageln, aber mit der Kombi aus "Titan Ridge + 2TB3-Anschlüssen" sollte man relativ sich relativ sicher sein, dass TB3 mit 4 Pcie-Lanes angebunden ist (somit max. 40GBit/s). Im Zweifelsfall sind auf egpu.io (Englisch) mehr Infos zu bekommen.
  3. Es sollte allerdings erwähnt sein, dass ich persönlich nicht viel davon halte, im Privatkundenmarkt genutzte biometrische Eigenschaften zur (alleinigen!) Authentifizierung zu nutzen. Dazu zählt das Gesicht wie auch der Fingerabdruck.
  4. Nicht falsch verstehen - ich bin grundsätzlich Canonical sehr dankbar für die Arbeit, die sie für Linux im Allgemeinen und mit Ubuntu im Speziellen leisten. Allerdings ist die Philosophie hinter deren Snaps nur ein weiterer Grund, warum ich persönlich(!) davon abgekommen bin, Ubuntu zu nutzen. Sie sind auf Canonicals Server angewiesen, somit in gewissem Maße proprietär (weitere Infos im Guide von @Old Knitterhemd hier im Forum). Zudem ist Canonical in neueren Ubuntu-Releases dazu übergegangen, Snaps "durch die Hintertür" zu installieren. Sollte man etwa Chromium in 19.10 über apt installieren wollen, bekommt man automatisch das Snap - nicht wirklich transparent, wie ich finde. Mehr Infos dazu im offiziellen Blog (Englisch).
  5. Man mag sich fragen: Was meine ich mit "Host-Level". Nun, wie in meinem Eingangspost beschrieben, setze ich stark auf Virtualisierung. "Host-Systeme" sind dabei also solche, in die ich direkt booten kann. Einige von diesen kategorisiere ich als "kritisch" - typischerweise solche, die ich für professionelle Tätigkeiten nutze (z.B. Arbeit, Dozententätigkeit). Auf diesen läuft in der Regel ein minimalistischer Host. Alle "tatsächlichen" Arbeiten werden - soweit möglich - in virtuellen Maschinen erledigt, die dann individuell geschützt sind.
  6. Was ist ein "privates Repository"? Nun, an dieser Stelle sei am besten auf das offizielle Debian-Repository verwiesen. Dort ist auch beschrieben, wie sich Dell mit Nutzung der Option "trusted" einiges an Arbeit spart.
  7. Man kann das BIOS während des Dell-Splash-Screens auch direkt mit F2 erreichen.
  8. Nicht zu verwechseln mit einem Passwort für Festplattenverschlüsselung mit LUKS oder ähnlichem. Dies kann immer noch separat davon geschehen.
  9. Allerdings ist meiner Meinung nach der Sinn für RAID in einem Notebook nur sehr eingeschränkt gegeben. Und wie wir alle ja wissen: RAID ersetzt kein Backup...
  10. Mir ist bewusst, dass dies keine Hardware-Schalter sind. Dennoch ist es definitiv besser, diese Einstellungen über das BIOS vorzunehmen, als über das jeweilige OS. Wer dennoch nach etwas "besserem" sucht, muss wohl auf Geräte von Purism ausweichen - mit entsprechenden Abstrichen bei der Hardware.
  11. Ich persönlich nutze (zumindest hier) dennoch ein "normales" Live-System mit entsprechenden Terminal-Befehlen. Zum einen war es mir nicht möglich, im Detail herauszufinden, was exakt Dells "Data Wipe" denn nun macht. Zum anderen reicht mir auch ein einmaliges Überschreiben. Die Laufwerke meines Gigabytes bleiben ja grundsätzlich "im Haus".
 

Anhänge

Zuletzt bearbeitet:

BlackPanther87

Cadet 3rd Year
Ersteller dieses Themas
Dabei seit
Dez. 2017
Beiträge
44
#4 - Zeit für ein kleines Upgrade

21.02.2020

Zurück zum Startpost

Übersicht für diesen Eintrag

Wie in vorherigen Einträgen bereits vermerkt, ist meine initiale Hardware-Konfiguration nicht gerade das, was man als "ausgewogen" bezeichnen würde. Eine SSD mit 256GB und 8GB Arbeitsspeicher passen halt nicht wirklich zur 8-Kern-CPU. Aber wie zuvor auch beschrieben, waren mir die RAM-Aufpreise dann doch etwas zu heftig und die SSDs sind von meinem Aero noch vorhanden und auch kaum genutzt. Also, ans Werk.

Arbeitsspeicher
SSD-Transplantation
SSDs säubern
Fußnoten



Arbeitsspeicher

Natürlich halte ich mich bei meinem Umbauten streng an Dells Service-Handbuch. Nach dem Entfernen des SD-Karten-Dummies (woah...) gehts also an das Entfernen der Bodenplatte.
IMG_6013.JPG


Die erste positive Überraschung: Kreuzschrauben (und davon auch nur 7). Ok, Torx wären mir dann doch lieber, aber da kann ich mit leben (wir kommen aber nochmal dazu...). Zweite positive Überraschung: Laut Service Handbuch sollten NUR Kreuzschrauben verbaut sein, also kein Gefrickel mit einer Menge unterschiedlicher Bits. Und weils so schön ist, Überraschung Nummer drei: Unverlierbare Schrauben, diese verbleiben also bei der Demontage in der Rückseite! Das Entfernen der Rückseite nachdem die Schrauben alle gelöst sind, gestaltet sich dann (noch) angenehm. Keine zu starke Kraft notwendig, bei der man das Gefühl kommt, dass gleich irgendwas abreißen könnte. Nach dem Öffnen gibt sich dann jedenfalls der Blick auf das Innere frei.
IMG_6014.JPG


Wie man sieht, ist das Innere dann immer noch recht "verbaut". Das ist allerdings ja nicht unbedingt schlecht, an die wichtigen Teile kommt man so jedenfalls heran. Die Lüfter wären dann vielleicht nochmal ein Punkt, den ich mir im Service Handbuch mal genauer anschauen müsste.
Kommen wir damit kurz zum Arbeitsspeicher, den ich verbauen werde. Um nicht in Kompatibilätsprobleme zu rutschen, habe ich über einen Anbieter bestellt, der mir Funktion "garantiert". Den Aufpreis dafür war es mir dann doch wert. Vermutlich werden hier "einfache" Samsung-Module geliefert, aber wie bereits geschrieben, nehme ich das so hin.
IMG_6015.JPG


Die Montage der ersten zwei Module gestaltet sich jedenfalls recht unproblematisch (ja, ich habe die Batterie wie im Handbuch beschrieben, ausgesteckt).
IMG_6016.JPG


Lediglich das obere ist etwas schwer zu erreichen, hier muss leider etwas mehr mit den Fingern auf das flache Modul gelangt werden (aber dafür gibt's ja ESD-Armbänder und Baumwollkleidung)1).
IMG_6017.JPG


Um die Funktion der ersten beiden Module zu verifizieren (nach den beiden vorderen festzustellen, dass ich nicht starten kann, wäre sehr unschön...), boote ich temporär schon mal ins BIOS. Wie man sieht, hat das Dell auch mit Mischbestückung kein Problem, das vordere 8GB-Modul ist noch gesetzt.
IMG_6019.JPG


Um auch die Module auf der Vorderseite des Systems (unter dem Keyboard) zu tauschen, muss ich die Batterie ausbauen. Für diejenigen, die es interessiert, ich habe die "LongLife"-Variante verbaut. Aus diesem Grund sind für die Batterieeinstellungen auch keine wirklichen BIOS-Einstellungen verfügbar und ExpressCharging ist nicht möglich (wäre mir ohnehin nicht wichtig).
IMG_6024.JPG

IMG_6020.JPG



Danach müssen die Keyboard-Kabel gelöst werden (leider keine Bilder davon, sorry). Auf der Vorderseite muss nun das "Gitter" über dem Keyboard und die Tastatur selbst entfernt werden. Bei den Ribbon-Kabeln merkt man bereits, dass die Montage ein Gefriemel wird. Ist das erledigt, hat man jedenfalls Blick auf die Abdeckung, unter der die RAM-Slots sitzen.
IMG_6029.JPG


Auch hier leider kein Bild mit geöffneter Klappe, sorry. Jedenfalls war die Montage der Module selbst problemlos. Das Durchführen der Ribbon-Kabel nach innen aber (wie erwartet) ein ziemliches Gefrickel. Tastatur und Gitter jedenfalls wieder montiert, umgedreht. Gemerkt, dass eines der Kabel oberhalb einer "Dichtung" vorbeigeführt ist - alles wieder retour :grr:. Nachdem dann alles richtig sitzt, wieder angesteckt und Batterie montiert. Getestet wurde nochmal kurz im BIOS, sieht soweit gut aus. Weiter ging es dann mit dem Tausch der SSDs.




SSD-Transplantation

Zunächst einmal müssen die SSDs natürlich aus meinem "alten" Aero entfernt werden. Dazu nur mal zur Ansicht die 13 Schrauben, die ich dafür entfernen muss. Dazu noch in zwei unterschiedlichen Längen und nicht entsprechend gegen Verlieren gesichert.

IMG_6031.JPG


Zurück zum Dell. Batterie wieder vorbildlich abgesteckt. Dann zum Entfernen der Kühlkörper für die SSDs. Keine Ahnung, mit welchen Schrauben (Festigkeitsklasse) die befestigt sind, aber die scheinen schon SEHR grenzwertig fest angezogen zu sein. Vor allem vollkommen inkonsequent zu den Schrauben der Bodenplatte (und faktisch allen anderen, die ich beim Arbeitsspeicher lösen musste). Sehr vorsichtig ging es dann schon, aber alles andere als schön. :kotz:
Nach dem Ausbau der originalen SSD zeigt sich jedenfalls, dass dies eine (relativ einfache) von Toshiba zu sein scheint. Kein Problem, hatte ja absichtlich die billigste konfiguriert.
IMG_6036.JPG


Die Kühlpads der bisher unbenutzten M2-Slots sind mit einer entsprechenden Schutzfolie und Abstandshaltern versehen.
IMG_6039.JPG


Kurze Ansicht noch mit beiden montierten SSDs und der verbundenen Batterie.
IMG_6041.JPG


Na, dann starten wir das System mal mit den neuen Teilen. Dazu nutze ich dann doch einfach mal einen Kubuntu-Live-USB (18.04.3), den ich hier noch herumliegen habe.
Zunächst einmal der Arbeitsspeicher. Sieht ja erstmal alles toll aus.
Screenshot_20200215_191019.png

Und zum zweiten die SSDs. Auch das scheint zu passen 3).
Screenshot_20200215_191257.png





SSDs säubern

Bevor ich mich den ersten Installationsschritten zuwenden kann, ist noch eine Sache zu erledigen. Nachdem ich doch einige Dinge zu erledigen habe, die ich als "sicherheitskritisch" (im IT-Sinne, nicht Maschinensicherheit) betrachte, will ich bei diesem System gerne auf Vollverschlüsselung setzen (Windows 10 wird anders gehandhabt, ich gehe später nochmal darauf ein). Da aber meine Laufwerke zuvor nur teilverschlüsselt (partitionsweise) waren, reicht mir das Überschreiben mit Nullen nicht ganz aus. Daher nutze ich folgenden Befehl:

Code:
$ sudo shred -v -n1 --random-source=/dev/urandom /dev/nvme0n1
Überschreibe den kompletten Datenträger nvme0n1 mit den folgenden Optionen:
  • -v: Zeige einige Informationen zum Fortschritt an. Hilfreich, da der Prozess wie beschrieben ja doch einige Zeit dauert.
  • -n1: Überschreibe nur einmal. Standardmäßig nutzt shred 3 Durchläufe. Da in meinem Fall die Datenträger aber ja vorher bereits in meinem Besitz waren (und ich nicht annehme, dass sie kompromittiert sind), sollte einmal reichen.
  • --random-source=/dev/urandom: Überschreibe mit Pseudo-Zufallsdaten anstatt Nullen. Da auf meinen Datenträgern vorher keine Vollverschlüsselung ausgeführt war, kann das unter Umständen die Entropie der Verschlüsselung schwächen. Dies stellt einen guten Kompromiss aus noch akzeptabler Geschwindigkeit und besserer Verschlüsselung für mich da 2).
  • /dev/nvme0n1: Überschreibe den kompletten Datenträger, also nicht nur eine Partition.

Dieser Vorgang dauert selbstverständlich eine längere Zeit - trotz PCIe-SSDs. Am Ende lande ich irgendwo bei 800MB/s, was etwa eine dreiviertle Stunde je Laufwerk bedeutet. In Anbetracht der Dauerbelastung (und der Verlangsamung, da ich doch Urandom nutze) ok.




Fußnoten

  1. Wer bei diesem Bild etwas genauer hinschaut, wird erkennen, dass beim WWAN-Steckplatz keine Antennen verlegt sind. Mobiles Internet kann hier also auch nicht nachgerüstet werden. Das liegt am Alu-Displaydeckel - während der Bestellung wird auch entsprechend darauf hingewiesen und WWAN ist gar nicht erst konfigurierbar.
  2. Für Leute, die sich etwas genauer informieren wollen, sei die Wikipedia-Seite von /dev/random als Einstieg verlinkt. Für Leute, die's wirklich wissen wollen (und warum urandom gar nicht soo schlecht ist) sei dieser Beitrag (englisch) gedacht.
  3. Leute, die aufpassen, werden hier vielleicht auch wieder eine Sache bemerken. Ich meine nicht die beiden USB-Laufwerke (eins davon mein Live-USB, das andere für die Screenshots). Sondern die Listung einer Volume Group, was natürlich LVM bedeutet. Das werde ich definitiv wieder nutzen, dazu mehr in einem der kommenden Einträge (vermutlich schon dem nächsten).

 
Zuletzt bearbeitet:

Edward N.

Ensign
Dabei seit
Feb. 2020
Beiträge
219
Danke für die ausführliche Beschreibung, ich lese deine Beiträge hier sehr gerne.

Wann hast du vor Debian zu installieren? Laufen deine Programme ohne Probleme unter einem aktuellen Debian (10.3)?
 

BlackPanther87

Cadet 3rd Year
Ersteller dieses Themas
Dabei seit
Dez. 2017
Beiträge
44
Danke zunächst einmal für die Rückmeldung!
Debian wird im übernächsten Eintrag installiert werden. Der nächste wird eigentlich nur eine etwas detailliertere Aufstellung meines geplanten Setups sein.

Laufen deine Programme ohne Probleme unter einem aktuellen Debian (10.3)?
Kommt drauf an, auf welches Programm wir uns beziehen. Die Sachen für meine privaten Office-Tätigkeiten? Sicher, LibreOffice ist absolut ausreichend dafür (da vermisse ich eigentlich seit 2 Jahren schon nichts mehr). Quellcodeverwaltung für meine privaten Sachen? Sicher, kein Problem.

Komplett konträr siehts da bei meinen Arbeitssachen aus, um mal aus dem OP zu zitieren:
Eplan P8, TIA Portal (auch S7 Classic), Studio5000 (Rockwell), TwinCat (Beckhoff), CATIA
Ergänzt dazu sei natürlich noch MS Office (TIA Portal benötigt das z.B. faktisch, wenn man Antriebe sicherheitstechnisch abnehmen und das auch dokumentieren will). Zudem hab ich da vieles mit Schnittstellen zu anderen Systemen, halbautomatischer Protokollerstellung usw. am Laufen.

Das kann man leider unter Linux alles ziemlich vergessen. Vor allem: Wir reden hier teilweise von Software, mit der Dinge geprüft werden, die sehr wohl Einfluss auf die Sicherheit an Industriemaschinen und -anlagen haben können. Dabei ein OS einzusetzen, das gemäß jeweiligem Hersteller nicht offiziell freigegeben ist (TIA Portal hat vor einiger Zeit - verständlicherweise - Windows 7 gestrichen), wäre eine potenziell sehr schlechte Idee. Selbst wenn das nur theoretische Hintergründe sind, den Schuh ziehe ich mir nicht an (Haftung!). Selbst Virtualisierung ist da schon teilweise eine Grauzone - wird nur geduldet, da sehr wohl bekannt ist, dass sich versch. Hersteller auf dem selben Host beißen können.

Worauf läufts dann hinaus? Wie hier und da schonmal angedeutet: mir ist relativ egal, was unter Debian stable läuft und was nicht. Solange die notwendigen Treiber grundsätzlich verfügbar sind. Auf dem Host läuft (mit Ausnahme des Gaming-Systems und vllt. des CAD) nur ein "Skelett", das mir einen Virtualisierungs-Provider bereitstellt. Über diesen laufen dann von mir benötigte VMs, mit dem OS, das ich eben benötige (kann Debian stable, unstable, Arch oder auch Windows sein).

PS: Zur Quellcodeverwaltung nur als Anmerkung - natürlich nutze ich hier GIT. Und selbstverständlich sind auch meine Tagebuch-Einträge in einem Repository lokal hinterlegt. GIT werden wir dann auch für das eigentliche System noch öfters sehen ;)
 
Top