Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsLinux-News der Woche: AMD-Treiber mit neuen Features, KDE mit Tintenfüllstandsanzeige
AMD Ryzen AI MAX 395 mit 8060S und 128GB LPDDR5 bei 9000MT/s QC oder auf NVIDIA DGX Spark warten und auf guten Linux Support hoffen. Problem bei den Grafikkarten ist halt das die viel zu wenig RAM haben. Was wichtig ist auf welchem Stack laufen den die Modelle und ist der Stack mit ROCm oder Cuda kompatibel, wenn er es nicht ist wird es mit dem Hersteller nix.
Ja das geht schon länger, aber ntfs-3g beanspruchte bei mir die CPU deutlich mehr als die nativen Dateisysteme ohne fuse. Außerdem unterscheiden sich die Steam Installationen wohl leicht, bei mir wurden immer noch ein paar kleine Dinge nachgeladen. Das klappte aber immer automatisch. Ich bin aber schon länger von Windows weg, meine Erfahrungen sind daher nicht ganz aktuell.
Je nachdem wie der Zugang zu Outlook erfolgt, kamm auch Thunderbird eine Alternative sein.
Hier wird fleissig daran gearbeitet Exchange Server zu unterstützen. Ist aber in TB141 erst in der Testphase
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Da in Fedora eigentlich Evolution der default Mail-Client ist und auch die "Unternehmensanmeldung" oder Kerberos(LDAP) in den Online-Konten nach der Installation gleich da ist, ist das System eigentlich exakt auf so Windows-Firmenumgebungen ausgerichtet.
Es gibt halt verschiedene Möglichkeiten (IMAP/Graph/OWA/EWS/EAS/etc) und nicht jeder Exchange Server hat jedes Protokoll freigeschaltet, ergo kann ich dir nur sagen: Kann sein, muss aber nicht. Muss man ausprobieren.
Abgesehen davon sind halt erweiterte Dinge wie Sekretärsfunktion und so noch nicht drin, sondern eher pures Lesen und Schreiben.
Aber immerhin das. Manche Postfächer sind auch mit Exquilla&OWL Addin zusätzlich erreichbar. Aber ja: voller Ersatz ist es nicht.
Office kann man ja separat ersetzen. OneDrive gibt es nen Linux Client, wie es da mit Anmeldung für Firmenkunden aussieht,hab ich aber noch nicht probiert da bei uns da eh nix liegt.
AMD Ryzen AI MAX 395 mit 8060S und 128GB LPDDR5 bei 9000MT/s QC oder auf NVIDIA DGX Spark warten und auf guten Linux Support hoffen. Problem bei den Grafikkarten ist halt das die viel zu wenig RAM haben. Was wichtig ist auf welchem Stack laufen den die Modelle und ist der Stack mit ROCm oder Cuda kompatibel, wenn er es nicht ist wird es mit dem Hersteller nix
(Performance: Vorschlag vs Grafikkarte) Interessante Idee, eine Grafikkarte mit shared Memory zu verwenden und dann den RAM aufzumotzen. Ich weiß aber nicht, ob das so funktionieren würde performancetechnisch, weil der RAM ja dann dennoch eine langsame Geschwindigkeit hat im Vergleich zum vRAM (auch wenn das von dir beschriebene vllt bis zu doppelt so schnell wie übliche RAM-Geschwindigkeiten ist, ist es von der Größe immer noch ungefähr RAM und nicht vRAM). So 500 (5060ti16gb mit gddr7 bei 128) vs 144 (die von dir genannte Konfig.) wäre das auch bei der Konfiguration immer noch. Und wäre auch Lapi-CPU, aber spielt jetzt nicht die Rolle.
(Stacks) Stacks halt das, was für LLMs und Bildgenerierung und Sprachgenerierung und Sprachtranskribtion so relevant ist. Bei LLM wäre das pytorch, llama.cpp, TGA/HF Transformers, vLLM, ctranslate2, (falls Nvidia noch tensorrt aber nicht so wichtig). Wobei llama.cpp wegen der GGUF Quantisierungen (nen IQ4 X von unsloth oder so) ganz interessant ist (kenne mich bei den anderen nciht so aus, gibt da ja auch int4, awq oder irgendwas, weiß nicht wie das im Vergleich abschneidet; geringer [v]RAM Bedarf ist ja auch interessant).
Was wichtig ist auf welchem Stack laufen den die Modelle und ist der Stack mit ROCm oder Cuda kompatibel, wenn er es nicht ist wird es mit dem Hersteller nix.
Wobei man das auch teilweise umgehen kann. koboldcpp funktioniert mit Vulkan z.B. super gut auf dem AI MAX 395 mit 70B auf der GPU. llama.cpp kann wohl auch Vulkan.
Und torch funktioniert glücklicherweise mit rocm sehr gut.
Welche Grafikkarte das ist eine APU, die von AMD genau zu diesem Zweck beworben wird. da bekommst du auch nicht mehr RAM rein da die 9000MT/s die du trotz 256bit Interface brauchst um auf über 2 Tbit/s Speicherbandbreite zu kommen laut AMD nur mit verlöten erreichbar sind.
@floTTes die APU hat 2 TBit/s, die RTX 6000 Pro hat 1,7 TByte/s, also 7x schneller. Wäre auch traurig wenn 512bit mit GDDR7 weniger könnte als LPDDR5 mit 256bit.
Hier mit Bazzite Linux 42 Stable (Kernel: 6.15.6 - Mesa 25.x? und ROCm 6.3.1)... Stable Diffusion z.B. mit den experimentiellen pytorch 2.9 + rocm 6.4 (nicht 6.4.1 und 6.4.2) im venv lief es gut mit Radeon RX 9070, jedoch nicht ganz einwandfrei. Möglicherweise Speicherleck und ein paar andere Bugs. Die Leute bei ROCm und Pytorch haben wirklich viel zu tun.