Skip to main content
✨ dimajix labs - Hands-on Insights and Implementation 🔬
Dimajix Labs
Menu
  • Über dimajix labs
  • Unternehmen
    Close Search
    Linux PC with Tux Penguin
    Paketversionen in Fedora mit dnf sperren – am Beispiel von Kernel und AMD-Firmware HowtoLinux

    Paketversionen in Fedora mit dnf sperren – am Beispiel von Kernel und AMD-Firmware

    Paketversionen unter Fedora sperren, um Probleme durch automatische Updates zu vermeiden. Wir beleuchten dnf versionlock…
    Kaya Kupferschmidt
    Kaya Kupferschmidt7. Februar 2026
    Linux desktop server
    Ollama und llama.cpp in Docker mit AMD Strix Halo, ROCm und Fedora 43 DockerHowtoLinux

    Ollama und llama.cpp in Docker mit AMD Strix Halo, ROCm und Fedora 43

    In diesem Artikel wird beschrieben, wie man llama.cpp und Ollama unter Fedora 43 auf einem…
    Kaya Kupferschmidt
    Kaya Kupferschmidt4. Februar 2026
    Linux desktop server with NVIDIA Graphics card
    NVIDIA Treiber auf Debian für LXC Container installieren HowtoLinux

    NVIDIA Treiber auf Debian für LXC Container installieren

    Zusammenfassung Dieser Artikel beschreibt den kompletten Prozess zur Installation der proprietären NVIDIA-Treiber auf einem Debian-Server…
    Kaya Kupferschmidt
    Kaya Kupferschmidt31. Januar 2026
    Bild von linux server with many clients
    NFS Gruppenlimit serverseitig umgehen HowtoLinux

    NFS Gruppenlimit serverseitig umgehen

    NFS hat eine Beschränkung auf 16 Gruppen, die allerdings durch eine Server-Einstellungen umgangen werden kann.
    Kaya Kupferschmidt
    Kaya Kupferschmidt31. Januar 2026
    CPU running Docker
    Bessere Performance mit Docker CPU Pinning DockerHowto

    Bessere Performance mit Docker CPU Pinning

    In diesem Artikel wird erklärt, wie man mit der cpuset-Option in Docker Containern CPU-Ressourcen gezielt…
    Kaya Kupferschmidt
    Kaya Kupferschmidt31. Januar 2026
    Bild von AI MiniPC Server 01
    Docker NFS Volumes: Praktische Anwendung mit Ollama DockerHowtoOllama

    Docker NFS Volumes: Praktische Anwendung mit Ollama

    Dieser Artikel zeigt, wie man Docker-Container mit NFS-Volumes für persistente Datenspeicherung konfiguriert. Als Beispiel verwenden…
    Kaya Kupferschmidt
    Kaya Kupferschmidt31. Januar 2026
    Bild von AI MiniPC Server 03
    Ollama und OpenWebUI auf NVIDIA DGX Spark mit Docker DockerHowtoOllamaSoftware

    Ollama und OpenWebUI auf NVIDIA DGX Spark mit Docker

    Eine umfassende Anleitung zur lokalen KI-Entwicklung mit Docker Compose, Ollama und Open WebUI auf NVIDIA…
    Kaya Kupferschmidt
    Kaya Kupferschmidt10. Januar 2026
    Many AI PCs connected to central server
    KI Modelle mit NFS verteilen und cachen DockerHowtoOllama

    KI Modelle mit NFS verteilen und cachen

    Ollama Modelle zentral auf einem NFS Server bereitstellen und mit cachefilesd lokal cachen.
    Kaya Kupferschmidt
    Kaya Kupferschmidt8. Januar 2026
    Fotografie der Vorderseite einer Lenovo ThinkStation PGX
    NVIDIA DGX Spark – Ein Mini Supercomputer für KI HardwareReview

    NVIDIA DGX Spark – Ein Mini Supercomputer für KI

    Mein erster positiver Eindruck von NVIDIAS KI Supercomputer für den Schreibtisch.
    Kaya Kupferschmidt
    Kaya Kupferschmidt1. Januar 2026

    © 2026 Dimajix Labs. Design by rocket.works.   Impressum | Datenschutz

    • linkedin
    • github
    • medium
    • email
    Close Menu
    ✨ dimajix labs - Hands-on Insights and Implementation 🔬
    • Über dimajix labs
    • Unternehmen