LLMs lokal auf macOS ausführen: Ein skeptischer Leitfaden

2025-09-08

Dieser Blogbeitrag beschreibt die Erfahrung des Autors beim lokalen Ausführen großer Sprachmodelle (LLMs) auf seinem macOS-Rechner. Obwohl er Skepsis gegenüber dem Hype um LLMs äußert, bietet der Autor eine praktische Anleitung zur Installation und Verwendung von Tools wie llama.cpp und LM Studio. Die Anleitung umfasst die Auswahl geeigneter Modelle anhand von Faktoren wie Größe, Laufzeit, Quantisierung und Inferenzfähigkeiten. Der Autor betont die Vorteile hinsichtlich des Datenschutzes und der geringeren Abhängigkeit von KI-Unternehmen, die mit der lokalen Bereitstellung von LLMs verbunden sind, und bietet Tipps und Tricks wie die Verwendung von MCPs zur Erweiterung der Funktionalität und die Verwaltung des Kontextfensters, um Informationsverluste zu vermeiden. Der Beitrag behandelt auch ethische Bedenken hinsichtlich des aktuellen Zustands der KI-Industrie.

Mehr lesen
Entwicklung

Tailscale: Eine überraschend nützliche VPN-Alternative

2025-03-05

Der Autor teilt seine Erfahrungen mit Tailscale, einer Alternative zu VPNs. Frustriert durch CGNAT, das das Port-Forwarding für den Fernzugriff auf einen Raspberry Pi blockierte, wandte er sich an Tailscale. Es löste das Problem erfolgreich und erstellte ein virtuelles privates Netzwerk, das einen einfachen Zugriff auf Geräte über einfache Domainnamen ermöglicht. Darüber hinaus bietet Tailscale unerwartete Vorteile: problemlose Dateiübertragung zwischen Geräten (Taildrop), das Freigeben von Laptop-Ports für mobile Web-App-Tests und die Möglichkeit, als VPN mit Exit-Nodes zu fungieren, sogar mit Mullvad für verbesserte Privatsphäre. Der Autor nutzt die kostenlose Version und empfiehlt die Open-Source-Serverimplementierung Headscale.

Mehr lesen
Entwicklung