Ollama, Mac'inizdeki farklı LLM'leri yerel olarak çalıştırmanıza olanak tanıyan kullanışlı bir araçtır. Zarif açık kaynaklı geliştirmesi sayesinde, bilgisayarınızın CMD'sine farklı komutlar girerek çeşitli bilgileri hızlıca alabilirsiniz. Dahası, Apple işletim sisteminin gücü sayesinde yanıtlar en yüksek hızda üretilebilir.
Mac'inizde Meta Llama 3 ve diğer modelleri çalıştırın
Ollama ile, Phi 3, Mistral, Gemma, Llama 2 ve Llama 3 gibi modellerin gücünden bilgisayarınızda yararlanmak çok kolay. Meta'nın en gelişmiş LLM'sini kullanmak isterseniz, bilgisayarınızın CMD'sine ollama run llama3 komutunu girerek kuruluma başlayabilirsiniz. Ancak bu dil modelinin sorunsuz çalışabilmesi için sabit diskinizde yeterli boş alan olduğundan emin olmanız gerekmektedir çünkü bu model birkaç GB boş alana ihtiyaç duyar.
Bol bağlamlı sohbetler
Ollama ile önceki soru ve cevapları ek bağlam için depolamak her zaman mümkündür. ChatGPT ve Copilot gibi diğer çevrimiçi LLM'ler gibi, bu araç da sonuçları oluştururken bu bağlamı dikkate alır. Bu sayede, her dil modeli tarafından sağlanan muazzam potansiyelden tam anlamıyla faydalanabilirsiniz.
Mac'inizde Ollama için bir görsel arayüz kurun
Mac'inizde bir görsel arayüz kurmak, Ollama'i kullanmayı daha da sezgisel hale getirecektir. Bunu başarmak için Docker aracılığıyla Docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main komutunu çalıştırmanız yeterlidir. Ardından, bu aracı komut konsoluna göre çok daha görsel bir arayüz üzerinden kullanabilirsiniz.
Ollama'i Mac'e indirerek tüm özelliklerinden yararlanın ve herhangi bir LLM'i yerel olarak zorluk yaşamadan çalıştırın.
Görüşler
Çok havalı