We use cookies to ensure you get the best experience on our website.
Jak korzystać z Ollama? Podstawowe komendy
Ollama to narzędzie umożliwiające uruchamianie dużych modeli językowych (LLM) lokalnie na komputerze. Dzięki niemu możesz szybko pobierać, uruchamiać i zarządzać modelami AI. Poniżej znajdziesz listę podstawowych komend Ollama.
Aby pobrać model, użyj polecenia:
ollama pull <model>
Przykład:
ollama pull llama3.2
Aby uruchomić model i rozpocząć interakcję:
ollama run <model>
Przykład:
ollama run llama3.2
Jeśli chcesz sprawdzić, jakie modele masz pobrane:
ollama list
Jeśli chcesz zobaczyć, które modele są obecnie uruchomione:
ollama ps
Aby zatrzymać działający model:
ollama stop <model>
Przykład:
ollama stop llama3.2
Jeśli chcesz usunąć model z systemu:
ollama rm <model>
Przykład:
ollama rm llama3.2
Dzięki Ollama możesz łatwo zarządzać lokalnymi modelami AI. Komendy pozwalają szybko pobrać, uruchomić lub usunąć model według potrzeb. To świetne rozwiązanie dla każdego, kto chce eksperymentować z dużymi modelami językowymi na swoim komputerze.
Jeśli chcesz dowiedzieć się więcej, odwiedź oficjalną stronę projektu na GitHub.
Cześć Podróżniku!
Ta strona ma nie być typowym poradnikiem w IT, Głównym jej cel to zapisanie krótkich notatek, które mogą się przydać w codziennym życiu podczas korzystania/konfiguracji różnych urządzeń np. Ustawienia DHCP na Routerze Cisco, Ustawieniu Karty sieciowej na Linuxie itp.
Wszelkie prawa zastrzeżone
Dodaj komentarz