Welcome on my blog

We use cookies to ensure you get the best experience on our website.

Olama – Local AI

Autor: chmajster 08.03.2025

Jak korzystać z Ollama? Podstawowe komendy

Ollama to narzędzie umożliwiające uruchamianie dużych modeli językowych (LLM) lokalnie na komputerze. Dzięki niemu możesz szybko pobierać, uruchamiać i zarządzać modelami AI. Poniżej znajdziesz listę podstawowych komend Ollama.

Podstawowe komendy Ollama

1. Pobieranie modelu

Aby pobrać model, użyj polecenia:

ollama pull <model>

Przykład:

ollama pull llama3.2

2. Uruchamianie modelu

Aby uruchomić model i rozpocząć interakcję:

ollama run <model>

Przykład:

ollama run llama3.2

3. Wyświetlanie listy dostępnych modeli

Jeśli chcesz sprawdzić, jakie modele masz pobrane:

ollama list

4. Sprawdzanie aktywnych modeli

Jeśli chcesz zobaczyć, które modele są obecnie uruchomione:

ollama ps

5. Zatrzymanie działania modelu

Aby zatrzymać działający model:

ollama stop <model>

Przykład:

ollama stop llama3.2

6. Usuwanie modelu

Jeśli chcesz usunąć model z systemu:

ollama rm <model>

Przykład:

ollama rm llama3.2

Podsumowanie

Dzięki Ollama możesz łatwo zarządzać lokalnymi modelami AI. Komendy pozwalają szybko pobrać, uruchomić lub usunąć model według potrzeb. To świetne rozwiązanie dla każdego, kto chce eksperymentować z dużymi modelami językowymi na swoim komputerze.

Jeśli chcesz dowiedzieć się więcej, odwiedź oficjalną stronę projektu na GitHub.

Tagi:
Dodaj komentarz

Search
Categories
O Blogu

Cześć Podróżniku!

Ta strona ma nie być typowym poradnikiem w IT, Głównym jej cel to zapisanie krótkich notatek, które mogą się przydać w codziennym życiu podczas korzystania/konfiguracji różnych urządzeń np. Ustawienia DHCP na Routerze Cisco, Ustawieniu Karty sieciowej na Linuxie itp.

Buy me A coffee
[Empty]

Wszelkie prawa zastrzeżone