Installere AI på din egen computer

Besvar
Pentiumfan
Indlæg: 24
Tilmeldt: ons feb 05, 2025 8:55 am

Installere AI på din egen computer

Indlæg af Pentiumfan »

Der findes mulighed at installere sprogmodeller f.eks. Llhama, Mistral og Deepseek på sin egen computer.

Ollama er et open source-værktøj, der forenkler installation og kørsel af store sprogmodeller. Det understøtter flere AI-modeller, herunder Llama 3.3, DeepSeek-R1, Phi-4, Mistral og Gemma 2, og kræver kun få kommandoer for at komme i gang.

https://ollama.com/
Det findes både for Mac, Linux og Windows

**Ollama** er en **open-source platform**, der gør det nemt for udviklere og AI-entusiaster at **køre og styre sprogmodeller lokalt** direkte på deres egen computer. I stedet for at sende data til skyen, kan du med Ollama hente populære sprogmodeller som **LLaMA**, **Mistral** eller **Gemma** og køre dem **direkte på din egen maskine** – uden internetforbindelse.

### Hvorfor bruge Ollama?
1. **Privatliv**: Dine data forlader aldrig din enhed.
2. **Hastighed**: Ingen ventetid på netværkskald – alt sker lokalt.
3. **Kontrol**: Du vælger præcis hvilken model og version, du vil bruge.
4. **Gratis og open-source**: Ingen abonnementer eller skjulte gebyrer.


### Hvem er det for?
Ollama er perfekt til:
- Udviklere, der bygger AI-apps.
- Forskere, der eksperimenterer med modeller.
- AI-nørder, der vil have 100% kontrol over deres data og processer.
Pentiumfan
Indlæg: 24
Tilmeldt: ons feb 05, 2025 8:55 am

Re: Installere AI på din egen computer

Indlæg af Pentiumfan »

Den er måske ikke så brugervenlig. Man skriver til den via kommandoprompt men her er en kort guide:

### Guide: Sådan installerer du Ollama på Windows

#### 1. Download og installer Ollama
Gå til Ollamas officielle hjemmeside på [https://ollama.com]. Klik på "Download for Windows" for at hente installationsfilen.

Når filen er downloadet, dobbeltklik på den for at starte installationen. Følg vejledningen, og brug de foreslåede standardindstillinger. Når installationen er færdig, vil Ollama køre som en baggrundsservice.

#### 2. Test installationen
Åbn kommandoprompten (CMD eller PowerShell) ved at trykke på **Win + R**, skrive **cmd** eller **powershell**, og trykke på **Enter**.

Skriv følgende kommando for at kontrollere, om Ollama er installeret korrekt:
```
ollama version
```
Hvis installationen er gennemført korrekt, vil kommandoen vise Ollamas versionsnummer.

#### 3. Hent en AI-model
For at bruge Ollama skal du hente en sprogmodel. Du kan for eksempel downloade **Mistral**-modellen ved at skrive:
```
ollama pull mistral
```
Denne proces kan tage nogle minutter afhængigt af din internetforbindelse.

#### 4. Brug Ollama
Når modellen er hentet, kan du starte en chat med den ved at skrive:
```
ollama run mistral
```
Du kan nu skrive spørgsmål direkte i terminalen, og modellen vil give svar.

#### 5. Brug Ollama med Python (valgfrit)
Hvis du vil bruge Ollama i Python, skal du først installere biblioteket:
```
pip install ollama
```
Herefter kan du anvende Ollama i Python med følgende kode:
```python
import ollama

response = ollama.chat(model='mistral', messages=[{'role': 'user', 'content': 'Hvad er Ollama?'}])
print(response['message']['content'])
```

#### 6. Liste over installerede modeller
Hvis du vil se de sprogmodeller, du har hentet, kan du bruge kommandoen:
```
ollama list
```


```
Besvar