Praktischer Einstieg in KI-App-Entwicklung

KI-App Entwicklung mit Python, Ollama & Streamlit

In diesem 4-tägigen Programmierkurs (mit einem optionalen Zusatztag am Anfang für Python und Streamlit Grundlagen) begleite ich Dich auf Deinem Weg in die Entwicklung eigener KI-Anwendungen.

Gemeinsam starten wir mit einem Einführungstag zu Python und Streamlit, sodass Du schnell die wichtigsten Grundlagen beherrschst.

An den folgenden vier Tagen setzen wir Schritt für Schritt spannende KI-Projekte um:

Du

  • entwickelst einen Chat-Client mit lokalem KI-Modell,
  • baust eine Bildanalyse-App,
  • erstellst ein Tool zur automatischen Blog-Gliederung,
    und
  • programmierst eine Anwendung für Zusammenfassungen und Quizfragen zu Deinen Wunschthemen.

Dabei lernst Du, wie Du Ollama in Deine Projekte einbindest, Prompts richtig formulierst und mit Streamlit interaktive Oberflächen gestaltest.

Am Ende des Kurses hast Du nicht nur das Wissen, sondern auch fertige Beispiele in der Hand, mit denen Du Deine eigenen Ideen weiterentwickeln kannst.

Hier nochmals die Zeitlanung:

  • 08.11: Zusätzlicher Einführungstag – Crashcourse in Python und Streamlit
  • 15.11
  • 13.12
  • 10.01
  • 24.01

Installationsanleitung

Python 3.11 · VS Code Insiders · Ollama · Streamlit

Diese Anleitung zeigt Schritt für Schritt, wie Du Deine Entwicklungsumgebung für den Kurs einrichtest.

Du lernst, Python 3.11, VS Code Insiders, Ollama und Streamlit zu installieren und mit einer virtuellen Umgebung zu arbeiten.

Voraussetzungen

  • Ein Terminal (macOS: Terminal, Windows: PowerShell, Linux: Konsole)
  • Administratorrechte für Softwareinstallationen
  • Ca. 15 – 20 GB freier Speicherplatz

Python 3.11 installieren

  • Windows
  • Linux
  • Mac OS
winget install "Python.Python.3.11"

py -3.11 --version

Wenn der Befehl nicht gefunden wird, PowerShell neu starten.

sudo apt update
sudo apt install -y software-properties-common
sudo add-apt-repository ppa:deadsnakes/ppa -y
sudo apt update
sudo apt install -y python3.11 python3.11-venv python3.11-distutils

python3.11 --version
brew install python@3.11
python3.11 --version

Alternative: Installer von https://www.python.org/downloads/

Falls Build-Tools fehlen:

xcode-select --install

Git Installieren

  • Windows
  • Linux
  • Mac OS
winget install "Microsoft.Git"
sudo apt update
sudo apt install git
brew install git

Ollama installieren

  • Windows
  • Linux
  • Mac OS
winget install "Ollama.Ollama"

ollama --version
curl -fsSL https://ollama.com/install.sh | sh

ollama --version
brew install ollama

ollama --version

VS Code Insiders installieren

  • Windows
  • Linux
  • Mac OS
winget install "Microsoft.VisualStudioCode.Insiders"

Lade das `.deb`- oder `.rpm`-Paket von

https://code.visualstudio.com/insiders

oder nutze deinen Paketmanager.

brew install --cask visual-studio-code@insiders

Empfohlene Erweiterungen

  • Python (Microsoft)
  • Pylance (IntelliSense)
  • Optional: Black, autopep8, Ruff

Dienst starten

ollama serve

Modell herunterladen und testen

ollama pull phi4
ollama run phi4

>>> Wieviel is 2+2?
>>> /exit

Projektordner und Virtuelle Umgebung

  • Windows
  • Linux
  • Mac OS
C:
cd \
mkdir Enrichment
cd Enrichment
git clone https://github.com/r14r/Enrichment_AI-App  . 
pwd

Der angezeigte Name ist das Verzeichnis, in dem wir in diesem Kurs arbeiten. Bitte Merken

py -3.11 -m venv .venv
mkdir -p ~/Enrichment
cd ~/Enrichment
git clone https://github.com/r14r/Enrichment_AI-App .
pwd

Der angezeigte Name ist das Verzeichnis, in dem wir in diesem Kurs arbeiten. Bitte Merken

python3.11 -m venv .venv
mkdir -p ~/Enrichment
cd ~/Enrichment
git clone https://github.com/r14r/Enrichment_AI-App .
pwd

Der angezeigte Name ist das Verzeichnis, in dem wir in diesem Kurs arbeiten. Bitte Merken

python3.11 -m venv .venv

Aktivieren

  • Windows
  • Linux
  • Mac OS
.\.venv\Scripts\Activate.ps1

python --version
source .venv/bin/activate

python --version
source .venv/bin/activate

python --version

pip und Tools aktualisieren

pip install --upgrade pip

Installation über requirements.txt

pip install -r requirements.txt

Streamlit testen

streamlit hello

Ein Browserfenster öffnet sich – Streamlit funktioniert! ✅

VS Code starten

  • Windows
  • Linux
  • Mac OS
cd \Enrichment
code-insiders  Workspace.code-workspace
cd ~/Enrichment
code-insiders  Workspace.code-workspace
cd ~/Enrichment
code-insiders  Workspace.code-workspace

Wichtig:
Beim Aufruf den Dateinamen nicht vergessen: Workspace.code-workspace

Es öffnet sich VS Code.

Nach einer kurzen Zeit solltest du rechts unten den Hinweis sehen, das du empfohlene Extensions installieren kannst.

Klicke bitte hierzu auf INSTALL

Es kommt dann eine Nachfrage, ob du den Installationsquellen vertraust.

Klicke ebenfalls auf OK

Nachdem du dann alle Register der installierten Extensions geschlossen hast, solltest Du dieses Fenster sehen. Klicke hierzu auf den Namen eines Registers mit der Rechten Maustaste und wähle „Close All“

Klicke hierzu auch auf der linken Seite zuerst auf das Symbol um alle Dateien anzuzeigen, und dann auf die Datei Hello/App.py

Streamlit aus VSCode starten

  • Klicke auf das Symbol für „Run and Debug“
  • Klicke in der Kopfzeile neben dem „RUN AND DEBUG“ auf den Text neben dem grüne Dreieck
  • Selektiere dann „S: Hello (workspace)
  • Drücke die Taste F5 oder auf das grüne Dreieck

Wenn eine Antwort kommt, läuft alles richtig.

Test mit Python und Ollama

pip install ollama

Dann erstelle die Datei ollama_test.py mit diesem Inhalt:

import ollama

r = ollama.chat(model="phi4", messages=[{"role":"user","content":"Sag Hallo"}])

print(r["message"]["content"])

Führe die Datei aus mit

python ollama_test.py

Oder innerhalb von VS Code. Zeige dazu ein Terminal an über den Menüpunkt View/Terminal

Streamlit + Ollama Beispiel-App

Erstelle die Datei ollama_app.py mit dem folgenden Inhalt:

import streamlit as st
import requests

st.title("🧠 Lokales LLM mit Ollama")

prompt = st.text_input("Frage eingeben:")

if st.button("Senden") and prompt.strip():
    try:
        with st.spinner("Warte auf Antwort..."):
            response = requests.post(
                  "http://localhost:11434/api/generate",
                  json={
                     "model": "phi4",
                     "prompt": prompt,
                     "stream": False
                  },
                  timeout=600
            )
      
            if response.status_code != 200:
                  st.error(f"Fehler: {response.status_code} - {response.text}")
            else:
                  data = response.json()
                  antwort = data.get("response") or data.get("message") or "Keine Antwort erhalten."
                  st.success("Antwort vom Modell:")
                  st.write(antwort)
    except Exception as e:
        st.error(f"Fehler: {e}")

Starten:

streamlit run ollama_app.py

✅ Wenn du eine Antwort siehst, funktioniert deine gesamte Umgebung!

Typische Projektstruktur

Nächste Schritte

1. Python-Grundlagen im Kurs durcharbeiten

2. Streamlit-Apps erstellen und ausführen

3. Ollama-Modelle lokal nutzen und prompts testen

💬 Wenn du auf Fehler stößt:

Schreibe mir die vollständige Fehlermeldung + dein Betriebssystem + Python-Version – ich helfe dir gezielt weiter.

🧡 Viel Erfolg beim Start in dein KI-Projekt!