Backend-Status:

Was ist das hier?
Dies ist ein experimenteller Chatbot, der für Informatik-Studierende der HAW Hamburg erstellt wurde. Momentan kann der Bot Fragen zum Modul "Betriebssysteme" beantworten.

Was steckt technisch dahinter?
Der Chatbot basiert auf einem vergleichsweise "kleinen" Large Language Modell, im Test sind beispielsweise phi4:14b, mistral-nemo:12b oder granite3.3:8b, wobei phi4 momentan die besten Ergebnisse zeigt. Das Modell für den Bot wird über Ollama geladen. Als Beschleuniger wird derzeit eine NVIDIA RTX 4070 Ti Super mit 16 GB RAM benutzt. Zusätzlich wird Receiver Augmented Generation (RAG) genutzt, damit das Modell auf Fachinformationen zugreifen kann. Als Vektordatenbank wird derzeit ChromaDB mit qwen3-embedding:0.6b als Embedding-Modell genutzt. Alles zusammen wird in einer Python/LangChain-Serveranwendung zusammengeführt.

Was kann ich tun, wen ich Fehler entdecke oder Vorschläge habe?
Grundsätzlich arbeiten LLMs nicht fehlerfrei, da sie als "stochastische Papageien" ohne Intelligenz Texte nach Wahrscheinlichkeiten zusammenwürfeln. Inhaltliche Fehler kann man durch präzisere Prompts, genauere oder mehr Trainingsmaterial und Leitplanken vermeiden, aber nie ausschließen. Sollten Sie solche Fehler entdecken, senden Sie mir gerne den Chatverlauf per Mail an christian.lins_fuck_spammers@goawayhaw-hamburg.de zu.

Impressum Last updated: 2025-09-25