28.03.2026 –, Zauberraum
Open-WebUI erlaubt es LLMs im typischen Chat von der eigenen Hardware aus aufzurufen.
Beispiel:
Local-OWUI -> Local-Ollama
oder
Local-OWUI -> Remote-OpenAi/Claude/Mistral
In dem Talk gehe ich auf die Einrichtungsmöglichkeiten und Features ein
Ich bin Clara, Fachinfmatikerin und studiere IMIT. Interesse an Informatik und 3D Modellierung, SCI-FI (Horror)