Geekend26: Work in Progress

Open-WebUI
28.03.2026 , Zauberraum

Open-WebUI erlaubt es LLMs im typischen Chat von der eigenen Hardware aus aufzurufen.
Beispiel:
Local-OWUI -> Local-Ollama
oder
Local-OWUI -> Remote-OpenAi/Claude/Mistral

In dem Talk gehe ich auf die Einrichtungsmöglichkeiten und Features ein

Ich bin Clara, Fachinfmatikerin und studiere IMIT. Interesse an Informatik und 3D Modellierung, SCI-FI (Horror)