21 lines
1.0 KiB
Markdown
21 lines
1.0 KiB
Markdown
|
|
AI-STATION: Specifica Tecnica Implementativa (Target Stack: Chainlit)
|
||
|
|
1. Obiettivo
|
||
|
|
Sviluppare un'applicazione web Dockerizzata ("AI Station") che funga da hub multi-utente per l'IA. L'app deve presentarsi come una Chat Interface avanzata (stile ChatGPT) con capacità "Artifacts" (visualizzazione elementi a lato) e RAG.
|
||
|
|
|
||
|
|
2. Stack Tecnologico
|
||
|
|
Frontend/UI: Chainlit (Python).
|
||
|
|
Auth: oauth2-proxy in Docker che inietta header X-Email.
|
||
|
|
Vector DB: Qdrant.
|
||
|
|
Database: PostgreSQL.
|
||
|
|
AI Engine: Connessione remota a Ollama (host: 192.168.1.243, port: 11434).
|
||
|
|
3. Architettura
|
||
|
|
L'applicazione deve leggere l'header X-Email in entrata.Ruoli: business, engineering, architecture, admin.
|
||
|
|
|
||
|
|
4. UI Design
|
||
|
|
Layout Chat principale a sinistra. Usare "Elements" di Chainlit per output complessi (grafici/tabelle).
|
||
|
|
|
||
|
|
5. Istruzioni Tecniche
|
||
|
|
Creare docker-compose.yml per: chainlit-app, qdrant, postgres, oauth2-proxy.
|
||
|
|
Implementare app.py (main Chainlit) che gestisce l'autenticazione via header.
|
||
|
|
Configurare il client Ollama remoto.
|
||
|
|
Implementare RAG usando LangChain integrato in Chainlit.
|