1.5 KiB
1.5 KiB
text
AI Station - Multi-User AI Hub
Piattaforma AI dockerizzata con RAG (Retrieval-Augmented Generation) per uso familiare e professionale.
Stack Tecnologico
- Frontend/UI: Chainlit 1.3.2
- Vector DB: Qdrant
- Database: PostgreSQL 15
- AI Engine: Ollama (qwen2.5-coder:7b) su RTX A1000
- Reverse Proxy: Nginx Proxy Manager
- SSL: Wildcard *.dffm.it
Architettura
Internet → pfSense (192.168.1.254) ↓ Nginx Proxy (192.168.1.252) → https://ai.dffm.it ↓ AI-SRV (192.168.1.244:8000) → Docker Compose ├── Chainlit App ├── PostgreSQL └── Qdrant ↓ AI-GPU (192.168.1.243:11434) → Ollama + RTX A1000
text
Quick Start
Clone repository git clone https://github.com/TUO_USERNAME/ai-station.git cd ai-station
Configura environment variables cp .env.example .env nano .env
Avvia stack docker compose up -d
Verifica logs docker compose logs -f chainlit-app
text
Accesso
- Locale: http://192.168.1.244:8000
- Remoto: https://ai.dffm.it
Funzionalità Attuali
✅ Chat AI con streaming responses ✅ RAG con upload documenti .txt ✅ Indicizzazione automatica su Qdrant ✅ WebSocket support ✅ Accesso SSL remoto
Roadmap
- Supporto PDF per documenti fiscali
- OAuth2 multi-utente
- UI personalizzate per profili (business/engineering/architecture/admin)
- Integrazione Google Gemini
- Persistenza conversazioni
Requisiti
- Docker & Docker Compose
- 8GB RAM minimo (16GB consigliato)
- Ollama server remoto con GPU
License
MIT