ai-station/README.md

1.5 KiB

text

AI Station - Multi-User AI Hub

Piattaforma AI dockerizzata con RAG (Retrieval-Augmented Generation) per uso familiare e professionale.

Stack Tecnologico

  • Frontend/UI: Chainlit 1.3.2
  • Vector DB: Qdrant
  • Database: PostgreSQL 15
  • AI Engine: Ollama (qwen2.5-coder:7b) su RTX A1000
  • Reverse Proxy: Nginx Proxy Manager
  • SSL: Wildcard *.dffm.it

Architettura

Internet → pfSense (192.168.1.254) ↓ Nginx Proxy (192.168.1.252) → https://ai.dffm.it ↓ AI-SRV (192.168.1.244:8000) → Docker Compose ├── Chainlit App ├── PostgreSQL └── Qdrant ↓ AI-GPU (192.168.1.243:11434) → Ollama + RTX A1000

text

Quick Start

Clone repository git clone https://github.com/TUO_USERNAME/ai-station.git cd ai-station

Configura environment variables cp .env.example .env nano .env

Avvia stack docker compose up -d

Verifica logs docker compose logs -f chainlit-app

text

Accesso

Funzionalità Attuali

Chat AI con streaming responses RAG con upload documenti .txt Indicizzazione automatica su Qdrant WebSocket support Accesso SSL remoto

Roadmap

  • Supporto PDF per documenti fiscali
  • OAuth2 multi-utente
  • UI personalizzate per profili (business/engineering/architecture/admin)
  • Integrazione Google Gemini
  • Persistenza conversazioni

Requisiti

  • Docker & Docker Compose
  • 8GB RAM minimo (16GB consigliato)
  • Ollama server remoto con GPU

License

MIT