Backend + WebUI sederhana untuk menjalankan AI Assistant menggunakan Ollama dan FastAPI.
UI didesain modern & responsif menggunakan TailwindCSS.
- 🔗 Integrasi dengan Ollama API (local LLM seperti Llama2, Mistral, dll).
- 💬 Chat API (
/chat) + Streaming API (/chat-stream). - 🖥️ WebUI cantik berbasis HTML + TailwindCSS.
- 🌐 CORS sudah diaktifkan (siap untuk frontend custom).
mantap-ai/ │── main.py # FastAPI backend │── templates/ │ └── index.html # UI Chat (Frontend) │── static/ # file CSS/JS tambahan │── README.md
- Clone repo
git clone https://github.com/Bangkah/mantap-ai.git cd mantap-ai - Buat virtual environment (opsional)
python -m venv venv source venv/bin/activate # Linux/Mac venv\Scripts\activate # Windows source venv/bin/activate.fish #fish shell
- Install dependencies
pip install -r requirements.txt
- Kalau requirements.txt belum ada, minimal install:
pip install fastapi uvicorn requests jinja2
- Pastikan Ollama sudah jalan
ollama serve
- Jalankan server
uvicorn main:app --reload --host 0.0.0.0 --port 8000
GET / → Halaman UI (chat interface).
GET /health → Cek status backend & koneksi Ollama.
GET /models → List model yang tersedia di Ollama.
POST /chat → Kirim prompt & dapatkan jawaban.
POST /chat-stream → Chat dengan response streaming.
UI dibuat minimalis, modern, dan responsif:
Chat bubble dengan warna berbeda (user vs bot).
Animasi loading ... saat menunggu jawaban AI.
Gradient background & rounded card style.
Pull request & issue sangat diterima! Feel free untuk kembangkan fitur seperti:
🔥 Dark mode toggle
📜 History chat
📁 Export chat ke file

