# 🚀 Быстрый старт за 5 минут ## 1️⃣ Установка Ollama (1 мин) ```bash # Скачайте и установите с https://ollama.ai/ # Загрузите модель ollama pull codellama # Проверьте, что Ollama запущен ollama list ``` ## 2️⃣ Backend (2 мин) ```bash cd backend # Создайте venv и установите зависимости python -m venv venv source venv/bin/activate # Windows: venv\Scripts\activate pip install -r requirements.txt # Создайте .env echo "SECRET_KEY=$(openssl rand -hex 32)" > .env echo "ENCRYPTION_KEY=$(openssl rand -hex 32)" >> .env echo "OLLAMA_BASE_URL=http://localhost:11434" >> .env echo "OLLAMA_MODEL=codellama" >> .env # Запустите backend uvicorn app.main:app --reload ``` ✅ Backend запущен на http://localhost:8000 ## 3️⃣ Frontend (2 мин) ```bash # Новый терминал cd frontend # Установите зависимости npm install # Запустите frontend npm run dev ``` ✅ Frontend запущен на http://localhost:5173 ## 4️⃣ Первый репозиторий 1. Откройте http://localhost:5173 2. Перейдите в **Репозитории** → **+ Добавить репозиторий** 3. Заполните: - **Название**: test-repo - **Платформа**: Gitea - **URL**: https://your-gitea.com/owner/repo - **API Token**: ваш токен 4. Скопируйте **Webhook URL** 5. Добавьте webhook в Gitea (Settings → Webhooks) ## 5️⃣ Тест Создайте Pull Request в вашем репозитории → AI агент автоматически начнет ревью! 🎉 --- ## 🐛 Проблемы? ### Ollama не запускается ```bash # Проверьте статус ollama list # Перезапустите ollama serve ``` ### Backend ошибка ```bash # Проверьте .env файл cat backend/.env # Проверьте логи tail -f logs/app.log ``` ### Frontend не подключается ```bash # Проверьте что backend запущен curl http://localhost:8000/health # Очистите кеш cd frontend rm -rf node_modules .vite npm install ``` ## 📚 Дальше - [Полная документация](README.md) - [API документация](http://localhost:8000/docs) - [Contributing](CONTRIBUTING.md)