2.4 KiB
2.4 KiB
🚀 Быстрый старт за 5 минут
1️⃣ Установка Ollama (1 мин)
# Скачайте и установите с https://ollama.ai/
# Загрузите модель
ollama pull codellama
# Проверьте, что Ollama запущен
ollama list
2️⃣ Backend (2 мин)
cd backend
# Создайте venv и установите зависимости
python -m venv venv
source venv/bin/activate # Windows: venv\Scripts\activate
pip install -r requirements.txt
# Создайте .env
echo "SECRET_KEY=$(openssl rand -hex 32)" > .env
echo "ENCRYPTION_KEY=$(openssl rand -hex 32)" >> .env
echo "OLLAMA_BASE_URL=http://localhost:11434" >> .env
echo "OLLAMA_MODEL=codellama" >> .env
# Запустите backend
uvicorn app.main:app --reload
✅ Backend запущен на http://localhost:8000
3️⃣ Frontend (2 мин)
# Новый терминал
cd frontend
# Установите зависимости
npm install
# Запустите frontend
npm run dev
✅ Frontend запущен на http://localhost:5173
4️⃣ Первый репозиторий
- Откройте http://localhost:5173
- Перейдите в Репозитории → + Добавить репозиторий
- Заполните:
- Название: test-repo
- Платформа: Gitea
- URL: https://your-gitea.com/owner/repo
- API Token: ваш токен
- Скопируйте Webhook URL
- Добавьте webhook в Gitea (Settings → Webhooks)
5️⃣ Тест
Создайте Pull Request в вашем репозитории → AI агент автоматически начнет ревью! 🎉
🐛 Проблемы?
Ollama не запускается
# Проверьте статус
ollama list
# Перезапустите
ollama serve
Backend ошибка
# Проверьте .env файл
cat backend/.env
# Проверьте логи
tail -f logs/app.log
Frontend не подключается
# Проверьте что backend запущен
curl http://localhost:8000/health
# Очистите кеш
cd frontend
rm -rf node_modules .vite
npm install