code-review-agent/QUICKSTART.md
Primakov Alexandr Alexandrovich 09cdd06307 init
2025-10-12 23:15:09 +03:00

2.4 KiB
Raw Permalink Blame History

🚀 Быстрый старт за 5 минут

1 Установка Ollama (1 мин)

# Скачайте и установите с https://ollama.ai/

# Загрузите модель
ollama pull codellama

# Проверьте, что Ollama запущен
ollama list

2 Backend (2 мин)

cd backend

# Создайте venv и установите зависимости
python -m venv venv
source venv/bin/activate  # Windows: venv\Scripts\activate
pip install -r requirements.txt

# Создайте .env
echo "SECRET_KEY=$(openssl rand -hex 32)" > .env
echo "ENCRYPTION_KEY=$(openssl rand -hex 32)" >> .env
echo "OLLAMA_BASE_URL=http://localhost:11434" >> .env
echo "OLLAMA_MODEL=codellama" >> .env

# Запустите backend
uvicorn app.main:app --reload

Backend запущен на http://localhost:8000

3 Frontend (2 мин)

# Новый терминал
cd frontend

# Установите зависимости
npm install

# Запустите frontend
npm run dev

Frontend запущен на http://localhost:5173

4 Первый репозиторий

  1. Откройте http://localhost:5173
  2. Перейдите в Репозитории+ Добавить репозиторий
  3. Заполните:
  4. Скопируйте Webhook URL
  5. Добавьте webhook в Gitea (Settings → Webhooks)

5 Тест

Создайте Pull Request в вашем репозитории → AI агент автоматически начнет ревью! 🎉


🐛 Проблемы?

Ollama не запускается

# Проверьте статус
ollama list

# Перезапустите
ollama serve

Backend ошибка

# Проверьте .env файл
cat backend/.env

# Проверьте логи
tail -f logs/app.log

Frontend не подключается

# Проверьте что backend запущен
curl http://localhost:8000/health

# Очистите кеш
cd frontend
rm -rf node_modules .vite
npm install

📚 Дальше