code-review-agent/MODEL_RECOMMENDATION.md
Primakov Alexandr Alexandrovich 09cdd06307 init
2025-10-12 23:15:09 +03:00

153 lines
3.9 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 🤖 Проблема с CodeLlama
## ❌ Что не так
`codellama:7b` отвечает **текстом вместо JSON**:
```
Thank you for the detailed analysis...
```
Вместо:
```json
{"comments": [{"line": 58, "severity": "ERROR", ...}]}
```
## 🎯 Решение: Смените модель!
### Рекомендуемые модели для code review:
#### 1. **Mistral 7B** ⭐⭐⭐⭐⭐ (ЛУЧШИЙ ВЫБОР)
```bash
ollama pull mistral:7b
```
**Почему Mistral:**
- ✅ Отлично следует инструкциям
- ✅ Хорошо понимает код
- ✅ Быстрая (~4GB RAM)
- ✅ Правильно форматирует JSON
- ✅ Находит реальные проблемы
#### 2. **Llama 3 8B** ⭐⭐⭐⭐⭐ (САМАЯ УМНАЯ)
```bash
ollama pull llama3:8b
```
**Почему Llama 3:**
- ✅ Самая умная модель
- ✅ Лучший анализ кода
- ✅ Находит сложные проблемы
- ⚠️ Требует ~5GB RAM
- ✅ Отличный JSON output
#### 3. **DeepSeek Coder 6.7B** ⭐⭐⭐⭐ (ДЛЯ КОДА)
```bash
ollama pull deepseek-coder:6.7b
```
**Почему DeepSeek:**
- ✅ Специально для кода
- ✅ Понимает много языков
- ✅ Хороший JSON
- ⚠️ Менее строгая
## 📝 Как сменить модель
### Шаг 1: Скачайте модель
```bash
ollama pull mistral:7b
```
### Шаг 2: Обновите .env
```bash
# backend/.env
OLLAMA_MODEL=mistral:7b
```
### Шаг 3: Перезапустите backend
```bash
# Остановите: Ctrl+C
# Запустите снова:
cd backend
source venv/Scripts/activate
python -m uvicorn app.main:app --reload --host 0.0.0.0 --port 8000
```
### Шаг 4: Попробуйте снова
- Откройте http://localhost:5173
- Нажмите **🔄 Повторить ревью**
- Теперь должно работать!
## 📊 Сравнение моделей
| Модель | Для review | JSON | Скорость | RAM | Рейтинг |
|--------|-----------|------|----------|-----|---------|
| **mistral:7b** | ✅✅✅✅✅ | ✅✅✅✅✅ | ⚡⚡⚡⚡ | 4GB | ⭐⭐⭐⭐⭐ |
| **llama3:8b** | ✅✅✅✅✅ | ✅✅✅✅ | ⚡⚡⚡ | 5GB | ⭐⭐⭐⭐⭐ |
| **deepseek-coder** | ✅✅✅✅ | ✅✅✅✅ | ⚡⚡⚡⚡ | 4GB | ⭐⭐⭐⭐ |
| codellama:7b | ✅✅ | ❌ | ⚡⚡⚡⚡ | 4GB | ⭐⭐ |
## 🎯 Мой совет
### Для большинства:
```bash
ollama pull mistral:7b
```
### Если хочется самого лучшего:
```bash
ollama pull llama3:8b
```
### Если мало RAM:
```bash
ollama pull deepseek-coder:6.7b
```
## ✅ Результат после смены
**До (codellama):**
```
🤖 ОТВЕТ AI:
Thank you for the detailed analysis...
⚠️ Комментариев не найдено!
```
**После (mistral):**
```
🤖 ОТВЕТ AI:
{"comments": [
{"line": 58, "severity": "ERROR", "message": "Опечатка..."},
{"line": 108, "severity": "ERROR", "message": "Незакрытая скобка..."}
]}
✅ Найдено комментариев: 2
```
## 🚀 Быстрый старт
```bash
# 1. Скачайте Mistral
ollama pull mistral:7b
# 2. Обновите конфиг
echo "OLLAMA_MODEL=mistral:7b" >> backend/.env
# 3. Перезапустите
# Ctrl+C в терминале backend
# Затем снова запустите backend
# 4. Попробуйте ревью!
```
## 🎉 После смены модели
Агент будет:
- ✅ Находить реальные проблемы
- ✅ Отвечать правильным JSON
- ✅ Комментировать код правильно
- ✅ Работать стабильно
**CodeLlama предназначена для ГЕНЕРАЦИИ кода, а не для РЕВЬЮ!**