153 lines
3.9 KiB
Markdown
153 lines
3.9 KiB
Markdown
# 🤖 Проблема с CodeLlama
|
||
|
||
## ❌ Что не так
|
||
|
||
`codellama:7b` отвечает **текстом вместо JSON**:
|
||
|
||
```
|
||
Thank you for the detailed analysis...
|
||
```
|
||
|
||
Вместо:
|
||
```json
|
||
{"comments": [{"line": 58, "severity": "ERROR", ...}]}
|
||
```
|
||
|
||
## 🎯 Решение: Смените модель!
|
||
|
||
### Рекомендуемые модели для code review:
|
||
|
||
#### 1. **Mistral 7B** ⭐⭐⭐⭐⭐ (ЛУЧШИЙ ВЫБОР)
|
||
```bash
|
||
ollama pull mistral:7b
|
||
```
|
||
|
||
**Почему Mistral:**
|
||
- ✅ Отлично следует инструкциям
|
||
- ✅ Хорошо понимает код
|
||
- ✅ Быстрая (~4GB RAM)
|
||
- ✅ Правильно форматирует JSON
|
||
- ✅ Находит реальные проблемы
|
||
|
||
#### 2. **Llama 3 8B** ⭐⭐⭐⭐⭐ (САМАЯ УМНАЯ)
|
||
```bash
|
||
ollama pull llama3:8b
|
||
```
|
||
|
||
**Почему Llama 3:**
|
||
- ✅ Самая умная модель
|
||
- ✅ Лучший анализ кода
|
||
- ✅ Находит сложные проблемы
|
||
- ⚠️ Требует ~5GB RAM
|
||
- ✅ Отличный JSON output
|
||
|
||
#### 3. **DeepSeek Coder 6.7B** ⭐⭐⭐⭐ (ДЛЯ КОДА)
|
||
```bash
|
||
ollama pull deepseek-coder:6.7b
|
||
```
|
||
|
||
**Почему DeepSeek:**
|
||
- ✅ Специально для кода
|
||
- ✅ Понимает много языков
|
||
- ✅ Хороший JSON
|
||
- ⚠️ Менее строгая
|
||
|
||
## 📝 Как сменить модель
|
||
|
||
### Шаг 1: Скачайте модель
|
||
```bash
|
||
ollama pull mistral:7b
|
||
```
|
||
|
||
### Шаг 2: Обновите .env
|
||
```bash
|
||
# backend/.env
|
||
OLLAMA_MODEL=mistral:7b
|
||
```
|
||
|
||
### Шаг 3: Перезапустите backend
|
||
```bash
|
||
# Остановите: Ctrl+C
|
||
# Запустите снова:
|
||
cd backend
|
||
source venv/Scripts/activate
|
||
python -m uvicorn app.main:app --reload --host 0.0.0.0 --port 8000
|
||
```
|
||
|
||
### Шаг 4: Попробуйте снова
|
||
- Откройте http://localhost:5173
|
||
- Нажмите **🔄 Повторить ревью**
|
||
- Теперь должно работать!
|
||
|
||
## 📊 Сравнение моделей
|
||
|
||
| Модель | Для review | JSON | Скорость | RAM | Рейтинг |
|
||
|--------|-----------|------|----------|-----|---------|
|
||
| **mistral:7b** | ✅✅✅✅✅ | ✅✅✅✅✅ | ⚡⚡⚡⚡ | 4GB | ⭐⭐⭐⭐⭐ |
|
||
| **llama3:8b** | ✅✅✅✅✅ | ✅✅✅✅ | ⚡⚡⚡ | 5GB | ⭐⭐⭐⭐⭐ |
|
||
| **deepseek-coder** | ✅✅✅✅ | ✅✅✅✅ | ⚡⚡⚡⚡ | 4GB | ⭐⭐⭐⭐ |
|
||
| codellama:7b | ✅✅ | ❌ | ⚡⚡⚡⚡ | 4GB | ⭐⭐ |
|
||
|
||
## 🎯 Мой совет
|
||
|
||
### Для большинства:
|
||
```bash
|
||
ollama pull mistral:7b
|
||
```
|
||
|
||
### Если хочется самого лучшего:
|
||
```bash
|
||
ollama pull llama3:8b
|
||
```
|
||
|
||
### Если мало RAM:
|
||
```bash
|
||
ollama pull deepseek-coder:6.7b
|
||
```
|
||
|
||
## ✅ Результат после смены
|
||
|
||
**До (codellama):**
|
||
```
|
||
🤖 ОТВЕТ AI:
|
||
Thank you for the detailed analysis...
|
||
⚠️ Комментариев не найдено!
|
||
```
|
||
|
||
**После (mistral):**
|
||
```
|
||
🤖 ОТВЕТ AI:
|
||
{"comments": [
|
||
{"line": 58, "severity": "ERROR", "message": "Опечатка..."},
|
||
{"line": 108, "severity": "ERROR", "message": "Незакрытая скобка..."}
|
||
]}
|
||
✅ Найдено комментариев: 2
|
||
```
|
||
|
||
## 🚀 Быстрый старт
|
||
|
||
```bash
|
||
# 1. Скачайте Mistral
|
||
ollama pull mistral:7b
|
||
|
||
# 2. Обновите конфиг
|
||
echo "OLLAMA_MODEL=mistral:7b" >> backend/.env
|
||
|
||
# 3. Перезапустите
|
||
# Ctrl+C в терминале backend
|
||
# Затем снова запустите backend
|
||
|
||
# 4. Попробуйте ревью!
|
||
```
|
||
|
||
## 🎉 После смены модели
|
||
|
||
Агент будет:
|
||
- ✅ Находить реальные проблемы
|
||
- ✅ Отвечать правильным JSON
|
||
- ✅ Комментировать код правильно
|
||
- ✅ Работать стабильно
|
||
|
||
**CodeLlama предназначена для ГЕНЕРАЦИИ кода, а не для РЕВЬЮ!**
|
||
|