3.9 KiB
		
	
	
	
	
	
	
	
			
		
		
	
	
			3.9 KiB
		
	
	
	
	
	
	
	
🤖 Проблема с CodeLlama
❌ Что не так
codellama:7b отвечает текстом вместо JSON:
Thank you for the detailed analysis...
Вместо:
{"comments": [{"line": 58, "severity": "ERROR", ...}]}
🎯 Решение: Смените модель!
Рекомендуемые модели для code review:
1. Mistral 7B ⭐⭐⭐⭐⭐ (ЛУЧШИЙ ВЫБОР)
ollama pull mistral:7b
Почему Mistral:
- ✅ Отлично следует инструкциям
- ✅ Хорошо понимает код
- ✅ Быстрая (~4GB RAM)
- ✅ Правильно форматирует JSON
- ✅ Находит реальные проблемы
2. Llama 3 8B ⭐⭐⭐⭐⭐ (САМАЯ УМНАЯ)
ollama pull llama3:8b
Почему Llama 3:
- ✅ Самая умная модель
- ✅ Лучший анализ кода
- ✅ Находит сложные проблемы
- ⚠️ Требует ~5GB RAM
- ✅ Отличный JSON output
3. DeepSeek Coder 6.7B ⭐⭐⭐⭐ (ДЛЯ КОДА)
ollama pull deepseek-coder:6.7b
Почему DeepSeek:
- ✅ Специально для кода
- ✅ Понимает много языков
- ✅ Хороший JSON
- ⚠️ Менее строгая
📝 Как сменить модель
Шаг 1: Скачайте модель
ollama pull mistral:7b
Шаг 2: Обновите .env
# backend/.env
OLLAMA_MODEL=mistral:7b
Шаг 3: Перезапустите backend
# Остановите: Ctrl+C
# Запустите снова:
cd backend
source venv/Scripts/activate
python -m uvicorn app.main:app --reload --host 0.0.0.0 --port 8000
Шаг 4: Попробуйте снова
- Откройте http://localhost:5173
- Нажмите 🔄 Повторить ревью
- Теперь должно работать!
📊 Сравнение моделей
| Модель | Для review | JSON | Скорость | RAM | Рейтинг | 
|---|---|---|---|---|---|
| mistral:7b | ✅✅✅✅✅ | ✅✅✅✅✅ | ⚡⚡⚡⚡ | 4GB | ⭐⭐⭐⭐⭐ | 
| llama3:8b | ✅✅✅✅✅ | ✅✅✅✅ | ⚡⚡⚡ | 5GB | ⭐⭐⭐⭐⭐ | 
| deepseek-coder | ✅✅✅✅ | ✅✅✅✅ | ⚡⚡⚡⚡ | 4GB | ⭐⭐⭐⭐ | 
| codellama:7b | ✅✅ | ❌ | ⚡⚡⚡⚡ | 4GB | ⭐⭐ | 
🎯 Мой совет
Для большинства:
ollama pull mistral:7b
Если хочется самого лучшего:
ollama pull llama3:8b
Если мало RAM:
ollama pull deepseek-coder:6.7b
✅ Результат после смены
До (codellama):
🤖 ОТВЕТ AI:
Thank you for the detailed analysis...
⚠️ Комментариев не найдено!
После (mistral):
🤖 ОТВЕТ AI:
{"comments": [
  {"line": 58, "severity": "ERROR", "message": "Опечатка..."},
  {"line": 108, "severity": "ERROR", "message": "Незакрытая скобка..."}
]}
✅ Найдено комментариев: 2
🚀 Быстрый старт
# 1. Скачайте Mistral
ollama pull mistral:7b
# 2. Обновите конфиг
echo "OLLAMA_MODEL=mistral:7b" >> backend/.env
# 3. Перезапустите
# Ctrl+C в терминале backend
# Затем снова запустите backend
# 4. Попробуйте ревью!
🎉 После смены модели
Агент будет:
- ✅ Находить реальные проблемы
- ✅ Отвечать правильным JSON
- ✅ Комментировать код правильно
- ✅ Работать стабильно
CodeLlama предназначена для ГЕНЕРАЦИИ кода, а не для РЕВЬЮ!