| Mejor primera instalación |
qwen2.5-coder:7b
|
El mejor equilibrio calidad/velocidad para codificar en 16 GB de RAM + RTX 3050 Ti |
Generalmente fluido para codificación estilo chat y archivos medianos |
| Ayudante de codificación más rápido |
deepseek-coder:6.7b
|
Huella más ligera y respuestas rápidas para ediciones prácticas de código. |
Buena velocidad para iteraciones cortas y tareas de autocompletar |
| Muy ligero |
starcoder2:3b
|
Baja presión de memoria, fácil de mantener receptivo |
La opción más rápida, pero más débil en razonamientos complejos. |
| Alternativa sólida |
starcoder2:7b
|
Calidad razonable sin saltar a tamaños de modelos pesados |
Equilibrado para refactorizadores y tareas de complejidad media. |
| Alternativa sólida |
codellama:7b
|
Familia de modelos de codificación madura con comportamiento estable |
Funciona bien para flujos de trabajo de codificación comunes |
| Más grande pero más lento |
qwen2.5-coder:14b
|
Puede ejecutarse, pero a menudo se derrama en la RAM del sistema en esta clase de hardware. |
Velocidad de token notablemente más lenta que 7B |