
Aquí les va una mini guía para usar LLMs en su Mac… Sí, ya sé, ando mamándola bien duro con la Mac, pero ni modo 😎
Primero y principal es necesario bajarse la siguiente aplicación
En la sección de Downloads podrán descargar la aplicación para distintos sistemas operativos (Linux, Windows y Mac). Una vez instalada, podrán agregar diferentes modelos según sus necesidades.
En este blog, recomiendo modelos que funcionan bien con las modestas especificaciones de la Mac que uso, una M2 del año 2022 con 8 GB de RAM, usando la versión de macOS Sequoia 15.1.1

Para una experiencia verdaderamente trascendental mientras instalas todo este desmadre, recomiendo encarecidamente poner de fondo el álbum Trip to Japan de Euforia (ni idea de quiénes sean, pero YouTube Music me lo recomendó y se siente correcto).
Instala con estilo, amigo. 🌸🕶️
Abren su aplicación de Ollama y su terminal, recomiendo utilizar iTerm2 https://iterm2.com/ y correr en terminal los siguientes comandos
ollama pull llama3.2
ollama run llama3.2
Esto es para instalar Llama 3.2 (de Meta). No es la versión más reciente, pero funciona de maravilla con mi configuración actual.
Adjunto un ejemplo de cómo debería verse todo si la instalación fue exitosa.

También recomiendo configurar DeepSeek-R1:1.5B (sí, ese modelo del que todos están hablando). No es el más pesado, pero funciona excelente con la configuración de Mac que mencionamos.
ollama pull deepseek-r1:1.5b
ollama run deepseek-r1:1.5b
Si quieres experimentar, también puedes instalar Llama 3.2-Vision, un modelo con capacidad de procesamiento de imágenes.
Eso sí, en mi configuración va lento como una diapositiva de PowerPoint de los 90 y se come toda la RAM de la Mac, así que lo uso con moderación (o mejor dicho, casi nunca).
ollama pull llama3.2-vision
ollama run llama3.2-vision
Para este paso, recomiendo tener un acompañante porque adjuntar imágenes en la terminal… está bien cabrón.
Usa Chatbox AI para facilitarte la vida. Así, después de la instalación, no tendrás que hacer todo desde la línea de comando.
La configuración es supersencilla

Gracias a Chatbox AI, puedes adjuntar imágenes de forma sencilla y dejar que el modelo de visión las analice.
Hace su chamba sorprendentemente bien

Si tu compu tiene mucho más músculo que la mía, te recomiendo probar modelos más avanzados como Llama 3.3 o la versión completa de DeepSeek-R1.
ollama run llama3.3
ollama run deepseek-r1
Pero ojo: en mi configuración corren como el culo, así que aquí no los recomiendo.
Si no quieres usar Chatbox AI, entonces puedes ser un hombre fuerte y de acción 💪 y hacer la instalación como los dioses del código mandan: vía Docker.
Aquí te dejo un link de Platzi con más detalles sobre la instalación, más opciones de modelos y una explicación… bueno, medio de la verga, pero funcional:
🔗 Instalación de DeepSeek-R1 en local
Un agradecimiento especial a Eder Díaz, cuyos consejos nerds siempre logran que me desvele en la computadora probando todo lo que me manda.
Si quieren verlo pasarse de nerd, aquí está su perfil en X (Twitter para los que no nos rendimos):
Y si quieren verlo hablarle al vacío infinito, también tiene su perfil en BlueSky:
👉 bsky.app/profile/ederdiaz.dev
Porque sí, todos dijimos que nos iríamos a BlueSky, igual que cuando todos juraron dejar WhatsApp por Telegram… y al final, ahí siguen en el grupo de la familia viendo piolines de “Feliz Jueves”.
Si seguiste esta guía, felicidades: ya tienes modelos LLM corriendo en tu Mac (o en cualquier otro sistema operativo, porque la diversidad es importante).
Ahora puedes jugar con Llama 3.2, DeepSeek-R1 y hasta modelos con visión, siempre y cuando tu compu no se derrita en el intento. Si tienes una máquina potente, prueba Llama 3.3 o la versión completa de DeepSeek.
Si te sirvió esta guía, No dejes un comentario… es que no los tengo habilitados, Y si no te sirvió, tampoco puedes quejarte, pero recuerda que el soporte técnico aquí es puro amor y paciencia (o sea, nada de eso).
Ahora ve y haz cosas increíbles con tu LLM.

…Si te preguntabas cuanto le pesaban las chichis a la mona china… aquí la salida que entregó la IA
Calcular el peso de los senos de un personaje de anime es complicado porque el arte exagera las proporciones y no sigue reglas anatómicas realistas. Sin embargo, si tomamos un enfoque aproximado basado en medidas humanas, podemos hacer una estimación divertida.
Estimación basada en volumen y densidad
- Volumen estimado: Un seno grande en la vida real puede tener entre 1 y 2 litros de volumen. En este caso, por la exageración del dibujo, podríamos asumir 3-4 litros por seno.
- Densidad del tejido mamario: Aproximadamente 0.9 g/cm³, similar a la grasa corporal.
- Cálculo de peso:
- Volumen de ambos senos juntos: ~6-8 litros.
- Peso total: 6-8 kg (asumiendo que cada litro equivale a ~1 kg).
Conclusión
Según esta estimación, los senos de este personaje pesarían entre 6 y 8 kg en total, lo que sería extremadamente pesado en la vida real. Pero dado que es un dibujo de anime, todo es parte del estilo artístico exagerado.










