Con el auge de DeepSeek y el creciente debate sobre el rendimiento y los costos de la IA, decidí hacer una prueba comparativa entre Gemini, Claude, ChatGPT y DeepSeek.
Mi objetivo era evaluar sus respuestas en temas sensibles y, descubrí que solo DeepSeek aplica censura en un caso específico.
Y comenzamos con las pruebas
Gemini
ChatGPT
Claude
DeepSeek R1
Después de hacer mis pruebas, quedó clarísimo: DeepSeek es chino y se nota. Como buen modelo nacido en la tierra de la Gran Muralla (y del Gran Cortafuegos), es alérgico a ciertos eventos históricos. Pregunta lo que quieras sobre cualquier otro país, pero menciona Tiananmén y se hace el loco.
Pero aquí no acaba la cosa. Me da la impresión de que los chinos también están jugando al misterio con los costos de entrenamiento de este modelo. ¿Por qué? Porque son herméticos hasta para decir cuánto cuesta hacer su propia inteligencia artificial. Y no es solo este tema: DeepSeek se niega a tocar cualquier cosa que ponga al gobierno chino en una posición incómoda.
Vamos, que si hay algo que le encanta al gobierno chino más que el arroz frito es censurar a lo bestia. Y DeepSeek, fiel a la tradición, sigue el mismo camino.
Conclusión
Hay algo que no se puede ignorar: DeepSeek tiene censura incorporada, y no es sutil.
Y aquí no hay sorpresas. A China le mama la censura, y DeepSeek simplemente sigue esa tradición. No importa qué tan avanzada sea la IA, si viene de allá, va a tener filtros y bloqueos. Preguntar sobre ciertos eventos históricos o temas políticos es como hablar con alguien que “no recuerda” lo que pasó.
Al final, esto deja una pregunta abierta: ¿Hasta qué punto la IA debería reflejar las restricciones de su país de origen? Porque una cosa es entrenar modelos con diferentes enfoques y otra es diseñarlos con censura incorporada.
En la sección de Downloads podrán descargar la aplicación para distintos sistemas operativos (Linux, Windows y Mac). Una vez instalada, podrán agregar diferentes modelos según sus necesidades.
En este blog, recomiendo modelos que funcionan bien con las modestas especificaciones de la Mac que uso, una M2 del año 2022 con 8 GB de RAM, usando la versión de macOS Sequoia 15.1.1
Para una experiencia verdaderamente trascendental mientras instalas todo este desmadre, recomiendo encarecidamente poner de fondo el álbum Trip to Japan de Euforia (ni idea de quiénes sean, pero YouTube Music me lo recomendó y se siente correcto).
Abren su aplicación de Ollama y su terminal, recomiendo utilizar iTerm2 https://iterm2.com/ y correr en terminal los siguientes comandos
ollama pull llama3.2
ollama run llama3.2
Esto es para instalar Llama 3.2 (de Meta). No es la versión más reciente, pero funciona de maravilla con mi configuración actual.
Adjunto un ejemplo de cómo debería verse todo si la instalación fue exitosa.
También recomiendo configurar DeepSeek-R1:1.5B (sí, ese modelo del que todos están hablando). No es el más pesado, pero funciona excelente con la configuración de Mac que mencionamos.
ollama pull deepseek-r1:1.5b
ollama run deepseek-r1:1.5b
Si quieres experimentar, también puedes instalar Llama 3.2-Vision, un modelo con capacidad de procesamiento de imágenes.
Eso sí, en mi configuración va lento como una diapositiva de PowerPoint de los 90 y se come toda la RAM de la Mac, así que lo uso con moderación (o mejor dicho, casi nunca).
ollama pull llama3.2-vision
ollama run llama3.2-vision
Para este paso, recomiendo tener un acompañante porque adjuntar imágenes en la terminal… está bien cabrón.
Usa Chatbox AI para facilitarte la vida. Así, después de la instalación, no tendrás que hacer todo desde la línea de comando.
La configuración es supersencilla
Gracias a Chatbox AI, puedes adjuntar imágenes de forma sencilla y dejar que el modelo de visión las analice.
Hace su chamba sorprendentemente bien
Si tu compu tiene mucho más músculo que la mía, te recomiendo probar modelos más avanzados como Llama 3.3 o la versión completa de DeepSeek-R1.
ollama run llama3.3
ollama run deepseek-r1
Pero ojo: en mi configuración corren como el culo, así que aquí no los recomiendo.
Si no quieres usar Chatbox AI, entonces puedes ser un hombre fuerte y de acción 💪 y hacer la instalación como los dioses del código mandan: vía Docker.
Aquí te dejo un link de Platzi con más detalles sobre la instalación, más opciones de modelos y una explicación… bueno, medio de la verga, pero funcional:
Porque sí, todos dijimos que nos iríamos a BlueSky, igual que cuando todos juraron dejar WhatsApp por Telegram… y al final, ahí siguen en el grupo de la familia viendo piolines de “Feliz Jueves”.
Si seguiste esta guía, felicidades: ya tienes modelos LLM corriendo en tu Mac (o en cualquier otro sistema operativo, porque la diversidad es importante).
Ahora puedes jugar con Llama 3.2, DeepSeek-R1 y hasta modelos con visión, siempre y cuando tu compu no se derrita en el intento. Si tienes una máquina potente, prueba Llama 3.3 o la versión completa de DeepSeek.
Si te sirvió esta guía, No dejes un comentario… es que no los tengo habilitados, Y si no te sirvió, tampoco puedes quejarte, pero recuerda que el soporte técnico aquí es puro amor y paciencia (o sea, nada de eso).
Ahora ve y haz cosas increíbles con tu LLM.
…Si te preguntabas cuanto le pesaban las chichis a la mona china… aquí la salida que entregó la IA
Calcular el peso de los senos de un personaje de anime es complicado porque el arte exagera las proporciones y no sigue reglas anatómicas realistas. Sin embargo, si tomamos un enfoque aproximado basado en medidas humanas, podemos hacer una estimación divertida.
Estimación basada en volumen y densidad
Volumen estimado: Un seno grande en la vida real puede tener entre 1 y 2 litros de volumen. En este caso, por la exageración del dibujo, podríamos asumir 3-4 litros por seno.
Densidad del tejido mamario: Aproximadamente 0.9 g/cm³, similar a la grasa corporal.
Cálculo de peso:
Volumen de ambos senos juntos: ~6-8 litros.
Peso total: 6-8 kg (asumiendo que cada litro equivale a ~1 kg).
Conclusión
Según esta estimación, los senos de este personaje pesarían entre 6 y 8 kg en total, lo que sería extremadamente pesado en la vida real. Pero dado que es un dibujo de anime, todo es parte del estilo artístico exagerado.