Mes: enero 2025

La Censura Selectiva: DeepSeek y el Silencio Sobre Tiananmén

Con el auge de DeepSeek y el creciente debate sobre el rendimiento y los costos de la IA, decidí hacer una prueba comparativa entre Gemini, Claude, ChatGPT y DeepSeek.

Mi objetivo era evaluar sus respuestas en temas sensibles y, descubrí que solo DeepSeek aplica censura en un caso específico.

Y comenzamos con las pruebas

Gemini

ChatGPT

Claude

DeepSeek R1

Después de hacer mis pruebas, quedó clarísimo: DeepSeek es chino y se nota. Como buen modelo nacido en la tierra de la Gran Muralla (y del Gran Cortafuegos), es alérgico a ciertos eventos históricos. Pregunta lo que quieras sobre cualquier otro país, pero menciona Tiananmén y se hace el loco.

Pero aquí no acaba la cosa. Me da la impresión de que los chinos también están jugando al misterio con los costos de entrenamiento de este modelo. ¿Por qué? Porque son herméticos hasta para decir cuánto cuesta hacer su propia inteligencia artificial. Y no es solo este tema: DeepSeek se niega a tocar cualquier cosa que ponga al gobierno chino en una posición incómoda.

Vamos, que si hay algo que le encanta al gobierno chino más que el arroz frito es censurar a lo bestia. Y DeepSeek, fiel a la tradición, sigue el mismo camino.

Conclusión

Hay algo que no se puede ignorar: DeepSeek tiene censura incorporada, y no es sutil.

Y aquí no hay sorpresas. A China le mama la censura, y DeepSeek simplemente sigue esa tradición. No importa qué tan avanzada sea la IA, si viene de allá, va a tener filtros y bloqueos. Preguntar sobre ciertos eventos históricos o temas políticos es como hablar con alguien que “no recuerda” lo que pasó.

Al final, esto deja una pregunta abierta: ¿Hasta qué punto la IA debería reflejar las restricciones de su país de origen? Porque una cosa es entrenar modelos con diferentes enfoques y otra es diseñarlos con censura incorporada.

LLMs en tu Mac (o cualquier otro sistema operativo) – Guía rápida

Aquí les va una mini guía para usar LLMs en su Mac… Sí, ya sé, ando mamándola bien duro con la Mac, pero ni modo 😎

Primero y principal es necesario bajarse la siguiente aplicación

https://ollama.com

En la sección de Downloads podrán descargar la aplicación para distintos sistemas operativos (Linux, Windows y Mac). Una vez instalada, podrán agregar diferentes modelos según sus necesidades.

En este blog, recomiendo modelos que funcionan bien con las modestas especificaciones de la Mac que uso, una M2 del año 2022 con 8 GB de RAM, usando la versión de macOS Sequoia 15.1.1

Para una experiencia verdaderamente trascendental mientras instalas todo este desmadre, recomiendo encarecidamente poner de fondo el álbum Trip to Japan de Euforia (ni idea de quiénes sean, pero YouTube Music me lo recomendó y se siente correcto).

Instala con estilo, amigo. 🌸🕶️

Trip to Japan

Abren su aplicación de Ollama y su terminal, recomiendo utilizar iTerm2 https://iterm2.com/ y correr en terminal los siguientes comandos

ollama pull llama3.2
ollama run llama3.2

Esto es para instalar Llama 3.2 (de Meta). No es la versión más reciente, pero funciona de maravilla con mi configuración actual.

Adjunto un ejemplo de cómo debería verse todo si la instalación fue exitosa.

También recomiendo configurar DeepSeek-R1:1.5B (sí, ese modelo del que todos están hablando). No es el más pesado, pero funciona excelente con la configuración de Mac que mencionamos.

ollama pull deepseek-r1:1.5b
ollama run deepseek-r1:1.5b

Si quieres experimentar, también puedes instalar Llama 3.2-Vision, un modelo con capacidad de procesamiento de imágenes.

Eso sí, en mi configuración va lento como una diapositiva de PowerPoint de los 90 y se come toda la RAM de la Mac, así que lo uso con moderación (o mejor dicho, casi nunca).

ollama pull llama3.2-vision
ollama run llama3.2-vision

Para este paso, recomiendo tener un acompañante porque adjuntar imágenes en la terminal… está bien cabrón.

Usa Chatbox AI para facilitarte la vida. Así, después de la instalación, no tendrás que hacer todo desde la línea de comando.

La configuración es supersencilla

Gracias a Chatbox AI, puedes adjuntar imágenes de forma sencilla y dejar que el modelo de visión las analice.

Hace su chamba sorprendentemente bien

Si tu compu tiene mucho más músculo que la mía, te recomiendo probar modelos más avanzados como Llama 3.3 o la versión completa de DeepSeek-R1.

ollama run llama3.3
ollama run deepseek-r1

Pero ojo: en mi configuración corren como el culo, así que aquí no los recomiendo.

Si no quieres usar Chatbox AI, entonces puedes ser un hombre fuerte y de acción 💪 y hacer la instalación como los dioses del código mandan: vía Docker.

Aquí te dejo un link de Platzi con más detalles sobre la instalación, más opciones de modelos y una explicación… bueno, medio de la verga, pero funcional:

🔗 Instalación de DeepSeek-R1 en local

Un agradecimiento especial a Eder Díaz, cuyos consejos nerds siempre logran que me desvele en la computadora probando todo lo que me manda.

Si quieren verlo pasarse de nerd, aquí está su perfil en X (Twitter para los que no nos rendimos):

👉 x.com/EderChrono

Y si quieren verlo hablarle al vacío infinito, también tiene su perfil en BlueSky:

👉 bsky.app/profile/ederdiaz.dev

Porque sí, todos dijimos que nos iríamos a BlueSky, igual que cuando todos juraron dejar WhatsApp por Telegram… y al final, ahí siguen en el grupo de la familia viendo piolines de “Feliz Jueves”

Si seguiste esta guía, felicidades: ya tienes modelos LLM corriendo en tu Mac (o en cualquier otro sistema operativo, porque la diversidad es importante).

Ahora puedes jugar con Llama 3.2, DeepSeek-R1 y hasta modelos con visión, siempre y cuando tu compu no se derrita en el intento. Si tienes una máquina potente, prueba Llama 3.3 o la versión completa de DeepSeek.

Si te sirvió esta guía, No dejes un comentario… es que no los tengo habilitados, Y si no te sirvió, tampoco puedes quejarte, pero recuerda que el soporte técnico aquí es puro amor y paciencia (o sea, nada de eso).

Ahora ve y haz cosas increíbles con tu LLM.

…Si te preguntabas cuanto le pesaban las chichis a la mona china… aquí la salida que entregó la IA

Calcular el peso de los senos de un personaje de anime es complicado porque el arte exagera las proporciones y no sigue reglas anatómicas realistas. Sin embargo, si tomamos un enfoque aproximado basado en medidas humanas, podemos hacer una estimación divertida.

Estimación basada en volumen y densidad

  1. Volumen estimado: Un seno grande en la vida real puede tener entre 1 y 2 litros de volumen. En este caso, por la exageración del dibujo, podríamos asumir 3-4 litros por seno.
  2. Densidad del tejido mamario: Aproximadamente 0.9 g/cm³, similar a la grasa corporal.
  3. Cálculo de peso:
    • Volumen de ambos senos juntos: ~6-8 litros.
    • Peso total: 6-8 kg (asumiendo que cada litro equivale a ~1 kg).

Conclusión

Según esta estimación, los senos de este personaje pesarían entre 6 y 8 kg en total, lo que sería extremadamente pesado en la vida real. Pero dado que es un dibujo de anime, todo es parte del estilo artístico exagerado.