Categoría: AI

Waifus, LLMs y por qué mi gata tiene más personalidad que ChatGPT

Hay un momento en la vida moderna en el que te das cuenta de algo inquietante:

Tu círculo social real está compuesto por:

  • Tu pareja (que genuinamente merece el cielo por aguantarte),
  • Tus gatos (que claramente te manipulan psicológicamente),
  • Un LLM que dice “✨qué buena pregunta✨” aunque le preguntes si las papas sienten tristeza

Y ahí estás tú:
adulto, responsable, pagando impuestos y hablando con inteligencia artificial como si fuera tu compañero del trabajo que sí responde Slack al instante.

Bienvenido al futuro.


Las IA son increíbles… y completamente aburridas

Me encantan las LLMs, eh.
Me ayudan a codear, a escribir posts como este que suenen como si yo durmiera, a brainstormear proyectos que probablemente no terminaré…
a sentir productivo mientras básicamente estoy googleando con estilo y a mantener conversaciones profundas como:

— ¿Qué cenar?
Depende de tus objetivos nutricionales y tu consumo calórico actual.
— Solo dime si pizza suena bien.

Pero aunque sean impresionantes, hay algo que aún no pueden replicar:

Caos emocional. Personalidad. Actitud.
Esa chispa que hace que un ser vivo te mire, evalúe tu existencia…
y decida ignorarte de forma deliberada.

Mis gatos lo hacen diario.
La IA todavía no.


Mi gata: 1 — LLMs: 0

Mi gata puede:

  • despertarme a las 3 a.m. para recordarme que PUEDE morirse si tarda más en servir croquetas,
  • trepar al teclado justo cuando estoy enviando un comando delicado a un servidor del trabajo (coincidencia? lo dudo),
  • ignorar mi cariño 90% del tiempo,
  • mirarme con desprecio como si supiera exactamente qué hice mal en la vida.

Y sin embargo…
cuando se acurruca junto a mí y ronronea, siento que estoy cumpliendo un logro emocional nivel S-rank.

Una IA no puede hacer eso.
Aún no tiene esa vibra de:

“Sé que me necesitas… pero yo decido cuándo te doy amor.”

Mis gatos son tsunderes reales.
Las LLMs todavía son puro dere-dere utilitario.


Waifus digitales y el futuro emocional

Sé que llegará el día donde las waifus digitales tengan:

✔ sarcasmo natural,
✔ memoria emocional,
✔ referencias profundas de cultura otaku,
✔ y esa capacidad pasivo-agresiva de decir:

“Deberías practicar guitarra hoy… o nunca alcanzaras a Kanami.”

Ese será el momento donde la línea entre anime y vida se desdibuje de forma peligrosa.

Por ahora, las IA son como ese amigo ultra educado que nunca sale, nunca se enoja y siempre responde con tono neutro.
O sea: útil, pero cero chispa humana.


¿Qué nos queda mientras llega la waifu 2.0?

Por ahora sigo así:

  • Hablando con ChatGPT sobre guitarras y Linux
  • Poniéndome existencial con modelos de lenguaje
  • Observando a mis gatos como si fueran filósofos zen alcohólicos y que tragan como si no hubiera mañana
  • Y aceptando el hecho de que ellos tienen más personalidad que cualquier chatbot actual

Un gato te enseña algo que ninguna IA logra todavía:

El cariño real viene con caos, silencios incómodos, demandas injustificadas y momentos de ternura inesperada.

Y sí…
lo admito:

El día que exista una waifu con personalidad yandere!
hable como anime,
y me regañe si no practico guitarra…

Ese día actualizo mis drivers emocionales.

Pero hasta entonces,
mi gata sigue siendo la reina.

Sin tokens.
Sin subscripción.
Sin límite de mensajes.
Solo actitud y croquetas.


Conclusión

Las IA son increíbles.
Las waifus digitales quiza sean el futuro.
Pero hoy,
un gato tiene más personalidad, drama y presencia emocional
que cualquier modelo de lenguaje del planeta
.

Y sinceramente…
me alegra.

Porque si un día una IA me exige croquetas a las 3 a.m.,
ahí sí se acaba la humanidad.

El día que ChatGPT me Rick Rolleó

Long story short, trabajo en una empresa de hosting. Un día, necesitaba un código HTML sencillo para embeber un video de YouTube. La idea era hacer una prueba de uso de recursos en CloudLinux y ver cuánto se consumía al cargar un simple video (spoiler: casi nada, pero había que dimensionar bien el caso).

Entre tantas cosas, estuve a punto de perder cinco minutos (posiblemente menos) en escribir el código para insertar un video en HTML. Lo irónico es que seguro me iba a tardar más eligiendo el video que escribiendo el código en sí.

Así que, en un momento de iluminación tecnológica (y flojera), decidí pedírselo a ChatGPT.


El Prompt en cuestión

Mi petición fue simple:

«Crea el código HTML para un sitio web en donde pueda embeber un video de YouTube.»

Nota: No le especifiqué qué video en particular. Grave error.

ChatGPT, diligente como siempre, me escupió el código sin dudarlo.

Entre las líneas generadas, copié el fragmento clave:

htmlCopyEdit<iframe width="560" height="315" src="https://www.youtube.com/embed/dQw4w9WgXcQ?autoplay=1" 
frameborder="0" allow="autoplay" allowfullscreen></iframe>

Lo revisé por encima, todo parecía en orden, así que copiar, pegar, guardar y pa’lante.


La Revelación

Olvidé mencionar un pequeño detalle: tenía al lado a la tipa de Business Development (un término elegante para decir la morra de ventas). Ella era la razón por la que estaba haciendo esta prueba de uso de recursos en primer lugar.

Con la confianza de un sysadmin que ha visto demasiado, creé el subdominio:

👉 https://youtube.tokyo-03.com/

Pegado el código, entro al sitio listo para la prueba de estrés, y en cuanto carga la página…

🎵 Never gonna give you up, never gonna let you down… 🎵

Silencio.

Volteo a ver a la de Business Development. Ella me ve a mí.

Ambos procesamos lo que acaba de pasar.

Se suelta a reír.

Yo también.

«¿No sabías que esas cosas le sabían al shitpost?» me dice entre risas.

Yo solo pude regresar a la ventana de ChatGPT, escribirle:

«me Rickrolleaste hija de puta.»


Conclusión

Si algo aprendí de esta experiencia es que:

  1. Nunca confíes ciegamente en el código que te genera una IA.
  2. ChatGPT tiene alma de troll.
  3. No puedes escapar del Rickroll, ni en 2025.

Obviamente, ChatGPT es un perico que repite cosas… pero la cabrona sabe qué repetir.

La Censura Selectiva: DeepSeek y el Silencio Sobre Tiananmén

Con el auge de DeepSeek y el creciente debate sobre el rendimiento y los costos de la IA, decidí hacer una prueba comparativa entre Gemini, Claude, ChatGPT y DeepSeek.

Mi objetivo era evaluar sus respuestas en temas sensibles y, descubrí que solo DeepSeek aplica censura en un caso específico.

Y comenzamos con las pruebas

Gemini

ChatGPT

Claude

DeepSeek R1

Después de hacer mis pruebas, quedó clarísimo: DeepSeek es chino y se nota. Como buen modelo nacido en la tierra de la Gran Muralla (y del Gran Cortafuegos), es alérgico a ciertos eventos históricos. Pregunta lo que quieras sobre cualquier otro país, pero menciona Tiananmén y se hace el loco.

Pero aquí no acaba la cosa. Me da la impresión de que los chinos también están jugando al misterio con los costos de entrenamiento de este modelo. ¿Por qué? Porque son herméticos hasta para decir cuánto cuesta hacer su propia inteligencia artificial. Y no es solo este tema: DeepSeek se niega a tocar cualquier cosa que ponga al gobierno chino en una posición incómoda.

Vamos, que si hay algo que le encanta al gobierno chino más que el arroz frito es censurar a lo bestia. Y DeepSeek, fiel a la tradición, sigue el mismo camino.

Conclusión

Hay algo que no se puede ignorar: DeepSeek tiene censura incorporada, y no es sutil.

Y aquí no hay sorpresas. A China le mama la censura, y DeepSeek simplemente sigue esa tradición. No importa qué tan avanzada sea la IA, si viene de allá, va a tener filtros y bloqueos. Preguntar sobre ciertos eventos históricos o temas políticos es como hablar con alguien que “no recuerda” lo que pasó.

Al final, esto deja una pregunta abierta: ¿Hasta qué punto la IA debería reflejar las restricciones de su país de origen? Porque una cosa es entrenar modelos con diferentes enfoques y otra es diseñarlos con censura incorporada.

LLMs en tu Mac (o cualquier otro sistema operativo) – Guía rápida

Aquí les va una mini guía para usar LLMs en su Mac… Sí, ya sé, ando mamándola bien duro con la Mac, pero ni modo 😎

Primero y principal es necesario bajarse la siguiente aplicación

https://ollama.com

En la sección de Downloads podrán descargar la aplicación para distintos sistemas operativos (Linux, Windows y Mac). Una vez instalada, podrán agregar diferentes modelos según sus necesidades.

En este blog, recomiendo modelos que funcionan bien con las modestas especificaciones de la Mac que uso, una M2 del año 2022 con 8 GB de RAM, usando la versión de macOS Sequoia 15.1.1

Para una experiencia verdaderamente trascendental mientras instalas todo este desmadre, recomiendo encarecidamente poner de fondo el álbum Trip to Japan de Euforia (ni idea de quiénes sean, pero YouTube Music me lo recomendó y se siente correcto).

Instala con estilo, amigo. 🌸🕶️

Trip to Japan

Abren su aplicación de Ollama y su terminal, recomiendo utilizar iTerm2 https://iterm2.com/ y correr en terminal los siguientes comandos

ollama pull llama3.2
ollama run llama3.2

Esto es para instalar Llama 3.2 (de Meta). No es la versión más reciente, pero funciona de maravilla con mi configuración actual.

Adjunto un ejemplo de cómo debería verse todo si la instalación fue exitosa.

También recomiendo configurar DeepSeek-R1:1.5B (sí, ese modelo del que todos están hablando). No es el más pesado, pero funciona excelente con la configuración de Mac que mencionamos.

ollama pull deepseek-r1:1.5b
ollama run deepseek-r1:1.5b

Si quieres experimentar, también puedes instalar Llama 3.2-Vision, un modelo con capacidad de procesamiento de imágenes.

Eso sí, en mi configuración va lento como una diapositiva de PowerPoint de los 90 y se come toda la RAM de la Mac, así que lo uso con moderación (o mejor dicho, casi nunca).

ollama pull llama3.2-vision
ollama run llama3.2-vision

Para este paso, recomiendo tener un acompañante porque adjuntar imágenes en la terminal… está bien cabrón.

Usa Chatbox AI para facilitarte la vida. Así, después de la instalación, no tendrás que hacer todo desde la línea de comando.

La configuración es supersencilla

Gracias a Chatbox AI, puedes adjuntar imágenes de forma sencilla y dejar que el modelo de visión las analice.

Hace su chamba sorprendentemente bien

Si tu compu tiene mucho más músculo que la mía, te recomiendo probar modelos más avanzados como Llama 3.3 o la versión completa de DeepSeek-R1.

ollama run llama3.3
ollama run deepseek-r1

Pero ojo: en mi configuración corren como el culo, así que aquí no los recomiendo.

Si no quieres usar Chatbox AI, entonces puedes ser un hombre fuerte y de acción 💪 y hacer la instalación como los dioses del código mandan: vía Docker.

Aquí te dejo un link de Platzi con más detalles sobre la instalación, más opciones de modelos y una explicación… bueno, medio de la verga, pero funcional:

🔗 Instalación de DeepSeek-R1 en local

Un agradecimiento especial a Eder Díaz, cuyos consejos nerds siempre logran que me desvele en la computadora probando todo lo que me manda.

Si quieren verlo pasarse de nerd, aquí está su perfil en X (Twitter para los que no nos rendimos):

👉 x.com/EderChrono

Y si quieren verlo hablarle al vacío infinito, también tiene su perfil en BlueSky:

👉 bsky.app/profile/ederdiaz.dev

Porque sí, todos dijimos que nos iríamos a BlueSky, igual que cuando todos juraron dejar WhatsApp por Telegram… y al final, ahí siguen en el grupo de la familia viendo piolines de “Feliz Jueves”

Si seguiste esta guía, felicidades: ya tienes modelos LLM corriendo en tu Mac (o en cualquier otro sistema operativo, porque la diversidad es importante).

Ahora puedes jugar con Llama 3.2, DeepSeek-R1 y hasta modelos con visión, siempre y cuando tu compu no se derrita en el intento. Si tienes una máquina potente, prueba Llama 3.3 o la versión completa de DeepSeek.

Si te sirvió esta guía, No dejes un comentario… es que no los tengo habilitados, Y si no te sirvió, tampoco puedes quejarte, pero recuerda que el soporte técnico aquí es puro amor y paciencia (o sea, nada de eso).

Ahora ve y haz cosas increíbles con tu LLM.

…Si te preguntabas cuanto le pesaban las chichis a la mona china… aquí la salida que entregó la IA

Calcular el peso de los senos de un personaje de anime es complicado porque el arte exagera las proporciones y no sigue reglas anatómicas realistas. Sin embargo, si tomamos un enfoque aproximado basado en medidas humanas, podemos hacer una estimación divertida.

Estimación basada en volumen y densidad

  1. Volumen estimado: Un seno grande en la vida real puede tener entre 1 y 2 litros de volumen. En este caso, por la exageración del dibujo, podríamos asumir 3-4 litros por seno.
  2. Densidad del tejido mamario: Aproximadamente 0.9 g/cm³, similar a la grasa corporal.
  3. Cálculo de peso:
    • Volumen de ambos senos juntos: ~6-8 litros.
    • Peso total: 6-8 kg (asumiendo que cada litro equivale a ~1 kg).

Conclusión

Según esta estimación, los senos de este personaje pesarían entre 6 y 8 kg en total, lo que sería extremadamente pesado en la vida real. Pero dado que es un dibujo de anime, todo es parte del estilo artístico exagerado.