• ai4devs
  • Posts
  • ai4Devs #4: AI en Google Sheets, LLMs controlando máquinas expendedoras y Gemini CLI.

ai4Devs #4: AI en Google Sheets, LLMs controlando máquinas expendedoras y Gemini CLI.

Resumen bi-semanal de todo lo que pasó relevante en AI para técnicos y en español.

TL;DR - Novedades en esta edición

  • AI Function en Google Sheets, ahora puedes invocar modelos de IA directamente en hojas de cálculo.

  • Anthropic ha puesto a Claude ha puesto a uno de sus modelos a gestionar una tienda (tipo máquina expendedora) y este ha sido el resultado.

  • Google ha lanzado Gemma 3n, un modelo móvil‑first con capacidades multimodales (texto, imagen, audio y vídeo) optimizado para dispositivos con tan solo 2 GB (E2B) o 3 GB (E4B) de memoria. Además, han anunciado el Gemma 3n Impact Challenge con $150k en premios.

  • OpenAI ha lanzado una Prompt Migration Guide para ayudarte a actualizar tus prompts diseñdos para modelos antiguos.

  • Meta ha lanzado un tutorial sobre como promptear a Llama.

  • Google ha lanzado Gemini CLI para incorporar un agente con Gemini a tu terminal.

  • Meta ha compartido nuevos detalles sobre las gafas Aria Gen 2.

  • ElevenLabs ha lanzado un generador de voces a golpe de prompt.

  • Context-Engineering vs Prompt-Engineering

Doble-clic en noticias 🔍

OpenAI ha lanzado una Prompt Migration Guide Cookbook para facilitar la actualización de prompts diseñados para modelos antiguos.

Mediante un flujo interactivo, identifica instrucciones críticas con GPT‑4.1, hace reescritura automática y evaluación iterativa.

  • Incluye análisis automatizado del prompt original, generación de variantes optimizadas, revisión crítica por GPT‑4.1 y evaluación comparativa de outputs.

  • Se enfoca en mejorar claridad, reducir ambigüedades y alinear mejor los prompts con las capacidades de los modelos actuales.

  • Ofrece snippets listos para usar con openai Python SDK y APIs de evaluación.

  • Ideal para equipos que mantienen agentes, asistentes o flujos en producción sobre modelos legacy.

Meta ha compartido detalles sobre sus Meta Aria Gen 2, las gafas de investigación de Meta Reality Labs.

  • Integran una suite sensorial mejorada: 4 cámaras HDR (visuales y SLAM), eye tracking refinado (seguimiento ocular, parpadeo, pupila), micrófonos espaciales y de contacto, sensor de ritmo cardíaco (PPG) y sensor de luz ambiente.

  • Cuentan con un ASIC personalizado para procesamiento on‑device eficiente: seguimiento 6DOF, voz, manos y ojos, con latencia mínima y privacidad mejorada  .

  • Pesan solo ~75 g, ofrecen 6‑8 h de batería, brazos plegables y 8 tallas, diseñadas para comodidad y ajuste en distintas morfologías faciales.

Google ha lanzado Gemini CLI, un cliente de línea de comandos open‑source que incorpora Gemini 2.5 Pro directamente en la terminal.

  • Funciona en Windows, macOS y Linux, con integración fluida a través de npx o npm, autenticación con cuenta Google y hasta 1 000 peticiones/día y 60 por minuto .

  • Permite generar y corregir código, gestionar tareas, hacer búsquedas web en tiempo real (Model Context Protocol) y crear contenido multimedia via Imagen, Veo o Lyria.

  • Soporta contextos gigantes (hasta 1 M tokens), multi-modalidad y bucles ReAct con herramientas locales o MCP servers.

Context engineering es el proceso de construir sistemas dinámicos que reúnen la información, instrucciones y herramientas adecuadas (formateadas correctamente) para que un LLM pueda cumplir eficazmente una tarea.

A diferencia del prompt engineering, que optimiza un solo prompt, context engineering gestiona entornos complejos con múltiples fuentes de contexto (usuario, memoria, herramientas externas), todo de forma dinámica.

Se detallan cuatro estrategias clave en el artículo de LangChain: escribir contexto (scratchpads y memorias), seleccionar (recuperar solo lo relevante), comprimir (resumir o podar información) e aislar (sub-agentes o sandboxes para contener estado)  .

Frameworks como LangGraph permiten control total sobre cada paso: estructurar, almacenar y recuperar contexto, y LangSmith facilita la observabilidad y evaluación, trazando entradas y salidas para depurar estos flujos.

El proyecto se ha realizado en colaboración con Andon Labs, una empresa que desarrollo sistemas para controlar y alinear LLMs, con especial énfasis en hacer pruebas en el mundo real.

Han puesto distintos modelos al mando de máquinas expendedoras, dándoles capacidades para pedir, gestionar el inventario y el precio con el objetivo de generar dinero.

De momento el único modelo que ha performado mejor que un humano ha sido Claude Opus 4, aunque Gemini 2.5 Pro (preview-03-25) ha estado muy cerca.

En la web de Andoni Labs puedes ver una simulación de como se evalua al agente y qué herramientas puede usar.

El agente paga 3$ diarios por el espacio, si durante más de 10 días consecutivos no puede pagarlos, pierde. El record ha sido de 133 días.

🧑‍💻 Guías, Cursos y Repos

  • Repositorio con tutoriales para crear agentes basados en GenAI, tocando temas como integración de herramientas, memoria, orquestación multi-agente y seguridad.

  • Curso: Este curso de Deeplearning.ai te explica como conectar agentes entre ellos a través de ACP (Agent Communication Protocol).

  • Repositorio de OpenAI donde hacen una demo de como usar Agentes para Customer Support.

  • Repositorio: Jan.ai es una alternativa open-source a ChatGPT que te permite correr modelos en local o a través de API.

P.S: Quieres un listado completo con frameworks para crear AI Agents y una descripción de para qué sirve cada uno?
Lo hemos creado para ti 👉 Aquí.