• ai4devs
  • Posts
  • AI4Devs #3: La API de v0, Codex, Gemini 2.5 Flash-lite y Cursor.

AI4Devs #3: La API de v0, Codex, Gemini 2.5 Flash-lite y Cursor.

Resumen bi-semanal de todo lo que pasó relevante en AI para técnicos y en español.

TL;DR - Novedades Esenciales

  • OpenAI ha reducido el precio de o3 un 80% y ha lanzado 03-pro en su API.

  • v0 de Vercel ahora está disponible via API y puedes integrarlo directamente en Cursor.

  • OpenAI ha lanzado a través de su API y Playground la posibilidad de guardar y reusar prompts.

  •  Anthropic ha publicado un artículo contando como han creado su funcionalidad de Research con un sistema multi-agente.

  • Investigadores del MIT han publicado un framework llamado Self-Adapting-LLMs que permite a los LLMs auto-entrenarse a tráves de aprendizaje por refuerzo.

  • Codex de OpenAI ha lanzado la posibilidad de generar multiples respuestas a una misma tarea de forma simultanea.

  • Google ha lanzado Gemini 2.5 Flash-Lite, el más económico de la gama 2.5.

👉 Más abajo encontrarás tutoriales para añadir la API de v0 a Cursor, entrevistas, herramientas open-source, un vídeo sobre cómo elegir un LLM y más.

Algunas noticias más🔍

Cómo elegir un LLM: Este vídeo te ayuda a entender cómo comparar LLMs según sus caracteristicas, así como a poder correrlos localmente usando Granite, Ollama y Rag.

ask-human MCP: Este Developer de 19 años ha creado un MCP que evita alucinaciones, dándole a un agente de código como el de cursor o windsurf la posibilidad de hacernos preguntas.

Seguridad en los LLMs: Este artículo te da una visión sobre cómo proteger sistemas con LLMs frente a ataques como prompt injection, model poisoning o filtrado de datos. Menciona escaneres como Garak para testear modelos y encontrar fallos comunes en sus instrucciones, además de sanitizar inputs, controlar prompts, clasificar outputs…

El CEO de Cursor y los cuellos de botella de la IA: Esta semana pasada Michael Truell, CEO de Cursor, hizo una entrevista con YC. En la misma habló de los cuellos de botella de la agentes de IA actualmente. Mencionó ventanas de contexto y aprendizaje continuo, ingesta de contexto por parte de los modelos y poder hacer tareas de forma sostenida a lo largo del tiempo.

o3-pro y la necesidad de contexto: OpenAI presentó o3-pro hace unos días, un modelo de razonamiento con ventanas de 200k tokens. Latent.Space compartió un artículo interesante explicando que sin suficiente contexto, puede sobre-analizar, pero en escenarios complejos supera a Opus y Gemini al combinar análisis profundo con capacidad de acción.

Para saber más y cacharrear 🧑‍💻

Demos & Tutorials:
  • Tutorial para integrar la API de v0 en Cursor en 3 minutos.

  • DeepLearning.ai ha lanzado un curso sobre orquestación de workflows en aplicaciones con GenAI usando Airflow.

  • Aprende a desplegar un servidor MCP en Google Cloud Run

Tools & Repos:
  • Tensorzero: Esta herramienta open-source te permite acceder distintos proveedores de LLMs desde una misma API e incluye funciones de obersvabilidad, optimizaciuón y evaluaciones.

  • Vosk API: Este toolkit de reconocimiento de voz funciona sin internet y convierte voz a texto. Es compatible con Linux, Windows, MacOS, Android i Raspberry Pi.

  • Claude for Sheets: Una extensión de chrome para integrar a Claude en tus hojas de google sheets.