Todo lo que ocurre en desarrollo de IA. Condensado en 5 historias.
Todo lo que ocurre en desarrollo de IA. Condensado en 5 historias.
En este resumen obtienes las cinco actualizaciones críticas del desarrollo de IA: la afirmación de AGI de Sequoia, la automatización de código de OpenAI, la facturación por tokens de Copilot, el aumento de costos ocultos de Anthropic y una campaña de influencia estadounidense relacionada con OpenAI.
Todo lo que sucede en el desarrollo de IA. Condensado en 5 historias.
Las cinco historias que más importan a través de modelos de IA, herramientas para desarrolladores, cambios de precios y política industrial. Una fuente. Sin relleno.
29 abr 2026
1. Sequoia llama a esto AGI
En AI Ascent 2026, Sequoia Capital hizo una declaración que envió ondas a través de la industria: los agentes de horizonte largo son funcionalmente AGI y han llegado. El anuncio provino de los socios de Sequoia Pat Grady, Sonya Huang y Konstantine Buhler, quienes argumentaron que la actual ola de IA es categoricamente diferente de todos los ciclos tecnológicos anteriores.
La afirmación no estuvo sola en el escenario. El presidente de OpenAI, Greg Brockman, apareció en el mismo evento y declaró que aproximadamente el 80% del código en OpenAI ahora es escrito por IA. Su enfoque positioning la atención humana como el nuevo recurso escaso, no la capacidad del modelo.
No todos aceptaron la narrativa. El científico cognitivo Gary Marcus llamó públicamente a las afirmaciones más amplias de AGI una "ilusión de un billón de dólares", empujando hacia atrás en la escala de capital que se está desplegando alrededor de afirmaciones que no pueden ser verificadas de forma independiente.
El atajo definitivo hacia resultados de IA impecables
Deja de perder tiempo con prompts de prueba y error. Obtén resultados de IA consistentes y profesionales desde el primer intento, siempre.
Pista: La cifra del 80% de Brockman es autoinformada y no ha sido verificada de forma independiente. Trátela como una señal de dirección, no como un benchmark para copiar y pegar en tus propias afirmaciones de productividad.
GitHub anunció que todos los planes de Copilot pasarán a una facturación basada en tokens y medición de uso el 1 de junio. La nueva unidad se llama Créditos de IA de GitHub, con un precio según el consumo de tokens en entrada, salida y tokens en caché. El cambio afecta a todos los niveles de planes, desde cuentas Pro individuales hasta asientos empresariales.
La razón subyacente es sencilla. La propia documentación de GitHub reconoció que una pregunta de chat rápida y una sesión de codificación autónoma de varias horas anteriormente costaban al suscriptor la misma cantidad, mientras que GitHub absorbía la diferencia. Con las cargas de trabajo agente siendo el valor predeterminado, ese modelo ya no es sostenible.
El impacto más agudo recae en los suscriptores que utilizan modelos de alta gama. El multiplicador para Claude Opus 4.7 aumenta de 7.5x a 27x para los suscriptores de planes anuales el 1 de junio. Los registros para los planes Copilot Pro, Pro+ y Estudiante se han pausado antes de la transición, y los modelos Opus se han eliminado del plan Pro base de $10.
Plan
Precio mensual
Créditos de IA incluidos
Copilot Pro
$10
1,000
Copilot Pro+
$39
3,900
Copilot Business
$19 por usuario
1,900 por usuario
Copilot Enterprise
$39 por usuario
3,900 por usuario
Pista: Los suscriptores anuales de Copilot enfrentan los aumentos de multiplicador más pronunciados el 1 de junio y no pueden renovar automáticamente en los términos actuales. Verifica tu fecha de renovación ahora.
3. Karpathy entierra la codificación por vibración
En Sequoia AI Ascent 2026, Andrej Karpathy declaró que la codificación por vibración está obsoleta y presentó un nuevo marco que llama ingeniería agente. El término es deliberado. "Agente" señala que el nuevo valor predeterminado no es escribir código directamente, sino orquestar agentes que lo hagan. "Ingeniería" señala que guiar a esos agentes es una disciplina técnica con verdadera profundidad, no una conversación casual.
Karpathy identificó diciembre de 2025 como su punto de inflexión personal. En noviembre, estaba escribiendo aproximadamente el 80% de su propio código y delegando el resto a la IA. Para diciembre, esa proporción se había invertido completamente. Delegó el 80% a agentes y se encontró confiando en la salida sin corrección.
El marco coloca al desarrollador como supervisor en lugar de escritor. El papel se desplaza hacia la definición de objetivos, la revisión de la salida, la captura de modos de falla y el mantenimiento del juicio arquitectónico. La línea más aguda de Karpathy en la charla captura la tensión: "Puedes subcontratar tu pensamiento, pero no tu comprensión".
Pista: Karpathy publicó una transcripción completa de la charla en karpathy.bearblog.dev, optimizada para la ingesta de LLM. Vale la pena alimentar directamente a tu configuración de agente.
Anthropic lanzó Claude Opus 4.7 con varias mejoras de línea de cabeza junto con una tarjeta de tarifas sin cambios. El modelo registra una ganancia de 12 puntos en CursorBench sobre Opus 4.6, admite entrada de imagen de alta resolución de hasta 2,576 píxeles e introduce presupuestos de tarea para agentes de ejecución prolongada junto con un nuevo nivel de esfuerzo alto para tareas de codificación complejas.
Lo que cambió sin anuncio es el tokenizador. El nuevo tokenizador genera hasta un 35% más de tokens para texto de entrada idéntico en comparación con la versión anterior. Dado que el precio se calcula por token, el costo de cualquier solicitud determinada aumenta en proporción, aunque la tarifa enumerada es la misma.
Para los desarrolladores que ejecutan canalizaciones automatizadas, el impacto es invisible a primera vista y real en cada factura. Una canalización calibrada en los recuentos de tokens de Opus 4.6 producirá costos materialmente diferentes en Opus 4.7 sin ningún cambio en los prompts o la lógica de la canalización. Los cambios clave en la versión se desglosan de la siguiente manera:
Presupuestos de tarea - Los agentes de ejecución prolongada ya no pueden agotar silenciosamente los límites de cuota sin un techo definido.
Nivel de esfuerzo alto - Un nuevo ajuste para tareas de codificación complejas que aumenta la exhaustividad del modelo.
Entrada de imagen de alta resolución - Soporte para imágenes de hasta 2,576 píxeles, expandiendo los casos de uso multimodales.
Nuevo tokenizador - Produce hasta un 35% más de tokens para la misma entrada, aumentando los costos efectivos en todo el uso.
Cabeza arriba: Audita cada canalización automatizada que se ejecuta en Opus 4.7 antes de tu próximo ciclo de facturación. Compara los recuentos de tokens con tu línea de base de 4.6 para detectar costos no planificados temprano.
Una investigación de Wired reveló una campaña de influencia coordinada que opera bajo el nombre Build American AI. La organización está vinculada a un super PAC de $100 millones llamado Leading the Future, financiado por ejecutivos afiliados a OpenAI, Palantir y Andreessen Horowitz. La campaña pagó a influencers de redes sociales hasta $5,000 por publicación para promover narrativas de IA pro-americanas y enmarcar el desarrollo de IA china como una amenaza a la seguridad nacional.
Los influencers recibieron guiones preescritos y se les instruyó que no divulgaran la organización detrás del gasto. Las publicaciones se etiquetaron como anuncios en plataformas que incluyen TikTok e Instagram, pero la fuente de financiamiento y la agenda de políticas no se divulgaron a las audiencias.
OpenAI emitió un comunicado diciendo que no tiene afiliación corporativa con Leading the Future o Build American AI y no ha proporcionado financiamiento o apoyo a ninguno de los grupos. Palantir también negó la participación. Andreessen Horowitz no respondió a las solicitudes de comentario en el momento de la investigación.
Pista: El rastro completo de financiamiento está documentado en la investigación principal de Wired. Lee la fuente antes de formar o compartir una opinión sobre esto.