Benchmarking · Abril 2026 · Uso interno

Modelos de lenguaje en entornos corporativos

De piloto a producción: casos verificados 2024–2026
Perspectiva para Gerentes de Personas en industrias de contenido
8 casos en producción KPIs verificados América del Norte · Europa · Asia · LATAM Sección dedicada: sector editorial Foco: Bertelsmann / PRH
71% organizaciones con IA generativa en operaciones
USD 37B gasto en IA generativa corporativa en 2025
8 casos en producción documentados
76% empresas compran (buy) en lugar de construir (build)
01

Resumen ejecutivo

Este informe responde una pregunta concreta: ¿qué hicieron las organizaciones que ya tienen IA para perfeccionar sus procesos internos, en producción con sus equipos, sus roles y su cultura? Hoy la tecnología es el vehículo. Lo que importa aquí es qué cambió en la forma de trabajar, quién asumió ese cambio, cómo se comunicó e integró y qué obstáculos se encontraron en el camino.

El patrón más consistente en los ocho casos documentados: el modelo de adopción importa más que el modelo de lenguaje. JPMorgan onboardeó 200.000 personas en ocho meses sin mandato. Deloitte está certificando 15.000 profesionales en una herramienta específica — esa certificación ya forma parte del perfil del rol, no es un curso opcional. Walmart anunció en abril de 2026 que formará en IA a sus 2,1 millones de empleados.

Para industrias de contenido, el conflicto es más pronunciado que en banca o retail. El activo central — la creación, la curaduría, el criterio editorial — es exactamente lo que los modelos generativos prometen automatizar. Pero los casos que funcionan muestran algo más granular: la IA no está entrando por la puerta del contenido editorial. Está entrando por marketing, traducción, gestión de datos de ventas y operaciones de backoffice.

Bertelsmann — la casa matriz de Penguin Random House — ya tiene ChatGPT Enterprise desplegado para sus ~75.000 empleados en 50 países, un sistema multi-agente propio en producción para búsqueda transversal de contenidos, y un AI Hub activo coordinando implementaciones en todas sus divisiones. PRH específicamente opera BookBoost, una plataforma propietaria que automatiza publicidad digital. La pregunta para esta organización no es si adoptar — es cómo gestionar el cambio para los equipos que ya están siendo afectados.
Las métricas sin etiqueta tienen trazabilidad directa a fuentes primarias (earnings calls, comunicados oficiales, casos publicados por proveedores). [Sin verificar] indica que la cifra circula en medios pero no fue confirmada por la empresa. [Inferencia] indica una conclusión lógica derivada de datos verificados, no un dato directo.
02

Contexto de mercado

En 2023, la conversación era sobre experimentación. En 2025, el 71% de las organizaciones usa IA generativa de forma regular en sus operaciones. El gasto pasó de USD 11,5 mil millones en 2024 a USD 37 mil millones en 2025 — una multiplicación por tres en un año. El dinero ya no va a POCs: va a infraestructura de producción.

71%
usa IA generativa regularmente
Menlo Ventures 2025
crecimiento gasto IA corporativa 2024–2025
USD 11,5B → USD 37B
81%
empresas usa ≥3 familias de modelos simultáneamente
a16z, feb 2026
800M
usuarios semanales ChatGPT a nov 2025
OpenAI (verificado)
Cuota de mercado enterprise LLMs · 2025 (Menlo Ventures)
Anthropic
40%
OpenAI
27%
Google
~20%
Otros
~13%
Dos datos estructurales: El 81% de las empresas usa tres o más familias de modelos en producción simultáneamente — el modelo único de proveedor único dejó de ser el patrón dominante. Y el 76% de los casos de uso de IA corporativa hoy se compra en lugar de construirse internamente, frente a un 53% hace dos años. Las plataformas listas para producción ganaron la primera ronda.
03

Matriz comparativa de casos

Los ocho casos documentados comparados en variables relevantes para decisiones de implementación. Filtrar por región, sector o arquitectura.

Región:
Sector:
Empresa Región Sector Modelo / plataforma KPI principal Estado
JPMorgan Chase
🇺🇸 Estados Unidos
Américas Banca LLM Suite (OpenAI + Anthropic) USD 2B valor anual; ROI +30–40% a/a; -83% investigación Verificado Producción plena
Goldman Sachs
🇺🇸 Estados Unidos
Américas Banca inversión GenAI propietario + Devin (Cognition) -40% ciclo de desarrollo; Devin 3–4× Verificado Producción plena
Walmart
🇺🇸 Estados Unidos
Américas Retail Wallaby (LLM propietario) + agentes Wally, Sparky, Marty 850M datos catálogo; -30M millas; USD 55M ahorro perecibles Verificado Producción plena
Deloitte
🌐 150 países
Global Servicios profesionales Claude Enterprise (Anthropic) 470K empleados; 15K certificados objetivo Verificado Rollout activo
Siemens
🇩🇪 Alemania
Europa Manufactura Industrial Copilot (Azure OpenAI) + Digital Twin Composer +20% throughput PepsiCo/Gatorade en 3 meses; 99%+ disponibilidad Verificado Producción (clientes)
Rakuten
🇯🇵 Japón
Asia eCommerce / fintech Rakuten AI 3.0 (~700B param, MoE, propietario) Líder Japanese MT-Bench vs modelos abiertos Verificado Producción + open-weight Q1 2026
Mercado Libre
🌎 18 países LATAM
LATAM eCommerce / fintech Verdi (GPT-4o/4o mini) + Mercado Pago AI Assistant 87% consultas sin humano; Mercado Ads +67% YoY Verificado Producción plena
Chile (mercado)
🇨🇱 Chile
Chile Transversal ChatGPT, Gemini, herramientas cloud USD 755M ventas ecosistema IA 2024; USD 51 per cápita (líder LATAM) Verificado Adopción general
No hay casos que coincidan con los filtros seleccionados.
04

Análisis técnico por caso

Cada caso documentado con su arquitectura, procesos afectados, KPIs verificados, dimensión de personas y obstáculos documentados. Expandir para ver el detalle completo.

01 · Banca · Américas
JPMorgan Chase
LLM Suite OpenAI + Anthropic 200K usuarios Producción plena
USD 1,5–2B valor anual -83% tiempo de investigación ROI +30–40% a/a ~100K usuarios activos diarios
Problema
Procesos
KPIs
Dimensión personas
Obstáculos

Los analistas dedicaban horas a preparar resúmenes de investigación, generar presentaciones y responder consultas de call centers internos. Las herramientas de consumo masivo como ChatGPT estaban prohibidas por riesgo de fuga de datos.

Arquitectura: LLM Suite es una plataforma model-agnostic que integra modelos de OpenAI y Anthropic y los conecta con bases de datos internas. Se actualiza cada ocho semanas. Convive con OmniAI, un factory de ML que estandariza el ciclo completo de vida de los modelos. El banco tiene 65% de sus workloads en nube pública o privada.

Implementación: Lanzamiento verano 2024, 200.000 usuarios en ocho meses mediante estrategia opt-in. Tres aplicaciones en producción: LLM Suite general, asistente de código para ingenieros, y EVEE Intelligent Q&A para call centers.

Proceso afectadoEstado previoCambio operativo
Presentaciones ejecutivasAnalista junior: horas de compilación manualLLM Suite: 30 segundos; mismo output (Forbes / CNBC demo)
Investigación financieraBúsqueda manual en múltiples fuentes; horas por briefSíntesis automática con datos internos; -83% tiempo
Call centers (EVEE Q&A)Operador busca manualmente en documentaciónRespuesta en lenguaje natural; resolución directa
Generación de códigoCiclo estándar sin asistencia de IA+10–20% productividad; mayor velocidad de deployments
Asesoría patrimonial (Coach AI)Advisor consulta múltiples sistemas para cada reunión95% más rápido; +20% ventas brutas AWM 2023–2024
KPIValorFuente
Valor anual atribuido a IAUSD 1,5–2BConstellation Research / McKinsey oct 2025
Crecimiento ROI a/a+30–40%Earnings call JPMC
Reducción tiempo investigación-83%Larridin AI Tracker
Productividad equipos de código+10–20%Tearsheet sep 2025
Acceso a información (Coach AI)95% más rápidoKlover.ai jul 2025
Ventas AWM 2023–2024+20% YoYKlover.ai jul 2025
Empleados activos diariamente~100.000 (~45% del total)McKinsey oct 2025
AspectoDecisión tomadaResultado / aprendizaje
Modelo de adopciónOpt-in, no mandatado; primeros usuarios como referentes internos200K usuarios en 8 meses; el 45% usa IA a diario (Tearsheet; McKinsey)
CapacitaciónPrograma 'AI Made Easy' + módulos por segmento + prompt engineeringDecenas de miles con formación completada en el primer año
Rol redefinidoAnalistas: menos compilación manual, más interpretación y juicioCapacidad liberada para trabajo de mayor complejidad (McKinsey oct 2025)
Impacto en dotaciónProyección pública de reducción ≥10% en staff operativo de largo plazoWaldron reconoció brecha entre productividad y reducción de costos (AI News dic 2025)
Riesgo de personasAutomation complacency: revisores dejan de verificar cuando el sistema es muy buenoSin protocolo sistemático publicado; mitigaciones ad hoc (CNBC sep 2025)
La preparación de datos tomó años antes de que el LLM Suite produjera valor. Las ganancias de productividad no se traducen automáticamente en reducción de costos sin rediseño deliberado del proceso. El propio CAO Derek Waldron lo declaró públicamente a CNBC en septiembre de 2025. El principal riesgo identificado es la automation complacency: cuando el sistema acierta el 85–95% del tiempo, los revisores humanos tienden a dejar de verificar.
02 · Banca de inversión · Américas
Goldman Sachs
GenAI propietario Devin (Cognition) 10K empleados Producción plena
-40% ciclo de desarrollo Devin: 3–4× productividad +70% adopción usuarios elegibles -25–35% email [Sin verificar]
Problema
Procesos
KPIs
Dimensión personas
Obstáculos

El procesamiento de emails, generación de código financiero y análisis de documentos extensos consumían hasta el 40% del tiempo de trabajo en las áreas de ingeniería, investigación y banca de inversión.

Arquitectura: Asistente GenAI propietario, fine-tuned sobre el codebase y datasets internos. Ambiente privado y segregado. En julio de 2025, Goldman comenzó a incorporar Devin (Cognition) como agente autónomo de desarrollo de software — el primer banco de Wall Street en hacerlo.

Implementación: POCs desde 2023 con 500 desarrolladores → expansión a 10.000 empleados → rollout firmwide enero 2025. Devin comenzó como piloto en julio de 2025.

Proceso afectadoEstado previoCambio operativo
Código financieroEscritura, depuración y review manuales-40% en duración del ciclo de desarrollo
Análisis de documentos extensosLectura y resumen manual por analistasSíntesis automática en minutos [Sin verificar en fuente primaria]
Modernización de código legacyIngenieros reasignados a migración manualDevin ejecuta tareas autónomamente; ingenieros supervisan y validan
KPIValorCerteza
Reducción ciclo de desarrollo-40%Verificado — Bain Tech Report 2025
Productividad Devin vs. herramientas anteriores3–4×Verificado — CIO Marco Argenti a CNBC
Adopción entre usuarios elegibles+70%Verificado — Reruption case study
Reducción tiempo en email-25–35%[Sin verificar] — fuente secundaria
AspectoDecisión tomadaResultado / aprendizaje
Modelo de adopciónPOCs con 500 devs → validación rigurosa → expansión → rollout firmwide18 meses de validación antes de escalar (Reruption; Bain Tech 2025)
Rol redefinido (ingenieros)Menos escritura de código rutinario; más supervisión de outputs y arquitecturaDevin redefine el perfil: más revisores y arquitectos, menos ejecutores (CNBC jul 2025)
Comunicación del cambioMarco oficial: 'augmentation, not replacement'Sin comunicado público primario [Sin verificar]
La introducción de Devin redefine el rol del ingeniero: menos ejecución, más supervisión y diseño de arquitectura. La resistencia inicial fue documentada internamente. El escrutinio sobre capex en IA fue otro factor de freno antes del rollout.
03 · Retail · Américas
Walmart
Wallaby LLM propietario Wally · Sparky · Marty 2,1M empleados a capacitar Producción plena
850M datos catálogo optimizados USD 55M ahorro perecibles -30M millas entrega -18 semanas ciclo moda
Problema
Procesos
KPIs
Dimensión personas
Obstáculos

Con millones de SKUs, miles de proveedores y cadena de frío en perecibles, la gestión manual de catálogos, rutas y reposición de inventario genera una superficie de error proporcional a la escala.

Arquitectura: Wallaby es el LLM propietario de Walmart, entrenado sobre décadas de datos transaccionales. Sobre este modelo base funciona una red de agentes: Wally (análisis de inventario en tiempo real), Sparky (atención al cliente), Marty (negociación con proveedores).

Proceso afectadoEstado previoCambio operativo
Catalogación de productosEquipo dedicado; proceso intensivo por SKU100× más productos catalogados con el mismo equipo (2 años)
Planificación de moda+18 semanas adicionales en el ciclo de producciónSistema Trend-to-Product elimina esas 18 semanas del ciclo
Gestión inventario pereciblesRevisión periódica con brechas de coberturaWally analiza en tiempo real; -USD 55M en desperdicio (2025)
Atención al clienteOperador humano interviene en todos los casosResolución autónoma en la mayoría; humano solo en escalados
Optimización de rutasPlanificación estándar sin reanálisis continuo-30M millas anuales; -94M lbs CO₂; -30% costos logísticos [Sin verificar primaria]
KPIValorFuente
Datos de catálogo optimizados850 millones de puntosEarnings call ago 2024 (McMillon)
Equivalente en headcount100× el equipo necesario sin IAEarnings call ago 2024
Millas de entrega eliminadas30 millonesAI News dic 2025
Emisiones CO₂ evitadas94 millones de libras (42K ton)AI News dic 2025
Reducción timeline moda-18 semanas por colecciónAI News dic 2025
Ahorro en desperdicio pereciblesUSD 55M (rollout 2025)FinancialContent feb 2026
AspectoDecisión tomadaResultado / aprendizaje
Escala de capacitaciónCertificación en IA para 2,1 millones de empleados (anuncio abril 2026)Alianzas con OpenAI y Google; certificación interna en curso (Sahmcapital / Reuters abr 2026)
Framing oficial'IA como apoyo a empleados, no reducción de dotación'La comunicación de cambio más explícita de los casos documentados (AI News dic 2025)
Rol redefinido (operaciones)Operadores: supervisores de agentes autónomos en lugar de ejecutores directosRoles siguen existiendo; cambia el contenido del trabajo
Rol redefinido (atención al cliente)Operadores de call center: manejo de casos escaladosSparky resuelve la mayoría; humanos gestionan excepciones
La integración de Wally con sistemas legacy de supply chain exigió rediseño previo de flujos de datos. Construir y mantener un LLM propietario a esta escala es caro — justificable solo con volúmenes de transacciones como los de Walmart.
04 · Servicios profesionales · Global
Deloitte
Claude Enterprise (Anthropic) 470K empleados 150 países Rollout activo
Mayor despliegue enterprise de Claude 15K profesionales a certificar 800 ya certificados (al cierre) Centro de Excelencia activo
Problema
Procesos
KPIs
Dimensión personas
Obstáculos

Deloitte necesitaba credibilidad operativa ante clientes que preguntaban si usaban internamente las herramientas de IA que recomendaban. Además, escalar productividad en auditoría, consultoría fiscal y servicios tecnológicos sin aumentar headcount proporcionalmente.

Arquitectura: Claude Enterprise de Anthropic, con personas específicas por rol (contadores, desarrolladores, consultores), integradas sobre flujos de trabajo existentes. Un Centro de Excelencia interno coordina las implementaciones.

Implementación: 470.000 empleados en 150 países — el mayor despliegue enterprise de Claude hasta la fecha. Alianza inicial 2024; expansión anunciada octubre 2025.

Proceso afectadoEstado previoCambio operativo
Investigación financiera (10X Analyst)Analistas: horas de compilación, síntesis y validación cruzadaWorkflows automatizados con Claude; ciclo de análisis reducido
Asesoría a clientes sobre IADeloitte recomendaba IA sin uso interno verificable propio470K empleados usan Claude; la firma puede demostrar lo que vende
Modernización de código y mainframeEquipos dedicados con ciclos largos de migraciónClaude acelera transformación con trazabilidad end-to-end del código
KPIs internos de productividad: Deloitte no ha publicado métricas operativas específicas del despliegue interno. El indicador más concreto disponible es de escala (470K empleados, 800 certificados) y arquitectura. La ausencia de KPIs publicados es consistente con el patrón de empresas en fase de rollout activo.
IndicadorValorFuente
Empleados con acceso a Claude470.000 en 150 paísesAnthropic.com; CNBC oct 2025
Profesionales certificados (objetivo)15.000Anthropic.com oct 2025
Profesionales certificados (al cierre)~800Anthropic.com oct 2025
AspectoDecisión tomadaResultado / aprendizaje
Programa de certificación15.000 profesionales certificados en Claude (objetivo)La credential se convierte en diferenciador de rol (Anthropic.com; CNBC oct 2025)
Centro de ExcelenciaEspecialistas internos coordinan implementaciones entre divisionesElimina silos de aprendizaje entre equipos (Deloitte.com)
Personas por rolClaude opera con configuraciones distintas para contadores, devs, consultoresReduce riesgo de outputs genéricos y mejora adopción
Framing estratégicoLa adopción interna es también propuesta de valor comercial ante clientesArgumento tangible para inversión en IA (CNBC oct 2025 — Ranjit Bawa, Deloitte CSO)
Transformar un Big Four en cliente de referencia exige que las implementaciones internas produzcan evidencia suficiente para asesorar externamente con credibilidad. Ese ciclo aún no ha producido datos públicos de ROI interno verificables.
05 · Manufactura · Europa
Siemens
Industrial Copilot Azure OpenAI Digital Twin Composer Producción (clientes)
+20% throughput PepsiCo/Gatorade en 3 meses 99%+ disponibilidad Railigent X Soporte técnico 24/7 sin escalamiento
Problema
Procesos
KPIs
Dimensión personas
Obstáculos

Escasez de trabajadores calificados en automatización industrial, combinada con tareas repetitivas de ingeniería — generación de código PLC, troubleshooting, localización de proyectos — que consumen tiempo de perfiles de alta demanda y difícil reemplazo en el corto plazo.

Arquitectura: Industrial Copilot desarrollado con Microsoft sobre Azure OpenAI Service. El Engineering Copilot TIA opera dentro del entorno TIA Portal, generando y modificando código de automatización de forma autónoma mediante instrucciones en lenguaje natural.

Proceso afectadoEstado previoCambio operativo
Generación de código PLCIngenieros especializados escriben código manualmente en TIA PortalEngineering Copilot TIA genera y modifica código desde instrucción en lenguaje natural
Troubleshooting de equiposEscalamiento a especialista; tiempo de respuesta variableChatbot 24/7 en Erlangen; resolución directa en configuración y diagnóstico básico
Test de cambios en líneasModificación física para probar; riesgo de parada operativaDigital Twin simula el cambio; PepsiCo/Gatorade: +20% throughput en 3 meses
Cliente / aplicaciónKPIFuente
PepsiCo/Gatorade — Digital Twin Composer+20% throughput en 3 meses; -10–15% capex por capacidad oculta descubiertaSiemens.com (caso publicado)
Railigent X — mantenimiento ferroviario99%+ disponibilidad de flotaSiemens Press
Electronics Factory ErlangenSoporte técnico 24/7 sin escalamiento humano en configuración básicaSiemens.com
AspectoDecisión tomadaResultado / aprendizaje
Posicionamiento del cambioIA como respuesta a escasez de talento especializado, no como sustituciónGap global de USD 8,5 billones en talento industrial (Siemens.com — declaración oficial)
Rol redefinido (ingenieros)Menos código manual en TIA Portal; más supervisión y validación de outputs de IAEngineering Copilot libera tiempo para diseño de mayor complejidad (Siemens Press nov 2025)
Capacitación requeridaOperadores de planta interactúan en lenguaje natural con sistema de diagnósticoEl diseño de UX industrial resultó tan crítico como el modelo (SPS 2025)
La integración del Copilot con TIA Portal v19/20 requirió trabajo de compatibilidad no trivial. La adopción en planta depende de que operadores sin formación técnica profunda interactúen con el sistema en lenguaje natural — lo que exige diseño de UX industrial distinto al de los entornos de oficina.
06 · eCommerce / fintech · Asia (Japón)
Rakuten
Rakuten AI 3.0 ~700B param MoE 32K empleados Producción + open-weight Q1 2026
Líder Japanese MT-Bench 17K devs con acceso AI Gateway 70+ unidades de negocio integradas
Problema
Procesos
KPIs
Dimensión personas
Obstáculos

Los modelos LLM globales presentan brechas de rendimiento en japonés — vocabulario especializado, contexto cultural y regulación local — que los hacían inadecuados para las 70+ unidades de negocio de Rakuten sin adaptación sustancial.

Arquitectura: Modelo propietario MoE (Mixture of Experts) de ~700 mil millones de parámetros, entrenado en cluster GPU propio en entorno cloud aislado. Escalada incremental: AI 7B (mar 2024) → AI 2.0 MoE (dic 2024) → AI 3.0 ~700B (dic 2025). El AI Gateway es la capa interna de APIs que expone el modelo a las aplicaciones de producción.

Proceso afectadoEstado previoCambio operativo
Q&A sobre productos (AI Librarian)Operadores leyendo documentación de cada merchant para responderRAG sobre documentación del merchant; respuesta en tiempo real y en japonés
Acceso a LLMs en 70+ unidadesDependencia de modelos globales con brechas en japonésAI Gateway con Rakuten AI 3.0; acceso unificado para 32.000 empleados
Desarrollo de nuevas funciones (17K devs)Pipeline de desarrollo estándar sin LLMsAI Gateway permite construir funciones sobre LLM desde lenguaje natural
KPIValorCerteza
Rendimiento Japanese MT-BenchLíder frente a modelos abiertos de tamaño comparableVerificado — Rakuten Press dic 2025
KPIs de productividad internaNo publicados con trazabilidad a fuentes primarias[Sin verificar]
AspectoDecisión tomadaResultado / aprendizaje
Iniciativa corporativa'AI-nization': IA implementada en todos los aspectos del negocio como prioridadFraming de transformación cultural desde la dirección (Rakuten Press dic 2025)
Acceso para desarrolladores17.000 devs con acceso al AI Gateway para construir funciones sobre LLMLa plataforma convierte devs generales en constructores de aplicaciones de IA
Modelo open-weightRakuten AI publicado bajo Apache 2.0 para la comunidad open-source japonesaContribución al ecosistema como palanca de atracción de talento técnico [Inferencia]
Entrenar un modelo propio a esta escala tiene un costo sustancial — justificable para Rakuten porque opera un ecosistema de 70+ negocios y 32.000 empleados en un idioma con características que los modelos globales no dominan bien. Sin apoyo gubernamental (GENIAC) o escala equivalente, la estrategia de soberanía de modelo es inaccesible para la mayoría de las empresas.
07 · eCommerce / fintech · LATAM (18 países)
Mercado Libre
Verdi (GPT-4o) Mercado Pago AI 17K desarrolladores Producción plena
87% consultas Mercado Pago sin humano Mercado Ads +67% YoY 9M conversaciones Q4 2025 ~99% precisión detección fraudes
Problema
Procesos
KPIs
Dimensión personas
Obstáculos

Escalar atención al cliente, catalogación y detección de fraudes en 18 países con 100 millones de usuarios activos sin aumentar headcount proporcionalmente. Mercado Libre es el único caso de LATAM que cumple los criterios metodológicos de este informe: empresa que publica resultados trimestrales con trazabilidad causal a sus inversiones en IA.

Arquitectura: Dos capas. Verdi, la plataforma interna de desarrollo de IA, usa GPT-4o, GPT-4o mini y GPT-3.5 Turbo de OpenAI. Sus 17.000 desarrolladores pueden construir aplicaciones LLM mediante lenguaje natural sin ver el código fuente directamente. Sobre la misma infraestructura corre el Mercado Pago AI Assistant, lanzado octubre 2025.

Proceso afectadoEstado previoCambio operativo
Mediación de disputas9.000 operadores humanos gestionando la totalidad de casosVerdi resuelve el 10% de mediaciones autónomamente; expansión activa a logística
Detección de fraudesRevisión basada en reglas; superficie de error proporcional al volumenGPT-4 analiza millones de listings diariamente; ~99% precisión en artículos marcados
Catalogación de productosProceso manual por equipos especializados100× más productos catalogados en 2 años con el mismo equipo
Atención al cliente (Mercado Pago)Operadores humanos en todas las consultasAI Assistant: 87% de consultas resueltas sin humano; 9M conversaciones Q4 2025
Campañas publicitarias (Mercado Ads)Vendedores configuran campañas manualmente; rendimiento variableIA optimiza pujas y campañas automáticamente; +67% revenue YoY (FX-neutral)
KPIValorFuente
Conversaciones Mercado Pago AI Q4 20259+ millonesEarnings call Q4 2025, Business Wire feb 2026
Resolución sin humano (Mercado Pago)87%Earnings call Q4 2025, Nasdaq press release
Mercado Ads: crecimiento YoY (FX-neutral)+67%Earnings call Q4 2025, Business Wire
Catálogo: productos catalogados vs. hace 2 años100× másOpenAI case study (publicado)
Detección de fraudes~99% precisiónOpenAI case study (publicado)
Verdi: % mediaciones atención al cliente10% (fase inicial)OpenAI case study (publicado)
AspectoDecisión tomadaResultado / aprendizaje
Framing del cambioCOO Rabinovich: 'los humanos pasamos a ser los asistentes de la IA, no al revés'Comunicación directa sobre inversión de roles (OpenAI case study, sep 2024)
Impacto en operadores9.000 operadores asistidos por Verdi; roles no eliminados pero contenido cambióSistema decide autónomamente en el 10% de casos; humano supervisa y escala
Perfil técnico requerido17.000 devs usan Verdi para construir funciones LLM desde lenguaje naturalPrompt engineering y diseño de agentes se vuelven habilidades core [Inferencia]
Velocidad de cambioDe POC a 10% de mediaciones en producción en pocos meses; expansión a logística en cursoRitmo de transformación de rol más rápido que en banca o manufactura [Inferencia comparativa]
El CTO Sebastián Barrios declaró públicamente que aún no existe un killer use case de IA generativa en producción a gran escala. Las limitaciones operativas centrales son precisión, costo por token y confiabilidad de los agentes en decisiones de alto impacto.
05

El sector editorial y la IA

La industria editorial tiene una posición diferente a los otros sectores de este benchmarking. Los bancos y retailers adoptan IA en procesos donde el error es costoso pero recuperable. En publishing, el activo central — la voz de los autores, el criterio editorial, el catálogo — es lo que los modelos generativos prometen replicar.

El informe State of Play: Exploring Generative AI's Transformative Effects on the Media & Entertainment (Bertelsmann / Enders Analysis / Arthur D. Little, mayo 2024), que analiza más de 200 casos específicos de la industria, confirma que publishing adopta más lento que marketing, broadcasting y música grabada, pero los frentes de entrada ya están claros.

Bertelsmann — la casa matriz de Penguin Random House

Bertelsmann es el caso editorial más avanzado con evidencia verificable. La empresa tiene ~75.000 empleados en 50 países y opera PRH, RTL Group, BMG, Arvato y otras divisiones.

Iniciativa Descripción Fuente
ChatGPT Enterprise para el grupo Enero 2025: colaboración con OpenAI. ChatGPT disponible para ~75K empleados en 50 países como herramienta de trabajo estándar Bertelsmann Press Release, ene 2025
AI Hub Group Equipo centralizado que coordina implementaciones de IA en todas las divisiones. En producción desde finales de 2023 LangChain / Bertelsmann blog, jul 2025
Bertelsmann Content Search (multi-agente) Sistema LangGraph con múltiples agentes especializados en producción: búsqueda transversal en archivos propietarios de noticias, libros y producción audiovisual del grupo LangChain / Bertelsmann blog, jul 2025
AI for Creatives Summit Abril 2025: cumbre interna con 180 representantes + 200 vía livestream. Partners: Adobe, ElevenLabs, Google, NVIDIA, OpenAI, Runway, Twelve Labs Bertelsmann Press Release, abr 2025
BookBoost (PRH) Plataforma propietaria de PRH que usa ML y first-party data para automatizar completamente publicidad en Facebook e Instagram Bertelsmann/ADL Study, may 2024
Protección de IP de autores (PRH) Octubre 2024: cambio activo en páginas de derechos para impedir uso de obras en entrenamiento de modelos de terceros sin consentimiento expreso TechCrunch, oct 2024; The Bookseller, oct 2024

Dónde entra la IA primero en publishing

Frente Estado actual Impacto en roles
Marketing de contenido
Más maduro
Automatización de campañas (BookBoost), personalización de recomendaciones, copy de marketing. HarperCollins llegó a acuerdo con Microsoft para licenciar backlist. Equipos de marketing digital: adopción alta. Social media managers, copy writers de campañas, analistas de datos de ventas.
Adaptación de contenido
En escala
Traducción asistida, conversión de libros a audiolibros con voz sintética, localización. Macmillan Education trabaja con Google en estas áreas. Traductores y correctores: rol complementado, no eliminado. La revisión humana sigue siendo requisito de calidad.
Asistencia editorial
Emergente
Copy editing asistido, fact-checking, generación de fichas técnicas y metadatos. El proceso creativo central no está siendo sustituido. Editores asistentes y correctores de estilo: las tareas más rutinarias migran. Las decisiones editoriales de fondo no están bajo presión aún.
El dilema central para Gerentes de Personas en publishing: PRH tiene dos tipos de 'empleados' que le importan: los internos (editores, marketing, operaciones) y los externos (autores, traductores, ilustradores). La política de IA necesita funcionar para ambos, y sus intereses no son siempre convergentes. El gap entre la política de protección de IP y la política de adopción interna es el territorio donde el Gerente de Personas tiene mayor impacto.
06

LATAM y Chile

Mercado Libre es el único caso de LATAM que cumple los criterios metodológicos de este informe. El mercado chileno lidera en madurez digital y adopción per cápita, pero carece de casos documentados con la densidad de datos de un benchmarking riguroso.

En los mercados globales, los KPIs de implementación IA llegan vía earnings calls y press releases de empresas cotizadas. En LATAM, ese canal existe solo para las empresas que cotizan en bolsa o tienen partnerships formales con hyperscalers que publican casos. Para el resto, los datos son encuestas de adopción o declaraciones de proveedores. Se documenta lo que tiene trazabilidad; el resto se etiqueta.

Chile: diagnóstico de mercado

73/100
Índice de madurez digital
ILIA 2024 — líder de la región
USD 51
Inversión per cápita en IA
Argentina USD 35 · México USD 26
362
Empresas especializadas en IA (2024)
+965% desde 2018 (desde prácticamente cero)
USD 755M
Facturación ecosistema IA en Chile 2024
Proyección +33% para 2025 (CCS)
Lo que no tiene trazabilidad verificable: Cifras como 'Codelco y BHP -35% costos de mantenimiento' o 'ENAP y Arauco -40%' circulan en medios chilenos. Provienen de un proveedor de servicios de IA con interés comercial directo en publicarlas. Sin corroboración en memorias anuales, earnings calls o comunicados corporativos de las propias empresas, son [Sin verificar] para efectos de este benchmarking. No se incluyen como KPIs validados.

Comparación: casos globales vs. LATAM vs. Chile

Dimensión Casos globales Mercado Libre (LATAM) Chile
KPIs verificados en fuentes primariasMúltiplesSí — earnings call Q4 2025No identificados
Arquitectura dominanteRAG + fine-tuning + agentesPlataforma interna + APIAPI pública (ChatGPT, Gemini)
Modelo build vs. buy76% buy (2025)Build (Verdi propietario)Buy
Principal obstáculoRediseño de proceso; complacenciaPrecisión, costo, confiabilidadTalento + gobernanza + datos
Posición regional en adopciónN/ALíder LATAM (empresa tech)Líder LATAM (país, per cápita)
El gap real: cultura de divulgación, no madurez tecnológica. Chile no carece de adopción. Carece de casos documentados con la densidad de datos que requiere un benchmarking riguroso. La pregunta relevante para las empresas chilenas es cómo aprovechar las implementaciones que ya existen para construir evidencia interna que justifique escalar.
07

Patrones transversales y obstáculos

Los ocho casos leídos en conjunto producen patrones consistentes en lo que funciona y en lo que no. Ninguno de estos patrones es obvio si se leen solo como casos tecnológicos.

Lo que los casos tienen en común

✓ Patrón verificado
Datos antes que modelos
En todos los casos, la preparación de datos antecedió al despliegue efectivo. JPMorgan invirtió años en modernización de infraestructura. Walmart construyó Wallaby sobre décadas de datos transaccionales. Ningún caso muestra un modelo genérico produciendo resultados comparables sin contextualización sobre datos propietarios.
✓ Patrón verificado
Multi-modelo como norma
El 81% de las empresas usa tres o más familias de modelos en testing o producción simultáneamente, frente al 68% hace menos de un año (a16z, feb 2026). JPMorgan es el ejemplo más claro: plataforma model-agnostic que enruta hacia OpenAI o Anthropic según el caso de uso.
✓ Patrón verificado
Internal-first antes de client-facing
En todos los casos: primero despliegue interno, medición, y luego expansión hacia clientes. JPMorgan lo hace por riesgo regulatorio. Deloitte lo hace para ganar credibilidad ante sus propios clientes. Goldman lo hace para battle-testing en entorno controlado.
✓ Patrón verificado
ROI positivo pero más lento de lo esperado
El 81% de los casos de uso de IA corporativa cumplen o superan expectativas (Deloitte State of AI, 2025). Pero solo el 34% de las organizaciones ha rediseñado realmente sus procesos de punta a punta — que es donde está el retorno real.

Los problemas que no están en el modelo

⚡ Error documentado
Automation complacency
Identificado explícitamente por JPMorgan. Un sistema que opera bien el 90% del tiempo produce una reducción en la supervisión humana que amplifica el impacto del 10% restante. Ningún caso publicado muestra un protocolo sistemático que haya resuelto este problema.
⚡ Error documentado
El gap proceso-herramienta
Los equipos que usan asistentes de IA reportan ganancias de productividad del 10–15%, pero el tiempo ahorrado frecuentemente no se redirige hacia trabajo de mayor valor (Bain & Company, Tech Report 2025). El resultado: ganancias de productividad que no se convierten en retorno de negocio.
⚡ Error documentado
Los datos como prerequisito no negociable
El 56% de las empresas identifica la integración con sistemas TI existentes como el principal obstáculo (BCG Build for the Future 2024, n=1.000). No es un problema de modelo — es un problema de arquitectura de datos previa.
⚡ Error documentado
Gobernanza como problema de cultura
El 40% de las empresas chilenas y el 76% de las globales identifican la gobernanza como el principal escollo. En publishing, la gobernanza de IA tiene una dimensión de valores — qué se puede hacer con el trabajo de los autores — que no es un problema de TI. Es un problema de cultura organizacional.
08

Implicancias para Gerentes de Personas en industrias de contenido

Los patrones verificados en los ocho casos producen un conjunto de conclusiones específicas para quien gestiona personas en una organización editorial.

Lo que funciona: patrones verificados

La transparencia sobre el alcance evita la resistencia más costosa. En todos los casos con menor resistencia interna (JPMorgan, Deloitte, Siemens), la comunicación inicial fue específica sobre qué procesos cambian y cuáles no. El miedo más costoso en industrias de contenido — 'la IA va a escribir los libros' — se alimenta del silencio institucional, no de la evidencia. PRH ya tiene posición pública sobre IP. Falta la posición sobre qué hacen los equipos internos con las herramientas disponibles.
El modelo de certificación crea ventaja operativa y reduce ansiedad. Deloitte y Walmart son los extremos: 15.000 certificados en un caso, 2,1 millones de personas a capacitar en el otro. La certificación no es solo formación — es señal al empleado de que la organización está invirtiendo en él, no solo en el sistema. En una casa editorial, un programa de certificación por área (marketing digital, derechos, producción editorial) tiene menor costo y mayor impacto cultural que un lanzamiento horizontal de herramientas.
El modelo opt-in con referentes internos supera al mandato. JPMorgan logró 200.000 usuarios en ocho meses sin obligar a nadie. El mecanismo fue simple: los primeros usuarios que obtuvieron beneficios visibles se convirtieron en referentes naturales. En una organización editorial, donde la identidad profesional está ligada al criterio y la expertise, el mandato genera rechazo.
Los roles no desaparecen de golpe; se vacían de contenido rutinario. El patrón en todos los casos es el mismo: el rol existe, pero su contenido cambia. El traductor editorial sigue existiendo — revisa y corrige lo que el modelo produce. La pregunta de personas no es '¿cuántos roles eliminamos?' sino '¿qué hacen las personas cuando el sistema maneja el 70% de lo que hacían antes?'

El 58% de los empleadores ya usa GenAI en HR

58%
de empleadores ya usa GenAI en HR
Mercer Operations Scanner 2024
34%
ha rediseñado procesos de punta a punta (donde está el ROI real)
Deloitte State of AI, 2025
Lo que no funciona — Lanzar la herramienta sin rediseñar el proceso: Equipos que adoptan asistentes de IA reportan ganancias de productividad del 10–15%, pero frecuentemente el tiempo ahorrado no se redirige hacia trabajo de mayor valor — desaparece en reuniones y administración si el proceso no se rediseñó para aprovecharlo. El Gerente de Personas es quien tiene visibilidad de ese desperdicio y está más posicionado para diseñar la redirección.
09

3 preguntas concretas para PRH Chile

Las preguntas que este informe sugiere para Penguin Random House Chile, derivadas de los ocho casos documentados y la evidencia específica del grupo Bertelsmann.

¿Qué está usando Bertelsmann AI Hub que ya está disponible para las divisiones del grupo?
La colaboración con OpenAI y el sistema Bertelsmann Content Search son infraestructura del grupo. Antes de evaluar herramientas propias, vale entender qué existe y qué acceso tiene PRH Chile sobre eso. ChatGPT Enterprise ya está desplegado para ~75.000 empleados en 50 países desde enero 2025.
¿Qué procesos del área de Personas son candidatos inmediatos?
Reclutamiento asistido (filtrado de CVs, generación de job descriptions), onboarding con Q&A automática sobre políticas, análisis de clima organizacional con NLP sobre encuestas abiertas — tres áreas donde la IA generativa produce ROI rápido y bajo riesgo. El 58% de los empleadores ya usa GenAI en HR (Mercer Operations Scanner, 2024). No es territorio desconocido.
¿Cuál es la posición de la organización hacia los equipos creativos internos — editores, diseñadores, traductores?
BookBoost automatiza publicidad. La traducción asistida ya existe en el sector. El criterio editorial por ahora está protegido. Pero los equipos que hacen esas tareas necesitan saber qué va a pasar con su trabajo antes de verlo en una presentación de resultados. Esa conversación es responsabilidad del área de Personas, no de TI.
10

Fuentes y trazabilidad

Todas las cifras con etiqueta Verificado tienen trazabilidad directa a fuentes primarias. Las etiquetadas [Sin verificar] circulan en medios sin confirmación corporativa primaria. Las etiquetadas [Inferencia] son conclusiones derivadas de datos verificados.

  • JPMorgan Chase McKinsey/CNBC (oct 2025): entrevista a Derek Waldron, CAO. Constellation Research (jun 2025): análisis de earnings calls. Tearsheet (sep 2025): caso de implementación Gen AI. Klover.ai (jul 2025): análisis Coach AI / AWM. Larridin AI Tracker (feb 2026): productividad. AI News (dic 2025): proyecciones de dotación.
  • Goldman Sachs CNBC (jul 2025): despliegue de Devin / CIO Marco Argenti. Bain & Company Tech Report (2025): análisis sector financiero. Reruption case study: métricas de rollout (fuente secundaria — cifras de email sin verificar en fuente primaria).
  • Walmart Earnings call Q2 2024, CEO Doug McMillon. AI News (dic 2025): estrategia agentic. FinancialContent (feb 2026): sistema de inventario autónomo. AInvest (ago 2025): framework de agentes (cifras de logística sin verificar en fuente primaria directa). Reuters / Sahmcapital (abr 2026): certificación 2,1M empleados.
  • Deloitte / Anthropic Anthropic.com: comunicado oficial (oct 2025). CNBC (oct 2025): declaraciones Paul Smith (CCO Anthropic) y Ranjit Bawa (Deloitte CSO). Deloitte.com/alliances/anthropic: descripción de alianza.
  • Siemens Siemens Press (nov 2025): SPS 2025, Engineering Copilot TIA. CES 2026: comunicado Digital Twin Composer. Siemens.com/ai: casos clientes (PepsiCo/Gatorade, Railigent X, Electronics Factory Erlangen).
  • Rakuten Rakuten Group Press Release (18 dic 2025): Rakuten AI 3.0. Rakuten Group Press Release (12 feb 2025): Rakuten AI 2.0. ZenML LLMOps Database: caso LangChain/LangSmith.
  • Mercado Libre Business Wire / Nasdaq (24 feb 2026): earnings Q4 2025. OpenAI.com/es-419/index/mercado-libre: caso Verdi publicado por OpenAI. BNamericas (25 feb 2026): análisis de estrategia AI. ITMastersMag (26 feb 2026): declaraciones CFO Martín de los Santos.
  • Sector editorial Bertelsmann / Enders Analysis / Arthur D. Little: State of Play: Exploring Generative AI's Transformative Effects on the Media & Entertainment (mayo 2024). Bertelsmann Press Releases (ene 2025, abr 2025). LangChain / Bertelsmann Engineering blog (jul 2025). TechCrunch (oct 2024); The Bookseller (oct 2024): posición IP de PRH.
  • Chile y LATAM Entel Digital / CENIA (jun 2025): Adopción de IA en empresas chilenas. Cámara de Comercio de Santiago (2024): Caracterización industria IA Chile. Banco Central de Chile: Tendencias en demanda de empleo IA (2024). ILIA 2024: Índice Latinoamericano de Inteligencia Artificial. Menlo Ventures (dic 2025): State of Generative AI in the Enterprise 2025. a16z (feb 2026): Leaders, Gainers and Unexpected Winners in the Enterprise AI Arms Race.
  • Estudios transversales Deloitte State of AI in the Enterprise (2025). BCG Build for the Future 2024 Global Study (n=1.000). Bain & Company: From Pilots to Payoff: Generative AI in Software Development, Technology Report 2025. Mercer Operations Scanner (2024): Generative AI Will Transform Three Key HR Roles.