Alerta CMA sobre agentic AI: los asistentes autónomos podrían empujar peores ofertas al consumidor
La Competition and Markets Authority (CMA) del Reino Unido ha publicado una advertencia directa sobre agentic AI para consumidores: los asistentes autónomos que ejecutan tareas (comparar ofertas, reservar viajes, cambiar de proveedor o gestionar suscripciones) podrían terminar manipulando elecciones, encareciendo decisiones y priorizando los intereses comerciales de las plataformas que los operan.
El organismo regulador lo detalla en un informe centrado en el salto desde chatbots “conversacionales” a sistemas con capacidad de acción, donde la autonomía incrementa el impacto de los fallos. Según el documento, a mayor autonomía, mayores consecuencias por errores y mayor superficie para la manipulación y la pérdida de agencia del consumidor.
Fuente primaria: CMA (gov.uk) – Agentic AI and consumers.
Por qué la CMA pone el foco en la agentic AI para consumidores
La preocupación clave no es solo que un modelo se equivoque, sino que un agente “haga cosas” en nombre del usuario. En mercados digitales complejos, un asistente que supuestamente busca el mejor precio podría empujar opciones más caras o menos adecuadas si sus incentivos reales están alineados con ingresos por comisiones, acuerdos de distribución o métricas internas de conversión.
La CMA plantea explícitamente el riesgo de que el agente no sea un “faithful servant” del consumidor. Traducido al terreno competitivo: cuando el intermediario algorítmico controla la selección, el orden y el momento de la recomendación, también controla el resultado del mercado.
Personalización, precios dinámicos y “dark patterns”
El informe también apunta a la personalización como amplificador del problema: si cada usuario recibe recomendaciones distintas (o precios distintos) basadas en perfiles conductuales, detectar sesgos, direccionamiento comercial o discriminación de precios se vuelve más difícil. Este escenario puede potenciar los “dark patterns” (diseños de interfaz y flujos de decisión orientados a inducir comportamientos), especialmente si el agente está optimizado para engagement, conversión o ingresos.
En la práctica, la CMA alerta de un cambio de escala: el mismo patrón manipulativo que hoy vive en una interfaz podría pasar a estar automatizado, contextualizado y operado por un agente que negocia, selecciona y ejecuta en nombre del usuario.
Fiabilidad: de la “hallucination” al coste real
La CMA subraya que los sistemas actuales siguen siendo propensos a errores y “hallucinations”. La diferencia es que una respuesta incorrecta en un chatbot es un fallo informativo; un agente autónomo que cancela una suscripción, cambia una tarifa, contrata un servicio o toma una decisión financiera basada en información defectuosa puede generar pérdidas directas y disputas difíciles de revertir.
Opacidad y contestabilidad de decisiones
Otro punto crítico es la explicabilidad práctica: si el agente toma decisiones mediante cadenas de razonamiento complejas, múltiples llamadas a servicios y criterios no observables para el usuario, impugnar un resultado injusto o simplemente entender “por qué” se eligió esa opción puede ser inviable. La CMA relaciona esta opacidad con riesgos de sesgo, decisiones no auditables y fricción para aplicar protecciones existentes al consumidor.
Riesgo de dependencia: cuando el consumidor deja de supervisar
Además de la manipulación y los errores, el regulador advierte un efecto conductual: delegar de forma creciente tareas cotidianas a asistentes autónomos puede conducir a sobreconfianza. Con el tiempo, los usuarios podrían perder el hábito (o la capacidad) de revisar decisiones, comparar condiciones o detectar cambios perjudiciales, lo que incrementa el desequilibrio informativo frente a la plataforma.
Qué cambia a nivel regulatorio (por ahora)
La CMA no anuncia nuevas reglas específicas en este documento. En su lugar, remarca que las leyes de protección al consumidor aplican igualmente cuando la interacción la media una máquina. Si un sistema de agentic AI para consumidores induce a decisiones engañosas o injustas, la responsabilidad recae en la empresa que lo despliega y opera.
Para contexto institucional adicional, puede consultarse la propia autoridad: Competition and Markets Authority (CMA) en GOV.UK.
En paralelo, el debate regulatorio sobre sistemas de alto impacto y transparencia algorítmica continúa en Europa: EU AI Act (repositorio informativo).
Impacto para la industria: intermediación algorítmica en mercados digitales
El mensaje de la CMA es claro para plataformas, marketplaces, proveedores de AI y actores de AdTech/MarTech: a medida que los agentes ganen permisos para actuar (comprar, cambiar, contratar, cancelar), aumentará el escrutinio sobre incentivos, transparencia, trazabilidad de decisiones y control del usuario. En otras palabras, no bastará con que el agente sea “útil”; también deberá demostrar que su comportamiento no distorsiona la competencia ni erosiona la autonomía del consumidor.
La conclusión del regulador funciona como una advertencia temprana: si la agentic AI para consumidores se convierte en la capa dominante de decisión en comercio digital, el riesgo de direccionamiento comercial oculto y de fallos costosos pasa a ser un asunto de mercado, no solo de producto.



