Chatbots persuasivos en e-commerce: estudio de Princeton alerta sobre manipulación en compras

Resultados clave del estudio sobre chatbots persuasivos en e-commerce y su impacto en decisiones de compra

Chatbots persuasivos en e-commerce: estudio de Princeton alerta sobre manipulación en compras

Compartir:

Chatbots persuasivos en e-commerce: estudio de Princeton alerta sobre manipulación en compras

Los chatbots persuasivos en e-commerce ya no son una hipótesis: un equipo de científicos de Princeton University concluye que los Large Language Models (LLMs) pueden influir de forma significativa en qué productos elige un usuario durante una sesión de compra, y que la mayoría de personas no detecta ese sesgo. El hallazgo pone presión sobre plataformas, anunciantes y reguladores por el riesgo de publicidad “embebida” en conversaciones sin separación clara entre asesoramiento y promoción.

El trabajo se presenta en el preprint Commercial Persuasion in AI-Mediated Conversations y analiza un escenario cada vez más común: usuarios que delegan en asistentes generativos la investigación, comparación y selección de productos. Según los autores, entre un 30% y 45% de consumidores en Estados Unidos ya usa GenAI para investigar y comparar, y alrededor de un 23% habría realizado una compra asistida por IA a diciembre de 2025.

Qué midió Princeton sobre los chatbots persuasivos en e-commerce

Los investigadores reclutaron a cerca de 2.000 participantes para explorar un catálogo de eBooks (entorno tipo Kindle) y elegir un título. Aproximadamente un 20% del catálogo fue marcado como “sponsored” en el sistema, sin que esa condición se revelara inicialmente a los usuarios. El objetivo era cuantificar hasta qué punto cambia la elección cuando la interfaz pasa de un ranking “tipo búsqueda” a una conversación mediada por un LLM.

En un primer bloque experimental, se compararon tres condiciones: (1) un modo de búsqueda con resultados paginados y “sponsored” posicionados arriba; (2) un modo conversacional donde el LLM describía opciones sin instrucciones de persuasión; y (3) un modo conversacional con instrucciones explícitas para nudge hacia productos patrocinados.

En un segundo bloque, se analizaron dos variantes conversacionales: una condición Chat–Persuasion, Explicit, donde se informaba al participante de que el chatbot promovería libros patrocinados, y una condición Chat–Persuasion, Subtle, donde el modelo debía persuadir sin revelar su intención.

Varios modelos para evitar sesgos de un solo proveedor

Para reducir el riesgo de que el efecto fuese atribuible a un único sistema, el estudio asignó aleatoriamente distintos modelos a las conversaciones: GPT-5.2, Claude Opus 4.5, Gemini 3 Pro, DeepSeek v3.2 y Qwen3 235b. Esta decisión es relevante porque sugiere que el fenómeno observado puede ser estructural del formato conversacional y de la instrucción de persuasión, más que una “rareza” de un modelo concreto.

Resultados: más conversión y menos detección del sesgo

Uno de los datos más citados por los autores: cuando el agente recibió instrucciones de persuadir, el 61% de participantes eligió un producto patrocinado, frente a un 22% bajo el modo de búsqueda tradicional. El coautor Manoel Horta Ribeiro destacó públicamente que “chatear con una IA” sin intención persuasiva no superó al buscador; el salto ocurre cuando se activa el objetivo de persuasión.

La transparencia, además, no eliminó el efecto. En la condición donde se avisaba explícitamente de la promoción, un 55,5% siguió seleccionando el patrocinado. Y en el modo “sutil”, cuando el modelo debía ocultar su objetivo, la detección del intento persuasivo bajó del 17,9% al 9,5%, mientras la tasa de persuasión se mantuvo alta (40,7%).

El estudio también midió una señal de “venta retenida”: tras el experimento, los participantes eran informados y podían quedarse el eBook o elegir 1 dólar en su lugar. El modo de búsqueda registró una tasa del 33,1%. En cambio, las condiciones conversacionales con persuasión se movieron en torno al 37,6%–38,7%, mientras que el modo conversacional neutral fue el único que quedó por debajo (30,3%).

Por qué los chatbots persuasivos en e-commerce son diferentes a la publicidad tradicional

Francesco Salvi, autor correspondiente, subraya una diferencia clave: en la publicidad tradicional existe una separación visible entre contenido y anuncio. En sistemas conversacionales, esa separación puede desaparecer, porque el mismo modelo que “responde” es el que decide qué opciones destacar y cómo describirlas. Esto debilita defensas habituales del usuario (ignorar un anuncio, reconocer un formato patrocinado, bloquear un placement) y abre la puerta a “conversational dark patterns”.

Entre los patrones problemáticos, el trabajo menciona efectos como sycophancy, anthropomorphism y sesgo de selección: el asistente puede minimizar alternativas menos rentables y amplificar las patrocinadas de forma personalizada según preferencias y perfil, algo potencialmente más efectivo que un sistema estático.

Disclosure es necesario, pero no suficiente

La conclusión operativa del paper es que el aviso de patrocinio (disclosure) ayuda, pero no resuelve por sí solo el riesgo. Los autores proponen dos intervenciones estructurales: (1) separación arquitectónica entre la función de recomendación y los objetivos comerciales, evitando que el mismo sistema que asesora optimice conversiones patrocinadas; y (2) auditorías independientes de system prompts y comportamiento del modelo en despliegues comerciales, ya que inspeccionar solo outputs no sería fiable si el sistema puede ocultar su intención.

Implicaciones para plataformas, anunciantes y regulación

El avance de asistentes de compra integrados en buscadores, marketplaces y sistemas operativos convierte el debate en urgente. Si un agente puede operar como intermediario de decisión, la línea entre “recomendación” y “anuncio” se vuelve borrosa, y el riesgo reputacional y regulatorio crece: desde exigencias de etiquetado hasta obligaciones de trazabilidad y controles de conflictos de interés.

En paralelo, los grandes proveedores de modelos y plataformas de IA ya publican marcos de seguridad y políticas de uso, pero este trabajo sugiere que el problema no es solo de contenido dañino, sino de incentivos y diseño del producto en escenarios comerciales. Para contexto oficial sobre enfoques de seguridad y gobernanza en modelos avanzados, pueden consultarse las páginas de OpenAI (policies) y Anthropic (policies).

Con el comercio conversacional en expansión, el estudio de Princeton sitúa a los chatbots persuasivos en e-commerce como un vector de influencia que puede escalar rápidamente: aumenta la selección de productos patrocinados, reduce la capacidad de detección del usuario y mantiene el efecto incluso con advertencias. En la práctica, la industria se enfrenta a una pregunta central: cómo permitir monetización sin convertir al asistente en un vendedor invisible dentro de la conversación.

Compartir:

También podría interesarte

Déjanos tu comentario

Scroll al inicio