La mayor parte de las empresas trabajan duro para seducir a su clientela y, a partir del momento en que la conquistan, su deseo es conservarla.
Eso explica la creación de los “programas de lealtad”, recomendaciones y ofertas cuyo objetivo es seducirlos para que sigan vinculados a esas empresas. A primera vista, la estrategia parece tener mucho sentido.
Raghuram Iyengar, profesor de Marketing de Wharton, Martin Schleicher, de la Escuela de Negocios IAE de Buenos Aires, y Eva Ascarza, de Columbia Business School, investigaron cuándo, por qué y cómo funcionaba esa táctica de marketing. Su investigación, “The Perils of Proactive Churn Prevention Using Plan Recommendations“, ofrece una conclusión contraria a la intuición según la cual, con frecuencia, el resultado de esas campañas es exactamente el opuesto del pretendido.
En una entrevista concedida a Knowledge@Wharton, Iyengar explica qué reveló la investigación y por qué la “retención” es algo mucho más complicado de lo que se podría esperar.
A continuación, la versión editada de la entrevista.
No recuerde a sus clientes que tienen opciones:
Esa investigación en especial tenía como objetivo analizar la eficacia de las campañas de retención. Muchas empresas hacen campañas de este tipo dirigidas al consumidor. Ellas quieren conservarlo, por eso imaginan que deben ofrecerle incentivos. Por ejemplo, proponen un descuento en la próxima compra de US$ 10. Ese tipo de campaña es muy común, y muchas empresas creen que funciona. Pero, ¿funciona?
Tuvimos la oportunidad de trabajar con una empresa de telefonía celular que estaba intentando promocionar una campaña de retención. Fue muy bueno porque la empresa trató la campaña como un experimento de campo: un grupo de consumidores escogidos de forma aleatoria fue sometido a una campaña de retención. Era una campaña de plan de precios. Otro grupo de clientes no recibió ninguna oferta. El primer grupo, que fue objetivo del plan de retención, registró un número mayor de abandono de la empresa, en realidad, el número de los que la dejaron fue muy grande. Fue pésimo para la empresa.
¿Qué hay detrás de eso? ¿Funcionan las campañas de retención? En realidad, si son en masa, es probable que no. Lo que descubrimos fue algo un poco más sutil: funcionan, pero solamente si el objetivo está individualizado. Por lo tanto, las empresas deben hacer campañas de retención, pero de manera dirigida.
Principales conclusiones:
Básicamente, cuando las empresas comienzan a planear esas campañas, el patrón que se suele seguir es el de la campaña de marketing masiva, se envía un paquete de retención a todos los clientes. ¿Por qué? Porque es algo fácil de hacer. No se necesita pensar mucho. Basta con mandar el paquete a todo el mundo.
Pero, a veces, enviar campañas a las personas puede, en realidad, hacer que empiecen a cuestionar su propio comportamiento. Por ejemplo, en el caso específico de la empresa de telefonía celular, cuando enviaba una campaña de retención —que tomaba como base la modalidad de uso de las personas diciéndoles: “mire, tal vez hay otros planes mejores para usted”— eso llevaba al cliente a cuestionarse si el acuerdo que tenía con la empresa era bueno. Y si ya contaban con un buen acuerdo, ¿por qué no mirar también qué se ofrecía por ahí en otras empresas? Eso muestra que las campañas de retención deben ser, con frecuencia, dirigidas. Piense bien, mirando a su clientela, quien cree que podría dejar su empresa. No haga eso de manera generalizada. Escoja un objetivo.
Conclusiones sorprendentes:
Un análisis superficial muestra que la mayor parte de las personas cree que las campañas de retención funcionan. No es eso, sin embargo, lo que muestran las cifras de nuestra investigación.
En el estudio que hicimos para una serie de clientes de una empresa de telecomunicaciones, hicimos un seguimiento de su comportamiento tres meses antes de la campaña y tres meses después y descubrimos que, después de dos meses, un 10% de los clientes que participó en la campaña de retención habían dejado la empresa, a diferencia del grupo de control que no había sido objeto de ninguna campaña y de los cuales un 6% había dejado la empresa.
Por lo tanto, un 4% es un índice de cancelación muy elevado […] Lo que constatamos fue que, de media, es muy difícil encontrar evidencias de que las campañas de retención funcionan, pero fue realmente muy fácil encontrar evidencias de que funcionan para ciertos grupos de personas. Había numerosos grupos de clientes que tenían ciertas características —muy fáciles de identificar por las empresas— para los cuales las campañas tuvieron mucho éxito.
El hecho sorprendente fue que, de media, las campañas no funcionaron. Creo que, en el caso de muchas empresas, esto es revelador, porque hay algo en lo que deberían estar pensando: “¿Cómo podemos personalizar nuestras campañas de retención?”
Cómo deberían las empresas dirigir sus campañas:
Se trata de un tema muy interesante. En lo que se refiere a la customización, lo que considero fantástico actualmente —sobre todo en el caso de muchas empresas que se basan en datos— es que las empresas disponen de un gran volumen de información sobre su clientela. En el contexto de la telefonía celular, por ejemplo, las empresas reúnen información de forma sistemática sobre el consumo pasado. En nuestro caso, habíamos reunido informaciones sobre los tres meses anteriores, ¿cuál era el nivel promedio? ¿Cuál es el volumen que las personas están consumiendo por encima del número de minutos incluidos en el plan? Contábamos con informaciones sobre la disponibilidad de esas personas. En un mes, ¿ellas usaban 100 minutos? Al mes siguiente, de pronto, ¿estaban usando 200 ó 500 minutos?
Esos son los tipos de patrones que se pueden observar y que están disponibles en la base de clientes de las empresas. Muchas veces, lo que descubrimos fue que si adjudicábamos los datos a los clientes, la utilización de los patrones observables sería una excelente manera de hacer la customización.
Voy a ofrecer un ejemplo específico. En nuestro caso, descubrimos que las personas que consumían mucho, muy por encima del número de minutos de que disponían, consumidores que presentaban gran variación de uso, consumidores de tendencia negativa a lo largo del tiempo —estaban consumiendo cada vez menos— eran los que podrían dejar la empresa. En el caso de muchos de ellos, someterlos a una campaña de retención haría, en realidad, que aumentara su deseo de salir.
A veces, es mejor no tocar las cosas.
Dónde aplican las empresas de forma errada sus datos:
Una cosa interesante que sucede por todas partes hoy en día, principalmente si tenemos el big data en mente, la analítica y todas esas cosas, es que las empresas están experimentando muy deprisa. Hay muchas que están haciendo de forma sistemática pruebas A-B [experimentos aleatorios con dos variables].
Descubrimos que no basta con hacer pruebas A-B. Es importante analizar los datos correctamente. Voy a proporcionar un ejemplo específico. En nuestra prueba A-B, había un grupo que había recibido recomendaciones; el otro grupo no recibió ninguna recomendación. Las personas que recibían recomendaciones, y las aceptaban, cancelaban menos el servicio en comparación con el grupo de control. Alguien podía imaginar frente a eso que la campaña de retención había funcionado. Pero es importante recordar que los clientes decidieron aceptar la campaña. Por lo tanto, hubo una elección personal.
Las personas que habían sido expuestas a la campaña y decidieron no aceptarla cancelaron más el servicio. El hecho de que hubieran sido expuestas a la campaña cambió su comportamiento. Por eso, es importante que las empresas, cuando hagan pruebas A-B, piensen cuidadosamente en lo que será aleatorio y en lo que será escogido por el consumidor. La ausencia de esa distinción puede llevar a la empresa a imaginar que sus campañas tienen éxito, cuando en realidad no lo tienen. Las pruebas A-B, en nuestra opinión, deberían despegar rápidamente en el segmento de la analítica de datos. Es bueno señalar que es fácil hacer pruebas A-B— pero, analizar e interpretar correctamente los resultados es mucho más importante.
Sacar la elección personal de la ecuación:
Mucha gente analiza los planes de precios y cómo el cliente escoge entre uno y otro. Muchas de esas cosas son escogidas por los propios consumidores. Por lo tanto, desde la perspectiva de la empresa, si ella quiere analizar el impacto causal de lo que sucede cuando presenta los planes de precios, será difícil hacerlo a priori, porque hay un aspecto de elección personal por parte del cliente.
¿Cómo sortear eso? Convencer a la empresa de que debe hacer un experimento de campo, que es el patrón-oro de la interpretación causal. Lo que hicimos, a fin de cuentas, fue un experimento de campo en que, una vez más, algunas personas recibieron planes de precios, mientras que otras no recibieron ninguna recomendación. Eso nos ayudó a hacer una interpretación causal, lo que fue muy difícil de hacer usando tan solo datos secundarios, algo que otros investigadores ya hicieron.
Próximos pasos: hacer que las recomendaciones funcionen mejor
Me gustaría seguir trabajando en el área de planes de precios y recomendaciones. Después de trabajar con una empresa en Austin, Tejas, que está comenzando a analizar el consumo de energía y el segmento de mediciones inteligentes, surgió una preocupación: ¿cómo hacer que las personas entiendan, por ejemplo, que cuando consumen electricidad hay tarifas y categorías diferentes? Estamos intentando hacer una experiencia de campo, haciendo que las cosas fueran evidentes para el consumidor con el objetivo de ver de qué manera él cambia el consumo de energía a lo largo del tiempo o de algunos días, dependiendo de su consumo actual.