SHARE

(ROBOT – TECNOLOGÍA – CONVERSACIONES) Ante una tecnología en su fase experimental, saltar y rasgarse las vestiduras con la violación de los supuestos derechos de una persona porque, pobrecita, no sabe que está hablando con una máquina es, en mi opinión, una soberana estupidez.

Por Enrique Dans, Profesor en Sistemas de Información en el IE Business School

La presentación de una tecnología experimental, Google Duplex en la conferencia de apertura del Google I/O 2018 parece no haber dejado indiferente a nadie. Inmediatamente tras la demostración de dos llamadas para hacer reservas, una en una peluquería y otra en un restaurante, llevadas a cabo por un asistente con dos voces distintas que resultado completamente imposible identificar como no humanas, ha surgido una fuerte corriente de rechazo que considera a la compañía “insensible”, “inquietante” o incluso “horripilante (…) éticamente perdida, sin timón e incapaz de aprender de sus errores“.

Reacción primaria

La reacción es tristemente primaria: ante una conversación entre una máquina y una persona, el observador humano asume inmediatamente una identificación con el participante humano, y rápidamente pasa a pensar que el hecho de que esté hablando con una máquina sin saberlo es algún tipo de ofensa, un insulto a su capacidad de discernimiento, o incluso algún tipo de abuso… cuando en realidad, lo que quiere el humano al otro lado del hilo es vender, y lo que hará en cuanto le sea posible será poner a su vez a otro agente automatizado al otro lado. Vamos a ver: ¿alguna vez han tenido algún tipo de problema las empresas en engañar a sus clientes y hacerles pensar que hay un humano al otro lado cuando no lo hay? No, jamás. El rosario de torpes intentos de hacer pasar interacciones como humanas va desde las robocalls automatizadas hasta los mail merge, pasando por lo que se nos ocurra. Si una compañía puede ahorrarse costes – porque ni siquiera, en la mayor parte de las ocasiones, se han planteado hacerlo para mejorar la experiencia del cliente o para incrementar su fidelidad – haciendo pasar a un robot por un humano, no lo dudemos: lo hará, sin plantearse ningún tipo de dilema ético. En gestión empresarial, los costes lo justifican todo, y pocas veces nos escandalizamos por ello.

Uso empresarial

Lo que más me puede preocupar de Google Duplex es, precisamente, su uso empresarial: su posible aplicación al telemarketing por parte de empresas irresponsables (el perfecto empleado al que no le importa repetir la llamada cien veces, no se desmotiva cuando lo rechazas y tiene un argumentario infinito ideado mediante machine learning a partir de millones de llamadas) y la evidencia de que siempre hay una empresa con un directivo suficientemente imbécil como para hacer lo que nadie con un mínimo de sentido común o inteligencia haría. Y sin embargo, lo que nos encontramos inmediatamente es a un puñado de usuarios bienpensantes que se preocupan por la ética de que el empleado de una compañía no sepa si está hablando con un posible cliente o con su asistente robótico…

Ante la corriente de críticas y las peticiones de hacer obligatorio que los robots se identifiquen como tales en sus conversaciones, la compañía ha asegurado que hará precisamente eso: incluirá un disclosure en el asistente, algún tipo de advertencia inicial que deje claro a quien esté al otro lado que está hablando con un asistente robótico. Quien sabe, a lo mejor tendremos que pasar un captcha o un test de Turing para demostrar que somos humanos antes de empezar una llamada. Algo que, muy posiblemente, hará que funcione peor y se convertirá en una excusa para que, conociendo la habitual estupidez humana, las peticiones que hagamos a través de nuestros asistentes sean consideradas como “de segunda”, reciban un peor trato, o incluso se utilicen como pretexto cuando haya un error… que por supuesto, vendrá invariablemente de la parte humana (¿o no llevamos años “echando la culpa al ordenador” cuando nos da la gana para justificar lo injustificable?) Es, sencillamente, es-tú-pi-do, así, com todas sus sílabas: se crea una tecnología para hacernos la vida más sencilla y llevar a cabo esas interacciones que tanto nos molesta hacer a nosotros mismos, pero vamos nosotros y nos preocupamos por los derechos del humano al que le toca levantar el teléfono, pobrecito, que ahora no va a saber si está hablando con otro humano o con una máquina…

Repito: lo que quiere el humano que levanta el teléfono es VENDER. De la manera más rápida y eficiente posible. Si hablar con un asistente, dado que es más eficiente y comete menos errores que el torpe de su amo, hace que surjan menos problemas y que la transacción tenga lugar con menos fricción, mejor aún. El dilema ético de si el empleado sabe si habla con una máquina o no es un dilema ético de andar por casa, un problema inventado y absurdo, y de hecho, la compañía sustituirá a ese empleado por un asistente robótico en cuanto tenga la mínima oportunidad, y no se preocupará lo más mínimo de si el que llama sabe o no que habla con un robot – salvo si vende menos. No, al empleado no le va a pasar nada: no va a tener problemas psicológicos, no va a experimentar efectos secundarios y no se va a enamorar de la voz que le llama (y si lo hace, peor para él). Estamos magnificando un problema que no existe. Si acaso, habrá que plantearnos, y más pos curiosidad sociológica que porque haya ningún problema, cómo evolucionarán las normas y protocolos sociales en un mundo en el que la voz de las máquinas es indiscernible de la de las personas, o si es sostenible que muchos humanos a la vez utilicen a su incansable asistente para peticiones sobredimensionadas, exhaustivas o que jamás tendría sentido que se plantease hacer una persona.

Si no te gusta el asistente robótico de Google, no lo uses. Pero déjanos en paz y no plantees absurdos dilemas morales a los que le estamos deseando sacarle partido, por favor.

 

Ante una tecnología en su fase experimental, saltar y rasgarse las vestiduras con la violación de los supuestos derechos de una persona porque, pobrecita, no sabe que está hablando con una máquina es, en mi opinión, una soberana estupidez.

Desarrollemos la tecnología sin cortapisas, veamos qué problemas emergen de su uso, e intentemos corregirlos introduciendo mejoras de manera paulatina mediante ensayo y error. Así funciona el progreso, no con mentes bienpensantes que saltan histéricas a la mínima pretendiendo que “es inmoral” que nos llame una máquina “porque no sabemos que lo es”. Si no te gusta el asistente robótico de Google, no lo uses. Pero déjanos en paz y no plantees absurdos dilemas morales a los que le estamos deseando sacarle partido, por favor.

ESTE ARTÍCULO TE PUEDE INTERESAR

Los consumidores prefieren el contacto humano y no los chatbots

LEAVE A REPLY

Please enter your comment!
Please enter your name here