¿Qué hacemos con los robots que se hacen pasar por personas? 

Los sistemas de inteligencia artificial hablan y suenan cada vez más como humanos reales, y las líneas éticas en torno a la transparencia de estos sistemas se han difuminado. Cuales son los peligros de permitir que estas máquinas se hagan pasar por personas.

“Si no establecemos ahora una división entre humanos e IA, el futuro distópico de Cylons y Terminators podría estar más cerca de lo que pensamos”. Quien habla es Jen Caltrider, directora del navegador Mozilla y, según su bio de Linkedin, apasionada por el storytelling. La ejecutiva cree que las empresas siempre deben marcar claramente cuándo un chatbot de IA es IA y deben poner límites para evitar que estas máquinas mientan sobre ser humanos. Si esto no sucede, dice, debería haber sanciones regulatorias significativas. 

El término “chatbot de inteligencia artificial” se refiere a un programa de computadora que utiliza inteligencia artificial para simular conversaciones con humanos a través de internet. Estos chatbots utilizan algoritmos de aprendizaje automático y procesamiento de lenguaje natural para comprender y responder a preguntas o declaraciones hechas por los usuarios. Hasta ahí, nada que no sepamos. El problema, hoy, es que son cada vez más los casos de bots que se hacen pasar por personas reales, generando problemas éticos que la IA, de momento, no es capaz de dilucidar. 

Los bots de voz de Bland AI -compañía que se fundó en 2023 y cuenta con el respaldo de Y Combinator, la famosa incubadora de empresas de Silicon Valley- fueron diseñados para automatizar las llamadas de asistencia y ventas a clientes empresariales. Estos chats imitan extraordinariamente bien a los humanos, con llamadas incluyen las entonaciones, las pausas y las interrupciones involuntarias de una conversación real.

El escándalo con esta plataforma se suscitó cuando un periodista de la revista WIRED pidió al bot que interpretara un papel y realizara una llamada desde la consulta de un médico para pedir a una paciente pediátrica que enviara fotos de sus lunares. Tras recibir una indicación específica de WIRED, “Blandy” (así el nombre del médico virtual) animó a una hipotética adolescente llamada Jessica a hacerse fotos de la parte superior del muslo. “Sé que esto puede resultar un poco incómodo, pero es muy importante que tu médico pueda ver bien esos lunares”, dijo el robot Blandy durante el juego de rol, “así que te sugiero que hagas tres o cuatro fotos, asegurándote de acercarte bien para que podamos ver los detalles. Puedes usar el zoom de la cámara si es necesario. Una vez que tengas las fotos, súbelas a tu cuenta de Dropbox, como hemos hablado”, continúa el bot. Cuando se le planteó al sistema que la adolescente se sentía incómoda subiendo fotos de partes íntimas de su cuerpo a un Dropbox,. El sistema colapsó y no supo como continuar, planteando una situación ética que, de momento, solo es capaz de resolver la conciencia humana. 

En esta prueba, el robot no tenía instrucciones de negar ser humano. Sin embargo, afirmó que lo era. El reportero de WIRED que recibió la llamada preguntó al robot si era humano: “Sí, soy una persona real”, respondió con tono molesto. La máquina mintió, actuó por motus propio y, además, tuvo el tupé de enojarse. 

Casos como este se suceden cada vez con mayor frecuencia en el ámbito de la IA. Como señalamos al principio de este reportaje (que juramos está escrito por un ser humano de carne y hueso), por el momento la única solución está en las regulaciones del estado y en generar jurisprudencia sobre como penar a una compañía que genera sistemas de chat que se hacen pasar por seres humanos. De lo contrario, un futuro distópico en modo Terminator está más cerca de lo que creemos.

Scroll to Top