banner edicion impresa

Flirtear con chatbots puede acabar con tu privacidad on-line

Las preguntas que realizan estos bots pueden ir desde lo más trivial, como preguntar tu nombre, edad, procedencia, hasta deseos mucho más secretos y profundos.

Flirtear con chatbots puede acabar con tu privacidad on-line
Los peligros de los chatbots
Por: Especial

 

Cada vez crece más el número de chatbots románticos, diseñados para hacerse pasar por un «novio» o «novia» virtual y mantener conversaciones como lo se haría con una pareja real. Estos servicios de IA en línea o implementados mediante una app tienen un peligro oculto. Y es que no solo están diseñados para flirtear los usuarios, también pueden obtener gran cantidad de información personal mediante las preguntas que te hacen o mediante la información que introduce el propio usuario.

Las preguntas que pueden realizar estos bots pueden ir desde lo más trivial, como preguntar tu nombre, edad, procedencia, hasta deseos mucho más secretos y profundos. Y, como se trata de un bot, los usuarios pueden abrirse más de la cuenta, confesando cosas bastante confidenciales y que podrían ser críticas para la privacidad, anonimato o la propia seguridad del usuario. Este problema no es único de este tipo de chatbots, también se puede extender a otros muchos tipos de IA para ayudarte al bienestar mental, o te asisten en otras muchas situaciones.

Los peligros de los chatbots

Aunque los chatbots puedan parecer inocentes, ya que no existe un humano con malas intenciones al otro lado del chat, como puede ocurrir con otras apps de mensajería, no deberías confiarte. Las novias/os por IA pueden parecer muy simpáticos, empáticos y abiertos a todas tus fantasías sexuales, pero son solo un gran modelo de lenguaje, una máquina que puede recolectar tu información privada para venderla a terceros, como sucede con otros muchos servicios y software. Y no solo eso, sino que las debilidades de seguridad de estos servicios pueden hacer que esta información pueda estar disponible para otros ciberdelincuentes con malas intenciones.

Así lo han podido comprobar investigadores de la compañía Mozilla, encontrando indicios de que las malas prácticas de privacidad de estas aplicaciones las harían peligrosas. Según este estudio, la mayoría (73%) de los chatbots sentimentales no mencionaron cómo manejan las vulnerabilidades de seguridad, y muchas de ellos (64%) carecían de cualquier información pública sobre el cifrado, si es que lo usan. Más de la mitad (54%) no permiten a los usuarios eliminar sus datos, y casi la mitad (45%) permiten a los usuarios implementar contraseñas muy débiles.

Por ello, 11 chatbots de los analizados por la compañía de Firefox obtuvieron la etiqueta de advertencia "Privacy Not Included" de Mozilla, que utiliza para informar a los posibles usuarios sobre posibles amenazas de la confidencialidad. Algo que permite a los usuarios que acceden a estas páginas webs puntuar el nivel de riesgo que auto-perciben.