Tu próximo robot sexual podría matarte: el debate moral sobre la dirección que ha tomado la industria

Screenshot 2
Sin comentarios Facebook Twitter Flipboard E-mail

RealDoll y su compañía hermana, Realbotix, son la punta de lanza de la industria de las muñecas (y muñecos) sexuales, las empresas comandadas por Matt McMullen que están haciendo todo lo posible por que cumplamos nuestras fantasías sobre entes humanoides lo más parecidos posible a un ser humano. Desde 2018 sus modelos más avanzados tienen inteligencia artificial que aprende de nuestros estímulos, se conectan por bluetooth y se manejan por apps para que puedas pedirle a tu gadget que te diga que te ama con acento escocés.

Por el momento en los modelos comercializados sólo está mecanizada la cabeza (puede succionar, pestañear y girar el cuello de lo lindo), pero ahora se han puesto con la programación de manos y brazos. Creen que en cinco años estará listo, y deberán darse prisa porque ya han salido competidores: Cloud Climax le pisa los talones.

En 2017 el CEO de Space X y Tesla, Elon Musk, dijo que la inteligencia artificial avanzada es nuestro mayor riesgo de entrar en una Tercera Guerra Mundial, e incluyó a los robots sexuales como uno de los principales focos de amenaza. Los medios de comunicación llevan desde entonces especulando, de forma más abstracta que tangible, con esta posibilidad, y esta semana el debate ha vuelto a la palestra por unas declaraciones de un doctor en ciberseguridad, Nick Patterson, para el diario inglés Daily Star.

Para el profesor, “piratear un robot sexual podría ser incluso más fácil que acceder al portátil o al móvil de alguien”. Advirtió de que un atacante podría tomar el control remoto de sus brazos y piernas, quién sabe si agarrar un cuchillo, una posibilidad que no puede tomarse a la ligera dado que hay en el mercado muñecas de hasta 100 kilos de peso (aunque el promedio está más cercano a los 45-50). ¿Charlatanería sensacionalista, chiste para redes sociales o miedo legítimo?, se pudieron preguntar los lectores.

No es una cuestión de “si”, es una cuestión de “cuándo”

vvfd

Román Ramírez (@patowc) es de los que se encuentran en el primer grupo. Para este experto en seguridad y coorganizador de una de las ferias más importantes a nivel mundial del ramo, el tema es “muy serio” y debemos “ser ambiciosos” a la hora de pensar en la gravedad de los problemas de ciberseguridad. “Si aún no se ven demasiados casos de hackeos de estas máquinas es porque la tecnología sexual aún no está lo suficientemente evolucionada y no tiene una gran implantación entre la población. Le faltan unos años para la democratización, y cuando eso ocurra aumentará el crimen. Es que fíjate, ya hay diademas con electrodos de ondas cerebrales con las que puedo manejar drones con solo pensarlo y esta tecnología es vieja, tiene ya ocho años”.

En el momento en el que hay un robot que se puede controlar en remoto, nos cuentan, hemos de aceptar que lo va a poder controlar un adversario, y por eso “cuanta más versatilidad se le quiera dar a la muñeca, mayor será el riesgo”.

Cesar Cerrudo (@cesarcer), experto en seguridad cibernética e investigador de seguridad robótica e IoT, es más cauto acerca de la situación del presente: “hay que prestar atención al hardware de lo que compramos. Un atacante siempre puede explotar las funcionalidades al máximo dentro de las limitaciones físicas de fabricación del robot. Si el dispositivo puede succionar y apretar, si la cabeza puede rotar 360 grados y además puede rotar a gran velocidad, podría en algunos casos llegar a hacer daño a lo que tenga a su alrededor”, explica, pero no ir más allá. Por lo que nosotros hemos podido ver, nada de ir por ahí haciendo el Ex Machina… Al menos de momento (a continuación, el último update de la tecnología de los de McMullen del primer trimestre de 2021).

Pero sí se pueden hacer cosas más modestas. La muñeca, si es accesible de forma remota (y ya hemos visto que algunas, como RealDoll sí), puede quedar bloqueada e inservible de muchas de sus funciones para sus dueños. Y, si en el futuro los fabricantes decidiesen ponerles cámaras para mejorar esa experiencia con machine learning o para que el usuario pueda disfrutar de esos archivos después, los vídeos podrían ser usurpados por un criminal que la haya hackeado.

Dicho de forma más clara, nada nos debería hacer pensar que estos pequeños electrodomésticos vayan a evitar lo que le ha sucedido a otros más cotidianos y cuyos casos más estrambóticos han salido a la luz, como las muñecas de Barbie que empezaron a decir amenazas de muerte o la cafetera que se niega a darte cafés y te escupe agua hirviendo. Según una reciente investigación publicada por la firma de seguridad Gemalto, sólo se invierte en torno al 9% de recursos de productos del Internet of Things en seguridad, de ahí que de todos los datos encriptados en un país como Reino Unido sólo el 52% de ellos estaban encriptados.

Aunque sí hay una diferencia: las dolls, al tratarse de objetos revestidos de una estigmatización, podrían provocar que sea más difícil para las víctimas hablar con las autoridades después de haber recibido los chantajes.

¿Soluciones?

Si estás decidido a hacerte con uno de estos productos, hay dos muy sencillas: la primera, intentar que no tenga conexión. “Hay diferentes tipos de implementación de machine learning”, explica Ramírez. “Tú puedes hacer cosas entrenadas en la nube, sí, pero también hay herramientas de aprendizaje, como TensorFlow, que te permiten ejecutar en local y quedan grabadas en un chip. Así que habrá juguetes de este tipo con opción de experiencia con IA que no necesariamente tengan conexión con la nube”. Mejor siempre buscar los que no te hagan mediar con apps.

Y la otra y aún más complicada, buscar aquellas cuyos fabricantes permitan auditorias externas de empresas de certificación especializadas en la seguridad. “Pero ya te aviso, las compañías en su mayoría no quieren acudir a estos sitios porque va en contra de los intereses comerciales”, advierte Ramírez, algo con lo que está manifiestamente de acuerdo Cerrudo: “la mayoría de los fabricantes de casas que no llevan muchos años haciendo tecnología, para ganar mercado y adelantarse a la competencia ofrecen sus productos lo más rápido que pueden, lo que lleva a muy poca revisión de seguridad o una inexistente. Eso cuando no compran directamente esa tecnología desarrollada por terceros, que también pueden ser inexpertos. Son prácticas muy extendidas”.

Habrá que esperar a que un Amazon, Microsoft o Apple saquen su versión verificación y encriptado en cinco pasos de nuestro chico explosivo.

Newsletter de Xataka

Suscríbete a "Xatakaletter", una forma distinta de informarte cada semana de la actualidad tecnológica hecha con pasión por el equipo de Xataka.
Comentarios cerrados
Inicio