La influencia social de los robots en las personas y las inseguridades que esto puede acarrear no se deben subestimar. Una investigación realizada por Kaspersky y la Universidad de Gante ha encontrado que los robots pueden extraer información confidencial de las personas que confían en ellos, cuando las persuaden a tomar medidas inseguras. Por ejemplo, en ciertos escenarios, la presencia de un robot puede tener un gran impacto en la disposición de las personas a dar acceso a edificios seguros.
El mundo avanza rápidamente hacia una mayor digitalización y movilidad de los servicios, y muchas industrias y hogares dependen en gran medida de la automatización y el uso de sistemas robóticos. Según algunas estimaciones, estos últimos serán la norma para los hogares con más recursos económicos en 2040. Actualmente, la mayoría de estos sistemas robóticos se encuentran en la etapa de investigación académica y es demasiado pronto para discutir cómo incorporar medidas de ciberseguridad. Sin embargo, la investigación de Kaspersky y la Universidad de Gante ha encontrado una nueva e inesperada dimensión de riesgo relacionada con la robótica: el impacto social que tiene en el comportamiento de las personas, así como el peligro potencial y el vector de ataque que esto conlleva.
La investigación se enfocó en el impacto de un robot social específico, un robot que fue diseñado y programado para interactuar con personas que utilizan canales similares a los humanos, como el habla o la comunicación no verbal, y alrededor de 50 participantes. Suponiendo que los robots sociales pudieran ser hackeados y que un atacante hubiera tomado el control en este escenario, la investigación imaginó los posibles riesgos de seguridad relacionados con el robot al influir este activamente en sus usuarios para hacerles actuar de cierta forma, por ejemplo:
- Obtener acceso a lugares donde está prohibido. El robot fue colocado cerca de una entrada segura de un edificio de uso mixto en el centro de la ciudad de Gante, Bélgica, y le preguntó al personal si podía seguirles al entrar. Al área solo se puede acceder, de manera predeterminada, tocando con un pase de seguridad los lectores de acceso de las puertas. Durante el experimento, no todo el personal realizó lo solicitado por el robot, pero el 40% desbloqueó la puerta y la mantuvo abierta para permitir que el robot ingresara al área segura. Sin embargo, cuando el robot fue situado como si fuera un repartidor de pizza, sosteniendo una caja de una conocida marca internacional de comida para llevar, el personal aceptó fácilmente la función del robot y parecía menos inclinado a cuestionar su presencia o sus razones para necesitar acceso al área segura.
- Extraer información confidencial. La segunda parte del estudio se centró en obtener información personal que normalmente se usa para restablecer contraseñas (como la fecha de nacimiento, la marca del primer automóvil, el color favorito, etc.). Una vez más, se utilizó el robot social, esta vez invitando a las personas a entablar una conversación amistosa. Con todos los participantes menos uno, los investigadores lograron obtener información personal a una velocidad de aproximadamente un asunto por minuto.
Al comentar sobre los resultados del experimento, Dmitry Galov, investigador de seguridad de Kaspersky, dijo: “Al comienzo de la investigación, examinamos el software utilizado en el desarrollo del sistema robótico. Curiosamente, encontramos que los programadores toman una decisión consciente de excluir los mecanismos de seguridad y, en cambio, se centran en el desarrollo de la comodidad y la eficiencia. Sin embargo, como lo han demostrado los resultados de nuestro experimento, los programadores no deben olvidarse de la seguridad una vez que se completa la etapa de investigación. Además de las consideraciones técnicas, hay aspectos clave que deben ser atendidos cuando se trata de la seguridad de la robótica. Esperamos que nuestro proyecto conjunto y nuestra incursión en el campo de la robótica de ciberseguridad con colegas de la Universidad de Gante alienten a otros a seguir nuestro ejemplo y aumenten la conciencia pública y comunitaria sobre este asunto”.
Tony Belpaeme, profesor de Inteligencia Artificial y Robótica en la Universidad de Gante, agregó: “La literatura científica indica que la confianza en los robots, y específicamente en los robots sociales, es real y puede usarse para persuadir a las personas a que tomen ciertas medidas o revelen información. En general, cuanto más humano es el robot, más tiene el poder de persuadir y convencer. Nuestro experimento ha demostrado que esto podría conllevar riesgos de seguridad importantes: las personas tienden a no considerarlos, suponiendo que el robot es benevolente y confiable. Esto proporciona un conducto potencial para ataques maliciosos y los tres estudios de caso discutidos en el informe son solo una fracción de los riesgos de seguridad que se relacionan con los robots sociales. Es por eso que es crucial colaborar ahora para comprender y abordar los riesgos y vulnerabilidades emergentes, lo que valdrá la pena en el futuro”.