domingo, 17 de noviembre de 2019 01:54
Sociedad

Los terroristas podrían usar coches autónomos para cometer atentados

|

Interior de un coche autou0301nomo


Los terroristas podrían usar la inteligencia artifical para provocar accidentes con coches sin conductor, atentados y ataques cibernéticos. Investigadores de Oxford y Cambridge han mostrado su preocupación ante esta posibilidad, dado que la tecnología se está desarrollando rápidamente sin tener en cuenta sus aspectos negativos.


Un grupo de 26 expertos, entre ellos los del Future of Humanity Institute de Oxford, el Centre for the Study of Existential Risk de Cambridge y OpenAI -la organización respaldada por el multimillonario de tecnología Elon Musk- alerta que el uso malintencionado de la inteligencia artifical presenta un "peligro claro y presente" para la sociedad en la próxima década.


El informe, según publica 'The Telegraph', advierte de que los terroristas podrían aprovechar vulnerabilidades en la inteligencia artifical para estrellar flotas de vehículos sin conductor o secuestrarlos para lanzar ataques en espacios públicos.


Algoritmos sofisticados también podrían rastrear las cuentas de redes sociales de los objetivos antes de lanzar ataques de correo electrónico 'phishing' para robar datos personales o acceder a información confidencial de una empresa.


El informe advierte que las empresas tecnológicas y los investigadores se esfuerzan por impulsar el desarrollo de software que pueda conducir automóviles de forma autónoma y que estos avances podrían  ser provechados por los delincuentes


El documento sostiene que los seres humanos podrían confiar demasiado en los sistemas de inteligencia artificial, como los coches sin conductor, aun cuando existe la evidencia de que podrían ser fácilmente manipulados


MANIPULAR ELECCIONES Y CREAR NOTICIAS FALSAS


Además de su potencial para ataques físicos, los ciberdelincuentes y estados rebeldes podrán emplear la inteligencia artificial para interferir en elecciones utilizando ejércitos de "bots" y noticias falsas para distorsionar el debate sobre los medios sociales, señalan los investigadores. Una posibilidad que ya se estaría presentando. 


Los investigadores afirman que la inteligencia artificial está facilitando la edición de vídeos y audios para producir filmaciones falsas de políticos y celebridades, y que la tecnología de reconocimiento facial podría utilizarse para la vigilancia masiva de los espacios públicos.


"Algunos de estas cosas ya están ocurriendo en forma limitada hoy en día, pero podrían ampliarse o hacerse más poderosas con nuevos avances técnicos", destacan. 


Los autores del informe, que incluyen expertos de la Universidad de Stanford y del grupo de derechos digitales Electronics Frontier Foundation, planean presentar sus hallazgos a gobiernos y empresas tecnológicas. 


Confian en que sus hipótesis conduzcan a nuevas normas y directrices sobre cómo se desarrolla la inteligencia artificial, instando a los investigadores a incorporar salvaguardias en la tecnología y a considerar cómo podrían ser utilizados por los delincuentes.


relacionada 800 millones de personas perderán su trabajo por los robots
relacionada Twitter avisará a los usuarios expuestos a la propaganda rusa durante las elecciones en EEUU

COMENTAR



Pressdigital
redaccion@pressdigital.es
Powered by Bigpress
RESERVADOS TODOS LOS DERECHOS. EDITADO POR ORNA COMUNICACIÓN SL
Mapa Web Aviso-legal Cookies Consejo editorial version mobil