viernes, 20 de septiembre de 2019 01:03
Opinión

EL CLUB DE LA LUCHA DE LOS ALGORITMOS

Pablo Rodríguez Canfranc
Pablo Rodríguez Canfranc
Economista

Robot inteligencia artificial


Cada vez son más las voces que se alzan avisando del peligro que supone para el ser humano el desarrollo de sistemas de inteligencia artificial cada vez más perfectos. Si a ello le sumamos la posibilidad de crear algoritmos deliberadamente diseñados para atacar y confundir a sistemas inteligentes, la capacidad para hacer daño crece de forma exponencial. Aunque suene pintoresco, una solución pasa por enseñar a los algoritmos a defenderse y pelear contra atacantes malintencionados. Y para ello se ha creado una suerte de club de la lucha para sistemas de inteligencia artificial.


Las máquinas inteligentes que aprenden se pueden diseñar para ayudar a las personas, para hacernos la vida más fácil, pero también pueden ser utilizadas para cometer cibercrímenes. Incluso los algoritmos más sofisticados pueden ser engañados. Por ejemplo, un filtro antispam puede ser evitado si se descubren los patrones que utiliza para clasificar el correo electrónico como no deseado. También algoritmos basados en redes neuronales profundas destinados a identificar objetos al reconocerlos en imágenes pueden ser fácilmente confundidos.


Los expertos advierten que tanto los hackers y la ciberseguridad se dirigen hacia la senda de la inteligencia artificial. El investigador de Google Brain Ian Goodfellow lo tiene claro: "los malos utilizarán las máquinas que aprenden (machine learning) para automatizar sus ataques y nosotros utilizaremos el machine learning para defendernos".


Las posibilidades de delinquir engañando a los sistemas inteligentes son infinitas, desde suplantar la personalidad troleando a los sistemas de reconocimiento facial o de voz, hasta desorientar y confundir a los sensores de los coches autónomos para causar un accidente.


Ante este panorama alarmante, existe una línea de la ciberseguridad que se encarga de entrenar a los algoritmos para defenderse de los ciberataques de los sistemas adversos que intentan engañarles. En suma, les enseñan a pelear.


La plataforma para las competiciones científicas Kaggle ha organizado una curiosa competición que durará varios meses en la que los algoritmos "combaten" entre sí, como si estuviesen subidos en un ring de boxeo (Competition on Adversarial Attacks and Defenses). El objeto de cada uno de los sistemas inteligentes participantes es intentar engañar a los otros y/o defenderse de ataques. De esta forma los investigadores que hay detrás del proyecto pueden analizar su grado de resistencia ante posibles ciberataques y poder fortalecerles en consecuencia.


Por una parte, se trata de descubrir cómo engañar a una red neuronal y por otra cómo construir redes neuronales que no se dejen engañar.


La competición tiene tres categorías, por así decirlo:


- Ataque adverso sin objetivo (Non-targeted Adversarial Attack). La meta de este ataque consiste en modificar levemente una imagen para conseguir que un sistema inteligente la clasifique incorrectamente.


- Ataque adverso con objetivo (Targeted Adversarial Attack). En este caso la modificación de una imagen persigue que la inteligencia artificial la clasifique incorrectamente como algo concreto previamente definido.


- Defensa ante ataque adverso (Defense Against Adversarial Attack). Construir un clasificador inteligente que sea inmune a los ataques adversos.


Kaggle, que es parte de Google Cloud, supone un valioso campo de experimentación en inteligencia artificial. Además, sus responsables consideran que la difusión de este "club de la lucha de algoritmos" puede atraer la atención pública sobre los riesgos asociados a las máquinas inteligentes en un momento en que su presencia se va haciendo cada vez más visible en muchos ámbitos de la sociedad.

COMENTAR


Más opinión
Opinadores
Pressdigital
redaccion@pressdigital.es
Powered by Bigpress
RESERVADOS TODOS LOS DERECHOS. EDITADO POR ORNA COMUNICACIÓN SL
Mapa Web Aviso-legal Cookies Consejo editorial version mobil