miércoles, 18 de septiembre de 2019 11:11
Opinión

EDGE COMPUTING: LOS DISPOSITIVOS COBRAN INTELIGENCIA

Pablo Rodríguez Canfranc
Pablo Rodríguez Canfranc
Economista

El internet de las cosas establece una conexión entre dispositivos, plataformas, acciones y personas. Cuando pensamos en esta tecnología, la primera asociación que nos viene a la cabeza es la de la industria: fábricas y plantas de montaje completamente automatizadas, en las que todas las fases de la cadena de producción cuentan con dispositivos que recogen información para monitorizar todo el proceso.


Sin embargo, los sensores en red tienen muchas más aplicaciones, muchas de ellas que pueden afectar a nuestra vida cotidiana. Por poner unos pocos ejemplos, en el campo de la salud, existe un casco conectado para hacer el seguimiento de enfermos de Alzheimer y recibir un aviso en el caso de que se produzca algún percance. En la misma línea, unas suelas de zapato inteligentes sirven para la localización de personas mayores. Finalmente, en el ámbito de los animales de compañía, la aplicación Dogsens aprovecha la conectividad IoT para controlar el estado y la actividad de las mascotas, transmitiendo la información al teléfono móvil del dueño en tiempo real.


El IoTtradicional parte de la base de que los sensores y dispositivos de los extremos de la red son elementos pasivos, es decir, que su función se limita a recoger información y mandarla a la nube, a centros de datos donde es procesada, analizada y utilizada para tomar decisiones. Sería el caso, por ejemplo, de los sensores para medir la calidad del aire desplegados por una ciudad, que envían sus registros a un centro de control donde se activan las alertas cuando los niveles de contaminación superan los límites establecidos.


Frente a esa arquitectura centralista, ahora aparece el Edge Computing, cuya filosofía se basa en dotar de inteligencia a los sensores y dispositivos de recogida de información, para que esos datos sean procesados más cerca de donde se crearon, en lugar de enviarlos a través de largos recorridos hasta los centros de datos y nubes de computación.


El Cloud Computing ha supuesto liberar progresivamente a los terminales de la necesidad de tener una capacidad de procesado cada vez mayor, pues este se realiza en la nube. Los años 80 y 90 conocieron el boom de los ordenadores personales, en los que todo el hardware necesario para ejecutar programas y aplicaciones estaba en poder del usuario. A medida que el software se hacía más complejo, necesitábamos máquinas cada vez más potentes. No hay más que recordar -los que vivieron aquella época- la larga procesión de microprocesadores de Intel que se iban sucediendo, a cuál más poderoso: 286, 386, 486, Pentium…


Hoy en día, en cambio nuestros terminales –ya sean ordenadores, tabletas, móviles o consolas- hacen uso en gran medida de servicios que están centralizados en la red. Pensemos, por ejemplo, en el correo electrónico, como Gmail de Google, en plataformas para almacenar información, como Dropbox, o en Office 365, la versión online de la popular suite ofimática de Microsoft. Por supuesto, servicios todavía más avanzados, como los asistentes personales o la TV por internet, reciben sus contenidos y la inteligencia artificial que los hace funcionar desde la nube.


Sin embargo, se trata de un modelo que presenta limitaciones. Por una parte, la información tiene que recorrer enormes distancias de cientos y de miles de kilómetros desde los dispositivos hasta el centro de datos. Por otra, cuanta más distancia, mayor es el número de redes que deben recorrer los datos y mayor es la probabilidad de que sufran retrasos por el tráfico. En telecomunicaciones estos retardos que producen las redes se denominan latencia.


En la comunicación entre objetos, la latencia se convierte en un factor crítico. Sin una latencia ultrabaja será imposible mover los volúmenes de datos que produzcan los miles de millones de objetos que constituyen el internet de las cosas. Para hacernos una idea de la importancia de esto con un ejemplo, en un coche autónomo un retraso en la transmisión de información puede implicar frenar demasiado tarde y que tenga lugar un accidente con consecuencias fatales.


El Edge Computing supone llevar las capacidades de computación desde el centro de la red –los centros de datos- a los bordes –los dispositivos que recogen la información-, con el fin de mejorar el funcionamiento del sistema, de bajar los costes y de asegurar una mayor fiabilidad de las aplicaciones y los servicios que soporta.


El cómputo en el borde contribuye a reducir la distancia entre los recursos de red y los dispositivos, mitigando de esta manera las limitaciones que se presentan en la actualidad relacionadas con la latencia y el ancho de banda. Parte del trabajo inteligente que antes realizaban los centros de computación recae ahora sobre los sensores y objetos en los extremos de la red, cuya tarea ya no se limitará solamente a recoger y enviar datos.


Los dispositivos en el borde pueden ser cualquier objeto del internet de las cosas, desde un coche autónomo, a un sensor medioambiental, una cámara de seguridad o un semáforo. Algunos de ellos estarán en exclusiva dedicados a recoger y enviar flujos de datos a la red, pero otros se convertirán en pasarelas especializadas para agregar y analizar datos e incluso para realizar alguna función de control de los mismos. Finalmente, existirán dispositivos que podrán convertirse en nodos programables de la red, capaces de ejecutar aplicaciones más complejas. La cercanía de estos dispositivos al usuario final los convierte en idóneos para realizar tareas que requieren una latencia cercana a cero, pero no una capacidad de procesar compleja. Acciones como el frenado en coches autónomos, por ejemplo.

COMENTAR


Más opinión
Opinadores
Pressdigital
redaccion@pressdigital.es
Powered by Bigpress
RESERVADOS TODOS LOS DERECHOS. EDITADO POR ORNA COMUNICACIÓN SL
Mapa Web Aviso-legal Cookies Consejo editorial version mobil