Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 23

Encuentro Tecnológico

Burgos Industria 4.0


Actas del congreso Industrial Track 4.0. Segunda Edición

16 de noviembre de 2021

Con el apoyo de:


1

Encuentro Tecnológico Burgos Industria 4.0

Editor de la serie
Javier Sedano
Grupo de Inteligencia Artificial aplicada y electrónica aplicada.
Instituto Tecnológico de Castilla y León (ITCL).
Burgos, España

Asesores de la edición
Manuel Luís González
Grupo de Inteligencia Artificial aplicada y electrónica aplicada.
Instituto Tecnológico de Castilla y León (ITCL).
Burgos, España

Raquel Redondo
IT Solutions Consultat. Smart Data & Process Automation – Corporate IT Department,
Grupo Antolín.
Profesora Asociada Departamento de Ingeniería Informática de la Universidad de Burgos.
Burgos, España

Elías F. Combarro
Grupo de Computación Cuántica y de Altas Prestaciones. Departamento de Informática
de la Universidad de Oviedo.
Oviedo, España
2

Javier Sedano

Encuentro Tecnológico
Burgos Industria 4.0
Actas del congreso Industrial Track 4.0. Segunda edición.
3

Prólogo
En el sistema digital y tecnológico donde la sociedad industrial, tecnológica y social se
encuentra en estos momentos, existen tecnologías disruptivas que pueden ayudar al
sistema y tejido empresarial actual y futuro; las razones se presentan a continuación:

La Inteligencia Artificial (IA), ha demostrado ser un gran compañero empresarial,


capaz de ayudar en la toma de decisiones y ayudar a clasificar, predecir y optimizar
situaciones.

Los sistemas de percepción artificial inteligente (SPAI) permiten identificar mapas de


puntos de imágenes y sensores láser y aprovechar las redes convolucionales en la
definición de patrones de imágenes.

Y finalmente, la Computación Cuántica, que presenta una oportunidad ante los


desafíos presentes y futuros, puede ser usada en el momento presente con ordenadores
clásicos que actúen como simuladores de circuitos, proporcionando una oportunidad o
un paso adelante.

Dr. Javier Sedano


Editor
Director I+D ITCL Centro Tecnológico
4

Contenido

La Inteligencia Artificial en entornos industriales.


Claves de éxito para su implantación. ........................................................................ 5
Raquel Redondo

Sistemas de percepción artificial inteligente. Visión artificial avanzada. ................. 9


Manuel Luís González, José María Armingol

Ingeniería Neuromórfica, Edge Computing: los algoritmos verdes.


Presentación del proyecto NeuroCPS4Maintance......................................................13
Javier Sedano

La computación cuántica y sus posibles aplicaciones en la industria........................19


Elías F. Combarro
5

La Inteligencia Artificial en entornos industriales.

Claves de éxito para su implantación

Raquel Redondo1,2
1
Corporate IT Department, Grupo Antolin, Burgos, España
[email protected]

2
Departamento de Ingeniería Informática, Universidad de
Burgos, Burgos, España [email protected]

Abstract. Las compañías deben acelerar el despliegue de la Inteligencia


Artificial (IA) para profundizar en su transformación digital y mejorar su
posición, su futuro depende de su grado de adaptación a los cambios y de su
capacidad de innovación. Existen varios factores clave a tener en cuenta para
el éxito en su implantación en entornos industriales y conseguir una fábrica
inteligente, como son, por ejemplo, las personas o los datos. Siguiendo la hoja
de ruta adecuada, la implantación de la IA en entornos industriales mejora la
competitividad de las compañías.

Keywords: Inteligencia Artificial · Industria Inteligente · Key Enabling


Technologies · Mantenimiento Predictivo

1. Introducción
El futuro de muchas compañías depende de su grado de adaptación a los cambios y de su
capacidad de innovación. Hoy en día las empresas industriales buscan ser: más
competitivas, ágiles y eficientes, flexibles a los cambios, maximizar su producción,
garantizar la calidad, reducir los costes, ser sostenibles, etc., para conseguir todo esto se
puede hacer uso de la Inteligencia Artificial (IA). La transformación digital ha ido
avanzando en las empresas industriales gracias al uso de las Key Enabling Technologies
(KETs) de la Industria 4.0, como son: IA, Fabricación avanzada, Big Data, Industrial
Internet of Things (IIoT), seguridad y conectividad, etc. Como consecuencia, las
empresas cuentan con grandes volúmenes de datos e información que deben ser
analizados para otorgarles ventajas competitivas.
Los avances en la IA están creando nuevas oportunidades para que las empresas
aceleren la innovación, mejoren su competitividad y lideren su sector de actividad. Se
debe utilizar la tecnología como palanca de cambio, como palanca de generación de
nuevos modelos de negocio. La innovación es una acción y se deben ver las
oportunidades. Diferentes estudios [1, 2] concluyen que las empresas deben acelerar el
despliegue de la IA para profundizar en su transformación digital y mejorar su posición
competitiva. Pero transformar los procesos de negocio es en realidad una transformación
6

cultural, el desafío que se tiene por delante es tanto sobre cultura y liderazgo como sobre
datos, análisis y tecnología.

2. Fábrica Inteligente
Las fábricas quieren poder aprender y adaptarse a los cambios en tiempo real, y para ello
es necesario disponer de información y datos permanentes sobre los elementos que
intervienen en ellas. Para poder capturar toda esta información es necesario instalar
sensores y dispositivos IoT (Internet Of Things). Gracias a la IIoT (Industrial IoT), es
posible tener millones de elementos de datos relacionados con las fábricas y sus
máquinas. Sin embargo, todos estos conjuntos de datos son inútiles y costosos a menos
que puedan analizarse; aquí es donde aparecen las propuestas de Big Data. Visual
Analytics, IA, etc.
Gracias a toda la información que se dispone de las fábricas, de eventos del pasado y
del presente, y usando la IA, se pueden tomar decisiones en tiempo real. Se dispone de
información de gran valor para la toma de decisiones, lo que permite realizar las acciones
adecuadas para anticiparse a los problemas, aumentando las capacidades humanas a
través de la inteligencia en los datos. Si se dispone de toda la información necesaria y
analizan los datos, se tienen fábricas más eficientes, además, es posible conseguir una
mayor sostenibilidad, ya sea optimizando el consumo, reduciendo los recursos necesarios,
minimizando los residuos, etc., en definitiva, fábricas inteligentes. Algunos ejemplos
reales aplicados a la industria que usan IA son los siguientes: mantenimiento predictivo,
trazabilidad de piezas, optimización de energía, calidad predictiva, optimización
intralogística, optimización de los procesos productivos, o también, el gemelo digital.

3. Claves del éxito


Para conseguir el éxito de la IA es crucial disponer de los datos necesarios, realizar un
procesamiento de los mismos, conseguir clasificarlos, proceder a codificar los algoritmos
de IA y por último realizar el despliegue en una infraestructura.

3.1. Hoja de ruta hacia la organización inteligente


Las claves para acelerar el despliegue de la IA en las organizaciones y su éxito son [2]:
asegurar una aproximación consistente a la IA, definir una estrategia de datos y
tecnología, contar con las capacidades necesarias, garantizar el liderazgo al máximo nivel,
y generar confianza en la IA.
En toda transformación, para que el camino lleve al éxito, es necesario hacer una
adecuada gestión del cambio. Para una óptima transformación industrial la adopción de
nuevos procesos o tecnologías es crítica.

3.2. El equipo: Las personas


El uso de la IA no debe estar enfocada en el reemplazo de las capacidades humanas sino
en su complemento [3]. Se trata de aumentar las capacidades humanas no de sustituirlas,
por lo que, no se debe olvidar el empoderamiento de las personas y su capacitación. Es
una transformación cultural, y por lo tanto, las personas son lo más importante, es
transcendental implicar a todos los empleados.
7

Se debe creer en lo que se hace, hay que creer en el proyecto; está demostrado que si
las personas creen en lo que hacen, el éxito es más probable que si no es así. Debe existir
apoyo desde la dirección, dado que, los cambios suceden cuando los gerentes creen en
ello.

Los equipos deben ser multidisciplinares, no sólo tener científicos de datos, sino
también gestores de proyectos, desarrolladores de software, investigadores de IA, un
sponsor o patrocinador, etc. Es importante contar con expertos en la materia, tener un
equipo adecuado. Puede ser necesario crear un ecosistema de alianza con clientes y
empresas externas; por lo que si es necesario se trabajará con consultores o partners.
Siempre se debe tener en cuenta a los usuarios finales, es imprescindible analizar con
ellos sus requerimientos, porque son los que utilizarán las herramientas.

3.3. La importancia del dato


Las soluciones de IA son tan buenas como los datos con los que fueron construidas. Para
pasar del dato a la información hay que trabajar mucho. Es imprescindible que los datos
sean de calidad, consistentes y fiables, deben ser suficientemente informativos. No se
puede modelar si los datos no son buenos, debe haber una cultura de analítica de datos.
El proceso de captura de datos no es un problema menor y puede requerir de un gran
esfuerzo en tiempo y recursos, se debe tener en cuenta que la recogida de datos desde
diferentes orígenes (máquinas, ERP, etc. ) puede necesitar de preprocesamiento, filtrado
o limpieza para su posterior utilización. Por otro lado, también es importante llevar a cabo
un gobierno y democratización del dato.
En realidad, los datos empujan a la acción y hacen que la compañía ponga el foco
donde es necesario. Con las soluciones de IA se toman decisiones, cuánta más
información reciban acertarán más, y a mayor disponibilidad del dato, mayor rapidez en
la toma de decisiones. El dato, por lo tanto, es una gran activo estratégico con gran valor
añadido.

4. Caso de éxito en Grupo Antolin


Un caso de éxito en Grupo Antolin es el proyecto Fandango, un proyecto de
Mantenimiento Predictivo. El objetivo del proyecto es la optimización del
mantenimiento. Para conseguir el objetivo principal del proyecto fue necesario la
sensorización y captura de datos [4], capturando la información en tiempo real de los
máquinas implicadas en el proyecto. Es un proyecto ambicioso en el que se ha colaborado
con distintos partners y centros tecnológicos y en el que es necesario, además, conocer a
fondo el caso de estudio con los expertos en mantenimiento de las plantas y máquinas
seleccionadas.

5. Conclusiones
Las claves más importantes a tener en cuenta para adoptar la IA de forma adecuada dentro
de una organización industrial son: la calidad del dato, es muy relevante creer en el
proyecto, se deben validar los resultados obtenidos, es imprescindible comprender lo que
se está haciendo e interpretar los resultados conseguidos, se debe hacer un seguimiento y
se debe ver como un proceso de mejora continua, los proyectos no acaban con el
despliegue sino que continúan.
8

Las personas con conocimiento del proceso productivo y del mantenimiento de las
máquinas implicadas deben ser miembros del equipo del proyecto. Es necesario alinear
las expectativas con las capacidades actuales de los sistemas de IA., es importante elegir
las tecnologías apropiadas a cada problemática, garantizando la disponibilidad continua
y permitir ejecutar las operaciones en los tiempos requeridos. Igualmente, se deben tratar
como proyectos de software; dado que los modelos de IA se deben integrar en sistemas
de software preexistentes o no y que no hay olvidarse ni de la experiencia de usuario ni
de la disponibilidad de los sistemas. Pero, la tecnología no es gratis, por lo que no hay
que olvidar la planificación de costes, el impacto económico, contemplar los beneficios
directos y la rentabilidad de la inversión.

Referencias
1. Beyond the hype: A guide to understanding and successfully implementing
artificial intelligence within your business. IBM (2018)
https://www.ibm.com/downloads/cas/8ZDXNKQ4 (accessed on 15 November
2021)
2. Artificial Intelligence in Europe. Spain. Outlook for 2019 and Beyond. How 277
Major Companies Benefit from AI. Report Commissioned by Microsoft and
conducted by EY (2018)
https://pulse.microsoft.com/uploads/prod/2018/10/WE_AI_Report_2018.pdf
(accessed on 15 November 2021)
3. How to Make an AI Project More Likely to Succeed. Harvard Business Review
(2018) https://hbr.org/2018/07/how-to-make-an-ai-project-more-likely-to-
succeed (accessed on 15 November 2021)
4. Redondo, R., Herrero, Á., Corchado, E., Sedano, J.: A decision-making tool based
on exploratory visualization for the automotive industry. Appl. Sci. 10, 4355
(2020) https://doi.org/10.3390/app10124355
9

Sistemas de percepción artificial inteligente.


Visión artificial avanzada.
1
Manuel Luis González Hernández, 2José María Armingol
Moreno
Instituto Tecnológico de Castilla y León, Burgos, España
1

[email protected]
Laboratorio de Sistemas Inteligentes, Universidad Carlos III
2

de Madrid, España
[email protected]
Abstract La Inteligencia Artificial y en concreto las Redes Neuronales
Convolucionales han supuesto una revolución en el campo de la Visión por
Ordenador. Esto es debido a la gran adaptabilidad que tienen estos algoritmos
a los múltiples grados de libertad de la información contenida en una imagen.
Es tal la importancia de estos algoritmos que se han consolidado como el
actual estado del arte en Visión por Ordenador. La repercusión de esta
tecnología, se puede observar en la gran cantidad de aplicaciones comerciales
que han salido al mercado, tales como el coche autónomo.

Keywords: Visión por Ordenador, Inteligencia Artificial, Redes Neuronales


Convolucionales

1. Introducción
La Visión por Ordenador es una disciplina tecnológica que pretende extraer información
del mundo tridimensional a partir de datos bidimensionales como puede ser una imagen
o un vídeo.
Para tal fin, esta disciplina utiliza herramientas para la captura, almacenamiento y
análisis de la información tales como: cámaras, bases de datos, CPUs o GPUs. Además
de las herramientas, la visión por ordenador utiliza métodos de análisis de la información
entre los cuales cabe destacar los algoritmos desarrollados por el Aprendizaje Profundo,
las Redes Neuronales Convolucionales.
Aunque el mayor desarrollo de la Visión por Ordenador se ha gestado las últimas
décadas, los inicios de esta disciplina datan de finales de los años 50. En esta época se
empezaron a plantear los primeros algoritmos que analizaban imágenes y pretendían
extraer la información tridimensional de la escena [1]. Sin embargo, no fue hasta la
utilización masiva de los ordenadores cuando esta tecnología se empezó a desarrollar
plenamente.
Los objetivos que pretende conseguir la Visión por Ordenador son: conocer la
estructura del mundo tridimensional, propiedades geométricas y propiedades del material
como colores y texturas. Toda esta información se pretende conocer en tiempo real, pues
esta tecnología se implementa en sistemas como controles de calidad o conducción
autónoma, que necesitan de una respuesta casi inmediata. A grandes rasgos, se pretende
10

que un sistema equipado con Visión por Ordenador responda ante estímulos como lo haría
un ser humano.
En este trabajo, se introducirán los distintos avances que la Inteligencia Artificial ha
propiciado a esta disciplina, así como las arquitecturas de las redes neuronales que se
consideran el estado del arte.

2. Inteligencia Artificial y Visión por Ordenador


La Inteligencia Artificial son un conjunto de técnicas y métodos de las ciencias de la
computación que han supuesto una revolución tecnológica desde finales del siglo XX.
Estas técnicas han supuesto un cambio en el paradigma de la Programación Clásica pues
la solución a un problema no se especifica paso a paso mediante reglas. En este
paradigma, se programa un modelo y se especifica una función de pérdida que se
minimiza entrenando al modelo con datos, obteniendo unas reglas que se adaptan a los
datos (Fig. 1).

Fig. 1 Comparativa entre los paradigmas de Programación Clásica y la Inteligencia Artificial o


Machine Learning

El objetivo que se quiere conseguir en la Inteligencia Artificial es que el programa


generalice, es decir, que las reglas obtenidas con los datos de entrenamiento sean válidas
para datos que no haya procesado el sistema.
En la Inteligencia Artificial o Machine Learning se distinguen dos tipos de tareas, y
en cada una de ellas se desarrollan distintos tipos de modelos:
1. Aprendizaje supervisado. Estos algoritmos utilizan un conjunto de datos de
entrenamiento, donde cada ejemplo está asociado con una etiqueta u objetivo, el
cual se espera como resultado del ejemplo dado. Ejemplos de estos algoritmos
son: Las redes neuronales, los árboles de decisión o máquinas de vectores de
soporte.
2. Aprendizaje no supervisado. Estos algoritmos de utilizan un conjunto de datos
de entrenamiento que, a diferencia del aprendizaje supervisado, no tienen una
etiqueta u objetivo establecido. La finalidad de este tipo de aprendizaje, es
encontrar un modelo de distribución de probabilidad de los ejemplos u
observaciones dados. Ejemplos de estos algoritmos son: métodos de clustering
como DBSCAN o KNN, métodos de reducción dimensional como PCA o
Autoencoders o métodos de detección de anomalías.

Dentro del aprendizaje supervisado, se encuentra los métodos estudiados por el Deep
Learning o Aprendizaje Profundo que utiliza redes neuronales multicapa para resolver
tareas tanto de clasificación como de regresión o predicción [2]. Estas redes neuronales
pueden ser de diferentes tipos. A continuación, se exponen las más utilizadas:
11

1. Densas. Utilizan la operación del producto escalar, seguida de una función no


lineal 1. Algunas de las funciones no lineales más empleadas en la literatura son:
ReLu, Sigmoide, Tangente Hiperbólica y Exponencial.} con el objetivo de
realizar una combinación no lineal de los datos de entrada que permita reproducir
los datos de salida.
2. Convolucionales. Utilizan la operación convolución aplicando Kernels a los
datos de entrada. De esta forma, se analiza de forma jerárquica el entorno espacial
de los datos. Como estas redes tienen en cuenta las propiedades espaciales de los
datos, se utilizan sobre todo para el campo de Visión por Ordenador. Sin embargo,
hay desarrollos de este tipo de redes para predicción de series temporales.
3. Recurrentes. Así como el anterior tipo de red neuronal analiza el entorno espacial
de los datos, este tipo de redes, analiza el entorno temporal de los datos. La
arquitectura más utilizada es la LSTM Long Short Term Memory, que almacena
información de los datos del pasado para procesar los datos futuros. Debido a este
análisis temporal que realizan, estas redes se utilizan para procesar series
temporales.
Debido a los desarrollos realizados en las últimas décadas en el campo de la Visión
por Ordenador mediante técnicas de redes neuronales convolucionales (CNNs), se han
convertido en el estado del arte de este campo. Es tal la potencia de estos métodos que
problemas de tipo secuencial, como el reconocimiento del habla, se transforma a un
problema de imagen, mediante el espectrograma del sonido, y se analiza con CNNs [4].
Las CNNs se clasifican dentro de las tareas de aprendiza supervisado, por tanto,
necesitamos datos etiquetados. Esta tarea no es trivial y por tanto, es complicado
automatizarla. Sin embargo, un buen etiquetado es crucial para que los modelos de visión
artificial operen correctamente. Para ello, hay herramientas software que facilitan la
segmentación y etiquetado de los datos con los que se van a entrenar las redes neuronales.
Algunos ejemplos de estas herramientas son: etiquetame, labelImg, CVAT, hasty.ai,
Scalabel o Supervisely.

3. Arquitecturas de modelos para visión por ordenador


Las CNNs son redes neuronales profundas que se diseñan agregando secuencialmente
capas convolucionales y capas densas. En las capas convolucionales, se operan los datos
de entrada con unos ciertos kernels o matrices mediante la operación convolución. La
forma de elegir la arquitectura de estas redes es escogiendo el número y tamaño de capas
y kernels. Generalmente, esta arquitectura es específica de cada problema aunque existen
dos arquitecturas que se han consolidado como el estado del arte dentro de las CNNs:
1. YOLO (You Only Look Once). Es una arquitectura de red neuronal que permite
detectar diferentes objetos del dataset de entrenamiento en una misma imagen
aunque exista oclusión [3]. Normalmente, esta tarea de detección múltiple de
objetos se realizaba mediante varias ejecuciones de la red neuronal sobre la misma
imagen, incrementando mucho el tiempo de cómputo. Sin embargo, esta
arquitectura, como explica su nombre, solo tiene que ejecutar el modelo una vez
sobre cada imagen, permitiendo utilizarla para tareas en tiempo real.

1
Algunas de las funciones no lineales más empleadas en la literatura son: ReLu, Sigmoide, Tangente
Hiperbólica y Exponencial.
12

2. ResNet. Se trata de una red neuronal residual basada en el uso de atajos o


conexiones de salto para moverse sobre varias capas. Su implementación consiste
en aplicar saltos de dos o tres capas que contienen normalización por lotes y no
linealidad entre ellas.
Aunque los datos sobre los que están entrenadas estas arquitecturas contienen unas
ciertas categorías, es posible extenderlas y aplicar estas arquitecturas para realizar tareas
que no han sido entrenadas. Este procedimiento se conoce como Transfer Learning y
consiste en extender los casos de aplicación de la red neuronal ante nuevos datos y
categorías que no ha visto antes mediante reentrenamientos. De esta forma, estas
arquitecturas que se han consolidado como el estado del arte en CNNs, se pueden utilizar
para resolver casi cualquier tarea de Visión por Ordenador.

4. Conclusiones
La visión por ordenador es una disciplina que ya tiene amplio recorrido, sus primeros
pasos los dio a finales de la década de los 50, pero su mayor revolución ha sido con el
desarrollo de la Inteligencia Artificial.
Las redes neuronales convolucionales se han establecido como el estado del arte en
Visión por Ordenador. En concreto caben destacar dos arquitecturas que han conseguido
cumplir con los requerimientos de tiempo y rendimiento que muchas aplicaciones
necesitan: YOLO y ResNet.

Referencias
1. Gonzalez R. y Woods. R.: Digital Image Processing. Pearson 2017.
2. Goodfellow I., Bengio Y. y Courville A.: Deep Learning. MIT Press, 2016.
3. Redmon J. y Farhadi A.: YOLOv3: An Incremental Improvement. ArXiv,
2018.
4. Xuejiao L. y Zixuan Z.: Speech Command Recognition with Convolutional
Neural Network, 2017 https://api.semanticscholar.org/CorpusID:44056087
13

Ingeniería Neuromórfica, Edge Computing: los


algoritmos verdes. Presentación del proyecto
NeuroCPS4Maintance
Javier Sedano1
1
Instituto Tecnológico de Castilla y León, Burgos, España
[email protected]

Abstract. Este artículo trata de realizar una revisión del estado del arte de la
ingeniería neuromórfica y poner actuaciones necesarias sobre cómo resolver
problemas en el borde (en el Edge Computing), sabiendo que la tecnología en
estos momentos no es madura, pero que representa una oportunidad en el
procesamiento de imágenes y de series dinámicas temporales, en tiempo real.
En él se presentan detalles de cómo procesar, qué procesar y cómo las nuevas
redes pueden resolver problemas reales, también incorpora algunas ideas e
informaciones de genios que pueden encontrarse en la red, ya que trata de ser
divulgativo

Keywords: Ingeniería neuromórfica, algoritmos verdes, Spike Neural


Networks (SNN)

6. Introducción
La Inteligencia Artificial ya es un término común en nuestras vidas. Una tecnología que
busca desarrollar conocimiento que permita a los sistemas desarrollar funciones que son
propias únicamente del ser humano y que difieren del pasado en que los sistemas actúan
en base a decisiones predefinidas o programadas.
No nos podemos olvidar del Big Data: ya que ha revolucionado la ejecución de estos
modelos de manera paralelizable, de modo que el procesamiento puede ser virtualizable,
en la cloud o de manera virtual, para que las ejecuciones sean más rápidas.
Pero debemos de pensar que la ejecución de estos algoritmos requiere un coste
computacional elevado (nada es gratis) y las respuestas son en función del problema a
resolver y no son instantáneas.

7. Edge Computing y redes neuronales


En estos momentos la comunidad científica sufre una vuelta al pasado y aboga por
soluciones en el Edge computing, que consiste en el procesamiento directo en la máquina,
en el sensor, etc. Es un paso más sobre los sistemas ciberfísicos, donde la computación
debe de ser apropiada para que la solución del problema no se procese en la plataforma
sino en el propio sistema.
A partir de la revisión de la literatura se considerarán las siguientes tecnologías
neuromórficas: (i) Field Programmable Gate Array (FPGA) integrados en dispositivos
SoC como la familia Zynq UltraScale+ desarrollado por Xilinx (Xilinx Inc, 2020) o la
familia Alveo para servidores (Xilinx Inc, 2019), (ii) Graphic Processing Unit (GPU)
14

integrada en dispositivos como Jetson Nano desarrollado por Nvidia (Cass, 2020), (iii)
Vision Processing Unit (VPU) integrados en dispositivos como Mustang-V100-MX8
desarrollado por Intel (Intel Corporation, 2021), (iv) Tensor Processing Unit (TPU)
integrados en dispositivos como Coral desarrollado por Google (Coral.ai, 2020), (v)
Loihi, es un chip basado en núcleos de procesamiento neuromórficos cuyas
interconexiones están modeladas por una Spiking Neural Network, está desarrollado por
Intel (Davies, M. 2019).
Con todo, la integración de ambos sistemas hardware y software, en forma de bloques
con sintetización del ASIC, o directamente en la FPGA, permitirá desarrollar sistemas
neuromórficos reales, basados en circuitos analógicos para imitar estructuras
neurobiológicas ubicadas en el sistema nervioso. Un ejemplo de sintetización se presenta
a continuación, en la figura 1.

Fig. 1 Sintetización

La Figura 1. Representa un Sistema CMOS de óxido de metal del semiconductor donde


habitualmente se forma un transistor y dispone de tres capas. La comunidad científica
trata de implementar en el frontend of live (Feol) los patrones del transistor de modo que
se consiga el memristor, componente pasivo no lineal que vincula la carga eléctrica y
flujo magnético y que su resistencia varía en función de la corriente eléctrica da paso en
estados pesados.

8. Green AI “Algoritmos verdes”


La IA tiene su variante sostenible: la “Green IA”. Los conocidos como “algoritmos
verdes” y que deben estar diseñados para utilizar la IA de forma más inclusiva y
respetuosa con el planeta, algo impensable hace más de una década, donde ni los que
desarrollábamos algoritmos creíamos plenamente en ello y nuestra única preocupación
pasaba por conseguir modelos de ajuste adecuados, próximos al 100%.
Para tener modelos eficientes se necesitan muchos experimentos y eso lleva un coste
energético y económico que no todo el mundo se puede permitir. En este sentido, según
datos de la consultora McKensey, el mercado de las TIC fue el responsable del 3% al 4%
de todas las emisiones de CO2 del mundo en 2020. Mientras que, solo en EE. UU. los
centros de datos, donde se entrenan los algoritmos, suponen 1,8% del consumo eléctrico
del país. Tan solo entre el 6% y el 12% del consumo de los centros de datos está dirigido
a realizar cálculos o procesos, ya que el resto va destinado a su refrigeración y
mantenimiento.
15

¿Cómo se puede conseguir esta premisa?, para poder armonizar el coste computacional
y caminar hacia la Green AI. A continuación, se presentan los cuatro pilares básicos, que
permitirán reducir la huella de carbono.:
1. Volumen de datos de entrenamiento.
2. Cantidad de tiempo para entrenarlo.
3. Nº de iteraciones de optimización de parámetros.
4. No es necesario lo mejor. Pasar de un 92% a un 96% de FIT (porcentaje de ajuste)
puede llevar días.

8.1. Moore y su ley y Von Neumann y su cuello de botella.


Este es el porqué.
La ley de Moore expresa que aproximadamente cada 2 años se duplica el número de
transistores en un microprocesador.
Se trata de una ley empírica, formulada por el cofundador de Intel, Gordon E. Moore,
el 19 de abril de 1965, cuyo cumplimiento se ha podido constatar hasta hoy.
Por otra parte, el canal de transmisión de los datos compartido entre CPU y memoria
genera un cuello de botella llamado Von Neumann, con un rendimiento limitado (tasa de
transferencia de datos) entre la CPU y la memoria en comparación con la cantidad de
memoria disponible. En la mayoría de computadoras modernas, la velocidad de
comunicación entre la memoria y la CPU es más baja que la velocidad a la que puede
trabajar esta última.
En 2004 la industria de los semiconductores produjo más transistores (y a un costo
más bajo) que la producción mundial de granos de arroz, según la Semiconductor Industry
Association (Asociación de la Industria de los Semiconductores) de los Estados
Unidos.Por consiguiente, para tener modelos eficientes se necesitan muchos
experimentos y eso lleva un coste energético y económico que no todo el mundo se puede
permitir.

9. Ingeniería neuromórfica
La ingeniería neuromórfica no es una disciplina reciente. Es poco conocida, aunque en
realidad existe desde hace más de tres décadas. Carver Mead tuvo la idea de diseñar
circuitos integrados y algoritmos capaces de imitar el comportamiento nervioso de los
animales.
Nuestro cerebro, procesa la información de una manera extraordinariamente eficiente.
Mead tuvo la habilidad de intuir hace más de medio siglo que algún día los ordenadores
podrían inspirarse en él para desarrollar capacidades que los algoritmos que utilizamos
en la informática clásica difícilmente podrían igualar. La computación neuromórfica,
como también se la conoce, no es en absoluto la primera tecnología que se inspira en la
manera en que la naturaleza ha encontrado la solución a un reto.

9.1. Aplicaciones de la computación neuromórfica


Los chips neuromórficos actuales incorporan decenas de miles de neuronas artificiales,
como son los dispositivos FPGAs desarrollados por Intel (Intel Corporation, 2021) (vii)
y por Xilinx (Xilinx Inc, 2019) (viii). El auténtico potencial de los sistemas neuromórficos
16

consiste en su capacidad de resolver algunos problemas con mucha más rapidez y de una
forma mucho más eficiente debido a su paralelismo intrínseco en su diseño, desde un
punto de vista energético que un ordenador convencional.
Para intuir el potencial real de la ingeniería neuromórfica es necesario que conozcamos
en qué medida un sistema neuromórfico consigue aventajar a un ordenador convencional
cuando ambos se enfrentan a la resolución de un mismo problema. Los sistemas
neuromórficos actuales se utilizan principalmente para investigación y son capaces de
resolver algunos problemas hasta 1.000 veces más rápido que un microprocesador
clásico.
Los investigadores están diseñando algoritmos que son capaces de procesar en tiempo
real datos sin estructura algo que, precisamente, se le da mal a los microprocesadores y
algoritmos convencionales. Los clásicos son muy eficientes cuando deben resolver
operaciones matemáticas muy complejas, que es algo con lo que nuestro cerebro y los
sistemas neuromórficos, que están inspirados en él, no se sienten cómodos, pero cuando
lo importante es explorar en paralelo la viabilidad con una gran cantidad de soluciones en
un entorno cambiante, y hacerlo a mucha velocidad, la computación neuromórfica marca
la diferencia.

10. Escenarios adecuados


Los algoritmos que se pueden procesar en sistemas paralelizables son aquellos que deben
de resolver problemas en situaciones de inspección cambiante donde deben explorarse
muchas posibilidades de manera paralela, donde, los datos son limitados. A continuación,
se presentan algunos problemas adecuados:
• Problemas de optimización de múltiples restricciones: los algoritmos
neuromórficos pueden diseñarse de manera que sean capaces de explorar un
conjunto grande de soluciones a un problema determinado para encontrar aquellas
que satisfacen unos requisitos concretos, con múltiples restricciones.
• Aprendizaje automático: que permite diseñar algoritmos neuromórficos que
pueden ser entrenados con un conjunto finito de datos para inferir nuevo
conocimiento.
• Reconocimiento de patrones: los algoritmos neuromórficos están demostrando
ser muy eficaces en todos aquellos procesos en los que es necesario identificar un
conjunto de objetos heterogéneos a partir de su semejanza, y en el aprendizaje
profundo (Deep. Learning) con redes CNN Convolucionales.

11. Dónde está el futuro de SNN


La Red Neural de Spike (SNN) pertenece a la tercera generación del modelo de red
neuronal, que logra un mayor nivel de simulación neural biológica. Además de las
neuronas y los estados sinápticos. Las SNN también incorporan el concepto de tiempo en
sus operaciones.
Cualquiera que sepa sobre el aprendizaje automático actual ha oído hablar del hecho
de que la red neuronal artificial, es la red neuronal de segunda generación, reciben valores
continuos y emiten valores continuos. La red neuronal de tercera generación, Spiking
Neural Network (SNN), tiene como objetivo cerrar la brecha entre la neurociencia y el
aprendizaje automático y son fundamentalmente diferentes de las redes neuronales
17

actuales y los métodos de aprendizaje automático. Las SNN utilizan pulsos, que son
eventos discretos que ocurren en puntos en el tiempo, en lugar de los valores continuos
habituales. Cada pico está representado por una ecuación diferencial que representa un
proceso biológico, por consiguiente, son incomparables en arquitecturas Hardware o
analógicas; el más importante de los cuales es el potencial de membrana de la neurona.
Esencialmente, una vez que una neurona alcanza un cierto potencial, aparecerá un pulso
y luego se restablece la neurona que alcanza el potencial.
El principal problema radica en el entrenamiento de las SNN. Solo se cuenta con
métodos de aprendizaje no supervisados, como el aprendizaje de Hebbian y el STDP,
pero no existen un método de entrenamiento supervisado efectivo adecuado para SNN
que pueda proporcionar un mejor rendimiento.
Hoy, el futuro de SNN aún no está claro, pero es alentador, son los sucesores naturales
de nuestras redes neuronales actuales; pero, por otro lado, están lejos de ser herramientas
prácticas para la mayoría de los problemas reales. Aunque tiene una grandísima
disposición en el futuro, con un consumo energético muy inferior y que pueden ser
sintetizadas en un sustrato CMOS o FPGA. En la figura 2 se presenta una discretización
de impulsos sobre las neuronas; de manera que solo se activarán las neuronas asociadas
a las mismas.

Fig. 2 Impulsos en una SNN

12. Proyecto NeuroCPS4Maintance


El objetivo principal del proyecto NeuroCPS4Maintenance
(https://www.dihbu40.es/en/neurocps4maintenance-2/) es desarrollar y demostrar un
detector de anomalías neuromórficas con la ventaja de que sea robusto frente a la
tendencia de la deriva de los datos, alerte de fallos de antemano y proporcione una
respuesta rápida y en tiempo real para aplicaciones de mantenimiento predictivo en
escenarios industriales de alta exigencia (prensa industrial).
Para ello este proyecto desarrollará: un detector de anomalías neuromórficas, lo
implementará y evaluará en un escenario relevante para lograr y demostrar este objetivo
y se utilizarán enfoques novedosos para desarrollar este detector de anomalías
neuromórficas.
El desarrollo y la demostración del procesador neuromórfico hará un uso extenso de
las tecnologías CPS y finalmente será implementado el algoritmo LSTM-drift y los
aceleradores de hardware que será implementado en el prototipo, una prensa industrial
(entorno relevante), donde se podrán validar sus componentes.
La capacidad de innovación de este prototipo favorecerá la activación de nuevas
soluciones técnicas en mantenimiento predictivo en entornos industriales de alta
exigencia.
18

Fig. 3 Esquema de sistemas que forman parte del proyecto NeuroCPS4Maintance

En la Figura 3 se representan sistemas que forman parte del proyecto; un System of Chip
con multiprocesamiento, que incorpora modelos LSTM e incorpora el concepto de deriva
de los datos, e integrar sensores y protocolos y será testeado y probado sobre una prensa
de columnas.

13. Conclusiones
El futuro es incierto, pero los que nos dedicamos al desarrollo de sistemas de Soft
Computing tenemos el mayor reto de los años venideros, tratar de desarrollar algoritmos
verdes en un ecosistema cambiante, y donde las FPGAS pueden incorporar los algoritmos
directamente integrados en ella. Finalmente, incorporar, definir, diseñar y modelar la
tercera generación de redes neuronales SNN con un comportamiento puntual intrínseco
en ella para ahorrar una gran cantidad de cómputo.

Agradecimientos. Este proyecto (NeuroCPS4Maintenance) ha sido parcialmente financiado por


el programa de investigación Horizont 2020 de la Unión Europea, a través de una convocatoria
abierta emitida y ejecutada en el marco del proyecto DIH4CPS (Grant Agreement Nº 872548).

Referencias
5. Xilinx Inc.: Zynq UltraScale+ MPSoC Processing System v3.3, LogiCORE IP
Product Guide, 201, (2020)
6. Xilinx Inc.: Alveo Accelerator Card Product Selection Guide, (2019)
7. Cass, S.: Nvidia makes it easy to embed AI: The Jetson nano packs a lot of
machine-learning power into DIY projects - [Hands on], IEEE Spectrum, vol. 57,
no. 7, pp. 14-16, (2020)
8. Intel Corporation: Intel Edge Computing Portfolio e-Booklet, (2021)
9. Coral.ai: System-on-Module datasheet v1.11, (2020)
10. Davies, M., Srinivasa: N., Lin, T.-H., Chinya, G., Cao, Y., Choday, S. H., Dimou,
G., Joshi, P., Imam, N., Jain, S., Liao, Y., Lin, C.-K., Lines, A., Liu, R.,
Mathaikutty, D., McCoy, S., Paul, A., Tse, J., Venkataramanan, G., … Wang, H.
(2018). Loihi: A Neuromorphic Manycore Processor with On-Chip
Learning.IEEE micro, n. 38(1), pp. 82–99.
11. Intel Corporation, 2021:
https://www.intel.es/content/www/es/es/products/details/fpga.html
12. Xilinx Inc. 2019: https://www.xilinx.com/
19

La computación cuántica y sus posibles


aplicaciones en la industria
Elías F. Combarro1
1
Departamento de Informática, Universidad de Oviedo,
[email protected]

Abstract. La computación cuántica es un nuevo paradigma de computación


que, a pesar de su potencial disruptivo, es aún relativamente desconocido en
el entorno industrial. En este artículo, presentaremos brevemente esta forma
de computación, así como algunas de sus principales aplicaciones.
Destacaremos especialmente los casos de la optimización y el quantum
machine learning, por ser los de más inmediata aplicación en problemas
industriales. También mencionaremos algunas de las mayores dificultades en
la adopción de la computación cuántica y daremos algunas sugerencias para
superarlas.

Keywords: Computación cuántica · Machine Learning · Optimización

14. Introducción
La computación cuántica [1] es una forma de realizar cálculos que aprovecha propiedades
intrínsecas de las partículas subatómicas, incluyendo la superposición, el entrelazamiento
y la interferencia, para ofrecer ventajas computacionales en algunos problemas.

La consecución, en 2019, de la llamada supremacía cuántica (demostración empírica de


una tarea, no necesariamente práctica, en la que los ordenadores cuánticos superan
ampliamente a los ordenadores clásicos) por parte de investigadores de Google [2] ha
hecho que esta nueva forma de realizar cálculos ocupe numerosos titulares y despierte la
atención tanto del público en general como de las instituciones y compañías que podrían
beneficiarse de estos avances. Sin embargo, las bases de la computación cuántica y sus
posibles aplicaciones son aún bastante desconocidas en el mundo industrial y son
relativamente pocas las empresas que se han decidido a incorporar esta tecnología en sus
procesos o en su flujo de trabajo, incluso aunque sea a un nivel exploratorio.

En este artículo, describiremos brevemente y de forma no técnica qué es la computación


cuántica y cuáles son sus principales aplicaciones, con especial atención a aquellas que
pueden llegar a ofrecer una ventaja tangible en tareas prácticas en el medio plazo,
incluyendo el quantum machine learning y la optimización mediante ordenadores
cuánticos. También mencionaremos algunos de los principales problemas que se pueden
encontrar al intentar adoptar estas tecnologías y apuntaremos algunas posibles vías para
solucionarlos.

15. ¿Qué es la computación cuántica?


La computación cuántica es un nuevo paradigma de computación que utiliza
explícitamente propiedades de la mecánica cuántica para conseguir ventajas en la
20

resolución de ciertas tareas. El uso de la superposición, la interferencia y el


entrelazamiento posibilita la definición de nuevos algoritmos que llegan incluso a tener
una ganancia exponencial con respecto a los mejores algoritmos clásicos de los que
disponemos para esos problemas.
Por tanto, un ordenador cuántico no es, simplemente, un ordenador más rápido. Un
ordenador cuántico permite realizar cómputos de una manera diferente, que no está al
alcance de los ordenadores convencionales. Esto se traduce, habitualmente, en una
diferencia en el crecimiento del tiempo necesario para resolver un cierto problema en un
ordenador cuántico frente al tiempo que emplearía un ordenador clásico.
Uno de los ejemplos más llamativos de esta diferencia se encuentra en un problema
aparentemente simple pero que es la base de la seguridad de muchos de los protocolos
criptográficos que usamos habitualmente en nuestras comunicaciones en Internet y en
nuestras transacciones electrónicas: la factorización de números. El mejor algoritmo
clásico que conocemos para resolver esta tarea emplea un tiempo que crece casi
exponencialmente con el tamaño del número (o, equivalentemente, con la longitud de la
clave criptográfica utilizada). Sin embargo, un algoritmo cuántico propuesto por Peter
Shor en 1994 [3] permite resolver este problema en un tiempo polinomial. La diferencia
entre estos dos crecimientos se ilustra en la Figura 1, donde se puede observar que, aunque
para tamaños pequeños el algoritmo clásico podría ser más eficiente, a partir de un cierto
tamaño el algoritmo cuántico es el claro vencedor. Es más, la diferencia entre ellos se
hace mayor cuanto más aumenta la longitud de la clave.

Fig. 1. Crecimiento (sub)exponencial frente a polinomial en la factorización de números

2.1. Aplicaciones de la computación cuántica en el ámbito


industrial
Pese a la repercusión mediática de algoritmos como el de Shor, especialmente por sus
consecuencias para la seguridad de las comunicaciones, las principales aplicaciones de la
computación cuántica en el corto y medio plazo se alcanzarán, posiblemente en otros
campos. Los ordenadores cuánticos de los que disponemos actualmente pertenecen a la
llamada clase NISQ (Noisy Intermediate-Scale Quantum devices), término acuñado por
John Preskill para describir ordenadores de pequeño tamaño, afectados por el ruido y por
los errores en las operaciones, y con conectividad limitada.
21

Este tipo de ordenadores no son aún capaces de ejecutar correctamente algoritmos como
el de Shor, que requieren tolerancia ante fallos y largos tiempos de coherencia, es decir,
persistencia de las propiedades cuánticas del sistema durante periodos prolongados. Sin
embargo, estos dispositivos sí que pueden llegar a ser útiles en algoritmos que no son tan
estrictos en sus requerimientos.
Un ejemplo de este tipo de procedimientos incluye los métodos para la resolución de
problemas de optimización combinatoria mediante quantum annealers [4] (ordenadores
cuánticos de propósito específico, especializados en este tipo de tarea) o mediante
algoritmos como el Quantum Approximate Optimization Algorithm o QAOA [5].
Emplear estos métodos requiere realizar una serie de transformaciones sobre el problema
original, pero existen una serie de técnicas estándar que permiten emplearlos en casos
bastante generales.
Por otro lado, también se está explorando activamente la utilización de ordenadores
cuánticos para la implementación de modelos de machine learning, en particular
mediante el uso de redes neuronales cuánticas [6]. Esto abre la posibilidad de resolver
problemas en todas las ramas del aprendizaje automático, incluyendo el aprendizaje
supervisado, el no supervisado y el aprendizaje por refuerzo.
Finalmente, otra de las posibles aplicaciones de los ordenadores cuánticos de la era NISQ
es la simulación de procesos químicos y físicos. En ese sentido, algoritmos como el
Variational Quantum Eigensolver (VQE) ya han permitido la determinación de
propiedades de moléculas sencillas mediante dispositivos cuánticos reales [7].
Aunque todas estas exploraciones aún son preliminares, el avance de la tecnología de
implementación física de los ordenadores cuánticos y la constante mejora de los
algoritmos que se ejecutan en ellos abre la posibilidad de que podamos ver aplicaciones
prácticas en las que estos dispositivos ofrezcan una ventaja sobre la computación clásica
antes del final de esta década.

2.2. Dificultades en la adopción de la computación cuántica.


Posibles soluciones
En la actualidad, la principal dificultad de la adopción de la computación cuántica en un
entorno industrial es el desconocimiento. Este tipo de tecnología no está aún lo
suficientemente extendida, con lo que la mayor parte de las empresas ignoran sus
potenciales aplicaciones. A ello se unen dos dificultades adicionales: una curva de
aprendizaje más pronunciada que con otras técnicas (incluyendo la necesidad de
transformar los problemas industriales a una formulación susceptible de ser atacada con
técnicas cuánticas) y una relativa inmadurez de la tecnología necesaria, tanto en lo que se
refiere al hardware como en lo que atañe al software.
Frente a estos problemas, muchas compañías optan por una vía exploratoria. Conscientes
de que la computación cuántica, aunque no puede ofrecer aún un retorno tangible en el
corto plazo, tiene un potencial altamente disruptivo, crean pequeños equipos de trabajo
con el objetivo de comenzar a identificar problemas en los que el flujo de trabajo de la
empresa pueda beneficiarse de la adopción de la computación cuántica. En este proceso,
puede resultar de ayuda recurrir al acompañamiento de think tanks especializados es estas
tecnologías, como QSpain [8], del que el autor de este artículo forma parte.
22

16. Conclusiones
La computación cuántica tiene, por sus aplicaciones, un potencial altamente disruptivo.
Problemas de optimización, machine learning o simulación de procesos físicos y
químicos pueden llegar a beneficiarse, en los próximos años, de la adopción de esta
tecnología. Este proceso puede resultar difícil por diversos factores, pero la creación de
equipos de trabajo exploratorio y el apoyo en grupos de expertos resulta clave para que
las empresas estén preparadas cuando llegue la revolución cuántica.

Agradecimientos. El autor quiere agradecer al DIBHU y al Instituto Tecnológico de Castilla y


León la invitación a participar en el Encuentro Tecnológico Burgos Industria 4.0 2021.

Referencias
13. Nielsen, Michael A. and Chuang, Isaac L. Quantum Computation and Quantum
Information. Cambridge University Press, (2000)
14. Arute, Frank, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C. Bardin, Rami Barends,
Rupak Biswas et al. "Quantum supremacy using a programmable superconducting
processor." Nature 574, no. 7779: 505-510 (2019)
15. Shor, Peter W. "Algorithms for quantum computation: discrete logarithms and factoring."
In Proceedings 35th annual symposium on foundations of computer science, pp. 124-134.
IEEE, (1994)
16. McGeoch, C. "Adiabatic quantum computation and quantum annealing: Theory and
practice." Synthesis Lectures on Quantum Computing 5, no 2:1-93 (2014)
17. Farhi, Edward, Jeffrey Goldstone, and Sam Gutmann. "A quantum approximate
optimization algorithm." arXiv preprint arXiv:1411.4028 (2014)
18. Schuld, Maria, and Francesco Petruccione. Machine Learning with Quantum Computers.
Springer (2021)
19. Kandala, Abhinav, Antonio Mezzacapo, Kristan Temme, Maika Takita, Markus Brink,
Jerry M. Chow, and Jay M. Gambetta. "Hardware-efficient variational quantum
eigensolver for small molecules and quantum magnets." Nature 549, no. 7671: 242-246
(2017)
20. QSpain. https://www.qspain.org

También podría gustarte