Inteligencia Artificial, una disciplina en continua evolución

ADI, Inteligencia Artificial

Hace exactamente dos años, a principios de enero del 2018, participé en varios eventos dentro de distintos círculos de innovación, en los que se daba una paradoja de opiniones: por un lado, existía un grupo de agentes que opinaba que la investigación, entendida como la creación de conocimiento a través de la inversión, y que la innovación, entendida como la creación de negocio a partir del conocimiento, habían tocado techo en lo que respecta a la Inteligencia Artificial.

Esto es, consideraban que las técnicas de Inteligencia Artificial, y más concretamente, las técnicas de “Machine Learning”, estaban lo suficientemente maduras como para considerarlas “poco innovadoras”, e incluirlas ya en el porfolio de soluciones TIC de las empresas con respecto a sus clientes finales. Por extensión, en este foco de opinión, se consideraba que la algoritmia existente, no tenía mucho más recorrido más allá que la mejora del rendimiento en precisión y en velocidad, y como mucho, ciertos focos de investigación sobre la distribución de dichos modelos en entornos distribuidos y de procesamiento en paralelo, bajo el paraguas de plataformas “BigData”. Este razonamiento, por contagio, se extendía al procesamiento del Lenguaje Natural, Iot, Visión Artificial y Sistemas de Optimización, dado que las técnicas subyacentes de inferencia están basadas, en general,  en procesos de “Machine Learning”.

machine learning
En paralelo, otros investigadores, quizás menos funcionales y más inmersos en la tecnología, opinábamos, muy al contrario, que la Inteligencia Artificial no es sólo un conjunto de técnicas más o menos disponibles en distintas plataformas de desarrollo, sino que es en sí una “Disciplina Científica”, y que por lo tanto, tuvo, tiene y tendrá una evolución que nace de la investigación, y fluye a través de la innovación hasta el negocio, de una forma constante e intermitente.

En otras palabras, que no es un “topic” de moda que ha sido recurrente en la última década en los proyectos de I+d+i, pero que ya no es “glamuroso”, sino que mantiene y va a continuar creciendo de una forma muy importante, en paralelo al hecho real de que, en el mundo empresarial, cada vez haya más licitaciones, pliegos y demanda en el mercado de soluciones maduras de IA aplicadas. Y en este contexto de discusión, finales del 2017, principios del 2018, se comienza a hablar en estos círculos de tecnologías como “Blockchain”, “Cyberseguridad”, “Realidad Aumentada y Virtual”, por lo que son muchos los que piensan en “diversificar” sus esfuerzos en investigación y desarrollo desde la IA a estas nuevas tecnologías.

Dos años más tarde, toca analizar qué es lo que ha ocurrido realmente, y quién estaba en lo cierto. Seguramente, todos en algún punto. Como científico de datos, y por defecto profesional, independientemente de mis hipótesis y asunciones, es bueno analizar algunos datos al respecto, aunque de una forma más exploratoria que académica. De partida, podemos ver las tendencias en Google Trend (figura 1), de varias de las tecnologías apuntadas anteriormente.

google trends IAFigura 1. Tendencias de búsquedas en Google Trend.

Se aprecia en la imagen, que el “campo de estudio” de Inteligencia Artificial abarca muchas más búsquedas que el resto de tópicos, con una tendencia al alza, y por otro lado, el término “Compute security” está bastante correlacionado en el 2018 y 2019 con la Inteligencia Artificial. Esto se explica fácilmente en la evidencia de que hoy en día no se entiende el despliegue de sistemas de Ciberseguridad sin algoritmos de IA embebidos. Sin embargo, esta gráfica puede significar precisamente lo contrario a nuestra hipótesis inicial: más búsquedas en Google implica que la tecnología está muy madura y ya en el mercado. Es por ello que otra vía de análisis, más cercana al contexto de investigación e innovación es el número de publicaciones científicas publicadas por cada tópico a nivel global. Para ello, analizamos las publicaciones indexadas en la página WOS (Web of Science), a lo largo de los últimos años.

Si realizamos una búsqueda por “Blockchain”, obtenemos el siguiente gráfico (figura 2):
wos blockchainFigura 2. Publicaciones científicas del término “Blockchain” en WOS.

Observamos que, tal y cómo comentábamos, en el 2018 hubo un incremento serio de publicaciones científicas alrededor de Blockchain, incremento que ha continuado a lo largo del 2019, sobre un volumen global de 5.200 publicaciones. Si comparamos este ratio con lo que ha ocurrido en la Inteligencia Artificial (ver figura3), vemos que el 2018 también fue un año de mucha producción científica en este campo, pero sobre un global de 280.000 publicaciones. Y sin embargo, el año 2019 dicha producción disminuye a niveles del 2017.

IAFigura 3. Publicaciones científicas del término “artificial intelligence” en WOS.

¿Qué ocurrió en el 2018 dentro del campo de la Inteligencia Artificial? A nivel muy genérico y resumido, podemos decir que los avances fueron los siguientes:

  • Perfeccionamiento de la tecnología “Deep Learning” como evolución del ya clásico “Machine Learning”: a partir de la investigación de redes neuronales convolucionales, se comienza a hablar de “shallow learning” en contraposición de “deep learning”. Este paso incorpora múltiples redes que dan soluciones de una forma multicapa a algoritmos clásicos de machine learning, tanto supervisados como no supervisados, y nos encontramos conceptos como “transfer learning”, “aprendizaje por refuerzo”, “Auto-ML”, y muchos otros. Se aplica tanto a datos estructurados, como a datos no estructurados (Lenguaje) y especialmente, a Visión Artificial. Si vemos la gráfica de publicaciones con respecto a la temática “Deep Learning” (figura 4), vemos que el despliegue en el 2018 es relevante, y en este caso, la tendencia en el 2019 es creciente.

imagen 4 deep learningFigura 4. Publicaciones científicas del término “deep learning” en WOS.

Por otro lado, 2018 es el año de la consolidación de los “chatbots” o asistentes personales, de la Traducción Automática, en el contexto de Tecnologías del Lenguaje y de la democratización de las funcionalidades de “Machine Learning” y “Servicios Cognitivos” en plataformas Cloud de distintos fabricantes, con un reflejo claro en las tendencias de demanda educativa al respecto de la incorporación de ofertas para futuros Científicos de Datos y su inclusión en el mercado laboral.

¿Qué ocurre en el 2019? Si analizamos los “topics” alrededor de todo aquello que conforma la Inteligencia Artificial, vemos que, excepto en el caso de “Deep Learning”, otros términos englobados dentro de nuestra disciplina (“semantic”, “machine learning”, “nlp”, “structure learning”, “online learning”, “edge computing”) siguen un decrecimiento similar al que tiene el término “Inteligencia Artificial”.

Sólo hay un caso, además de “Deep Learning” en el que la tendencia no sólo crece en el 2019, sino que además, lo hace de una manera muy importante: el término de “Explainable AI”, es decir, el intento de explicar los resultados de los modelos de “Deep Learning” de una forma comprensible por los expertos humanos (ver figura 5).

explainable IAFigura 5. Publicaciones científicas del término “explainable artificial” en WOS.

Además, a lo largo del 2019, se han consolidad las tecnologías DeepLearning, gracias al despliegue de dichos algoritmos en plataformas públicas y privadas fácilmente accesibles (Pytorch, Tensorflow, Keras…). Por otro lado, el 2019 ha sido el año de grandes avances en el entorno de las tecnologías del lenguaje (BERT, Megatron, ELMO, GPT2),  y el comienzo de la investigación y desarrollo en temáticas “online learning”, “edge computing” y los llamados MCUs (microcontroller units), así como la inclusión de los  primeros modelos de IA en los frameworks de computación cuántica tales como Qiskit, o Cirq, como soluciones a los límites de procesamiento actuales (ley de Moore), y el comienzo de los primeros pasos en una Guía de Ética para la Inteligencia Artificial Confiable[1].

Podemos pensar, en base a las tendencias de los diagramas, que en el 2019 ha llegado un punto de inflexión en la IA, dado que la producción científica disminuye ligeramente a partir del 2019, pero creo que este hecho es coyuntural. En primer lugar, el volumen de las publicaciones de esta disciplina es enorme, y no sólo dentro del campo de las ciencias de la computación, sino como base de otras muchas temáticas (ver figura 6).

Cuadro interésFigura 6. Temáticas relacionadas con la búsqueda “artificial intelliegence”

Por otro lado, otras tecnologías, como Ciberseguridad, han seguido una pauta similar en el 2019 , a pesar de que nadie duda de que es un concepto vital para el presente y para el futuro de la tecnología.

Reforzando esta hipótesis, si nos fijamos en los análisis de tendencias de grandes expertos, ya de cara al 2020, como, por ejemplo, el informe de Gartner, se refuerza la idea de que esta disciplina es imparable. En su página de tendencias[2],  Gartner apunta como claves para el 2020 los siguientes conceptos:

  • Hyperautomation: Se habla del empoderamiento de los expertos apoyados en técnicas como Robotic Process Automation (RPA), Inteligencia Artificial, y gemelos digitales.
  • Multiexperience: Se reseña la experiencia en ambientes inmersivos (AR / VR), e interfaces avanzados sensoriales humano-máquina. Claramente, estos interfaces sensoriales no pueden ser implementados sin técnicas de Inteligencia Artificial.
  • Democratization: Se focaliza en cuatro áreas: desarrollo de aplicaciones, analítica avanzada, y conocimiento. Una vez más, necesitamos la disciplina que nos ocupa como base.
  • Human Augmentation: Implantación de tecnología cognitiva en el aumento sensorial (visión, percepción), apoyo con exoesqueletos, interfaces cerebro-máquina (brain augmentation), y análisis genómicos. Como el caso anterior, el manejo de estas nuevas capacidades debe ser entrenado y modelado con técnicas de Inteligencia Artificial, no hay otra manera.
  • Transparency and Traceability: En este apartado, Gartner se basa en la toma de decisiones a través del desarrollo de ideas como “Explainable AI” o “AI governance”.
  • The Empowered Edge: En este apartado se apunta al empoderamiento del denominado “edge computing” o la incorporación de inteligencia en dispositivos periféricos en los procesos finales.
  • The Distributed Cloud: En definitiva, la nube distribuida se refiere a la distribución de servicios de nube pública a ubicaciones fuera de los centros de datos físicos del proveedor de la nube, pero que aún están controlados por el proveedor.
  • Autonomous Things: En este apartado se habla de drones, robots, barcos y dispositivos, explotan la IA para realizar tareas que generalmente realizan los humanos. Esta tecnología opera en un espectro de inteligencia que va desde semiautónomas hasta totalmente autónomas y en una variedad de entornos, incluidos el aire, el mar y la tierra.
  • Practical Blockchain: Cito literalmente lo que se describe en el informe: “en el futuro, la verdadera cadena de bloques o «cadena de bloques completa» tendrá el potencial de transformar las industrias y, finalmente, la economía, a medida que tecnologías complementarias como la IA y el IoT comiencen a integrarse junto con la cadena de bloques”
  • AI Security: Los equipos de seguridad deben abordar estos desafíos y ser conscientes de cómo la IA afectará el espacio de seguridad.

En definitiva, de las 10 tendencias para el 2020, según Gartner, no hay ninguna que no tenga de base a la disciplina de Inteligencia Artificial, lo que confirma nuestra hipótesis inicial. Personalmente, en mi opinión, este año 2020 va a ser un año intensivo en el despliegue de proyectos de IA en entornos de producción y de negocio finales (2018 y 2019 fueron años de implantación de “POCs”, o de pruebas pilotos), y que se va a consolidar como el año de la inmersión de esta disciplina de una forma más normalizada en el mercado. Y en cuanto a tecnología, complementando el análisis de Gartner, creo que el 2020 va a ser un año de refinamiento e incremento en la investigación, desarrollo y puesta en el mercado de los siguientes “topics”:

Propios de la Disciplina de Inteligencia Artificial:

Avances en el denominado “Online Learning”: enlazado con el “Edge Computing”, la aplicación de técnicas de Inteligencia Artificial sobre grandes volúmenes de información en tiempo real va a ser un punto importante de investigación, desarrollo y puesta en producción.
  • Avances en NLP con la inclusión de modelos Deep Learning: Como continuación a los trabajos realizados en el 2019, se consolidarán proyectos de negocio con el objetivo de incorporar en las fases de preprocesado de datos la comprensión de lenguaje natural, mientras que la investigación estará muy enfocada en la generación de textos de forma automatizada, continuando el avance en las líneas como BERT, ELMO y GPT2, como ejemplos.
  • Tecnología Semántica combinada con “Deep-Learning”: Uno de los temas más interesantes, para mí, es la conexión entre los modelados convolucionales y su relación con las inferencias semánticas almacenadas como estructuras jerárquicas en grafos (“Knowledge-graphs”) y ontologías. En este apartado se están realizando avances significativos en el análisis de grafos con aprendizaje jerárquico (“Structure Learning”), y en la aplicación de nuevos modelos Deep Learning para dar solución a estructuras de datos en redes de grafos y tripletas semánticas. Nuestra experiencia en proyectos de analítica avanzada implantados durante estos últimos años nos han enseñado que todos los modelos analíticos hay que construirlos en base a particionar el problema en distintas estructuras jerárquicas de información (a través de una taxonomía de datos que van desde lo más específico a lo más general), y no en base a un único tablón estático, dado que la información del mundo real es, en sí, una gran estructura semántica. La combinación entre la lógica formal y el aprendizaje profundo, en lo que también se comienza a denominar “Neuro Symbolic Learner” o “Symbolic Reasoning” está demostrando generar modelos mucho más eficaces con entrenamientos mucho más simples.
  • Explainable AI: También relacionada con el concepto “Interpretable Machine Learning” (con matices), trata de explicar los resultados de los modelos no interpretados (como Deep-Learning, entre otros), con capacidad de resolución muy alta, de una manera sencilla de cara a que sean comprendidos y justificados por usuarios humanos. Este punto está íntimamente relacionado con el anterior, dado que, de hecho, una de las aproximaciones a la explicación de los modelos pasa por la generación de inferencias basadas en “Knowledge Graphs”. Empresas como DARPS (DARPA XAI), Google (Google XAI), IBM, Fujitsu y plataformas como RapidMiner ya suministran soluciones al respecto (Ver Figura 7) [3].

esquema AIFigura 7. Explainable AI: Deep Tensor and Knowledge Graph

Despliegue de procesos de IA como disciplina base de otras tecnologías:


Además de la inclusión de algoritmia IA como base fundamental de razonamiento en otras tales como Ciberseguridad, Realidad Aumentada y Virtual e Industria 4.0, quiero destacar tres tecnologías que, según mi opinión, se verán fuertemente impulsadas por la integración de la Inteligencia Artificial en sus casos de uso:

  • Interfaces Cerebro-Máquina: la denominada Neurocomputación o “Brain-Computer Interface”, trata de codificar las señales cerebrales o “EEG” en códigos que ya están permitiendo manejar sistemas, máquinas, extensiones biomédicas, exoesqueletos, e incluso, trasladar pensamientos y emociones a sistemas informacionales de una forma directa. Claramente, es una tecnología disruptiva, al mismo nivel de los sistemas ASR (voz a texto), y basada funcionalmente en los mismos principios, transformar señales a códigos. Podríamos pensar que es una tecnología futurista, y sin embargo, en el estado del arte abarca desde la investigación básica, hasta la comercialización de sistemas de hardware con los procesos de IA ya integrados.
  • Quantum Machine Learning: La computación cuántica, basada principalmente en Algebra Lineal, encaja como un guante en los modelos matriciales que soportan todo el desarrollo de Machine Learning, y principalmente, de DeepLearning. Es por ello que en los dos últimos años los casos de uso analíticos implementados en tecnología cuántica están tomando mucha importancia, a la par de las soluciones en encriptación. En el estado del arte se habla de Quantum ML, de Quantum Optimization, y Quantum Neural Networks, y los principales fabricantes ya permiten desplegar modelos en sus plataformas cuánticas.
  • Blockchain: Tal y como declaraba Gartner, la inclusión de modelos de descubrimientos de patrones sobre los datos internos en las cadenas de Blockchain va a ser uno de los retos y logros que van a “empoderar” a esta tecnología de cara a su utilización masiva.

En conclusión, creo que podemos estar seguros de que la Inteligencia Artificial no es sólo un conjunto de tecnologías más o menos engarzadas, sino que se conforma como una “Disciplina Científica” con un empaque demostrado en base a las numerosas evidencias y publicaciones  que se están generando en estos últimos años, y que cada vez está más consolidada y embebida en otras disciplinas como la Medicina, Investigaciones Ómicas, Nutrición Personalizada, Banca y Seguros, Marketing, Energía, Educación y en definitiva, en la mayoría de los entornos productivos actúales.

Estoy convencido de que este año 2020 va a ser un año intensivo en la investigación, innovación y puesta en producción de todos estos conceptos, y desde Ibermática ya estamos trabajando en ello. Nos espera un año intenso, emocionante y muy interesante. Seguros de que la Inteligencia Artificial es parte de nuestro ADN más interno, y después de más de 15 años de experiencia, nos mostramos más seguros en nuestra convicción de que éste es el camino correcto. Seguimos…

[1] https://www.lexology.com/library/detail.aspx?g=e1f9d4a1-1518-42e5-86a8-950edc4f3648

[2] https://www.gartner.com/smarterwithgartner/gartner-top-10-strategic-technology-trends-for-2020/

[3] https://blog.global.fujitsu.com/fgb/2019-08-01/why-ai-got-the-answer-explainable-ai-showing-bases/