martes, 22 de enero de 2019

Descubren que es imposible predecir el futuro mediante modelos matemáticos


Un futuro controlado por máquinas es algo que se ve recurrentemente en muchas de las películas de ciencia ficción de los últimos años. Porque existe la especulación de que ellas manejarán todos los aspectos de nuestra vida y que gracias a ellas podremos estar más seguros y predecir mejor el futuro. 

Un reciente descubrimiento científico puso en duda esa idea al descubrir que, en una gran cantidad de casos, es imposible saber qué pasará. Un grupo de matemáticos del Instituto de Tecnología Technion-Israel en Haifaque, que estudió la capacidad de aprendizaje en Inteligencia Artificial, determinó que no se puede saber, de antemano, cuánta información se necesitaría para hacer predicciones correctas sobre eventos futuros. 

El estudio, publicado en Nature Machine Intelligence, pretendía averiguar si era posible determinar, de antemano, cuánta información hay que juntar para hacer predicciones correctas. Y descubrieron que el problema es "indecidible", un término matemático que significa que es imposible saberlo y que coincide con el resultado de una hipótesis matemática que tiene 80 años de antiguedad.

Es como decir que yo quiero saber cuál va ser clima de los próximos años y para eso tengo que juntar una determinada cantidad datos", explicó, a modo de ejemplo, Facundo Bromberg, director del Laboratorio de Inteligencia Artificial DHARMa - Universidad Tecnológica Nacional Regional Mendoza.

El estudio llegó a la misma conclusión que el modelo matemático de Kurt Gödel de su hipótesis del continuo. Gödel, de origen austríaco, demostró que la afirmación que dice que un algoritmo puede extraer un patrón de datos limitados de conjuntos más grande de información infinitos, no puede probarse como verdadera o falsa utilizando un lenguaje matemático estándar. Es decir que es "indecidible".

"Para nosotros, fue una sorpresa", dice --citado por Nature-- Amir Yehudayoff, coautor del artículo. El explica que, aunque hay una serie de preguntas técnicas de matemáticas que se sabe que son igualmente "indecidibles", no esperaba que este fenómeno apareciera en un problema relativamente simple en el aprendizaje automático.

Los investigadores a menudo definen la capacidad de aprendizaje en términos de si un algoritmo puede generalizar su conocimiento. El algoritmo recibe la respuesta a una pregunta de "sí o no", como "¿esta imagen muestra un gato?" para un número limitado de objetos, y luego tiene que adivinar la respuesta para los nuevos objetos.

Los autores continúan demostrando que si la hipótesis del continuo es cierta, una pequeña muestra es suficiente para realizar la extrapolación. Pero si es falsa, ninguna muestra finita puede ser suficiente. De esta manera, muestran que el problema de la capacidad de aprendizaje es equivalente a la hipótesis del continuo. Por lo tanto, el problema de la capacidad de aprendizaje también se encuentra en un estado de limbo que sólo se puede resolver eligiendo el universo axiomático. Es decir, por ejemplo, que es cierto que hay grupos intermedios de números entre el conjunto de números enteros, que es el más básico, y el de los racionales, que es más grande y nutrido. 

Sobre esto, Guillermo Martínez, escritor y matemático, explicó: "Esto quiere decir que está el conjunto infinito de números enteros, que es el más básico. Y el de los números reales (que incluye números racionales o irracionales), que es más grande y nutrido que el otro. Lo que Gödel pregunta es si habrá un conjunto que tenga un infinito intermedio. Esa afirmación en indecidible, ya que es verdadera en un axioma y falsa en otra". 

Y agrega: "Con menos información el cerebro obtiene la misma información. La imagen comprimida se entiende igual que si no está comprimida. Aprender significa un proceso de compresión: comprimís con la intención de extraer de la información relevante de la que no es¨. 

Yehudayoff y sus colaboradores llegaron a su resultado mientras investigaban la conexión entre capacidad de aprendizaje y "compresión", lo que implica encontrar una manera de resumir las características principales de un gran conjunto de datos en un conjunto más pequeño de datos. Los autores descubrieron que la capacidad de la información para comprimirse de manera eficiente se reduce a una cuestión en la teoría de conjuntos: colecciones matemáticas de objetos, como los conjuntos en los diagramas de Venn. En particular, se relaciona con los diferentes tamaños de conjuntos que contienen infinitos objetos.

En su reciente artículo, Yehudayoff y sus colaboradores definen la capacidad de aprendizaje como la capacidad de hacer predicciones sobre un gran conjunto de datos mediante el muestreo de un pequeño número de puntos de datos.

Sobre este tema, Bromberg amplió: "Esto se basa en datos que no son cualquier dato. Son observaciones para tomar decisiones útiles, qué hacer, cómo sacarle provecho al entorno. Por lo tanto tengo que entender cómo funciona. Y saber cómo intervenir en el entorno se llama predicción. La comprensión tiene que ver con distinguir las cosas entre sí, entre las que se compartan igual y las que se compartan diferente" 

Los resultados de este estudio también se vinculan con el problema de Georg Cantor, otro matemático, quien decía que hay infinitas formas de elegir el conjunto más pequeño, pero se desconoce el tamaño de ese infinito. Esto tiene que ver con el problema de subconjuntos, que pregunta cuál es el conjunto que hay que elegir. 

"Unos teoremas son ciertos en unos axiomas y falsos en otros. Tener poca información de datos, permite al algoritmo hacer predicciones", detalló Yehudayoff.

El resultado también ayuda a proporcionar una comprensión más amplia de la capacidad de aprendizaje, dice Yehudayoff. "Esta conexión entre la compresión y la generalización para crear predicciones es realmente fundamental si quieres entender el aprendizaje", concluye el matemático. 

(FUENTE: clarin.com)

No hay comentarios:

Publicar un comentario