En el marco del XXIV Encuentro Nacional y XVI Encuentro Internacional de Educación Matemática en Carreras de Ingeniería, celebrado en mayo de 2024 en la Universidad Tecnológica Nacional, Facultad Regional San Francisco, docentes e investigadores de la Facultad de Ciencias Exactas, Físicas y Naturales de la Universidad Nacional de Córdoba presentaron un trabajo innovador sobre el vínculo entre las matemáticas y la inteligencia artificial.
El equipo conformado por Adolfo Leonardo Vignoli, Laura Cecilia Díaz Dávila, Aldo Marcelo Algorry y José Daniel Britos expuso su artículo titulado “Explorando las matemáticas de una red neuronal”, una investigación que profundiza en los fundamentos matemáticos detrás del funcionamiento de las redes neuronales y su aplicación en diversos ámbitos tecnológicos.
Este evento, reconocido por su impacto en la enseñanza de la matemática en ingeniería, permitió el intercambio de conocimientos y experiencias entre especialistas del área, consolidando el compromiso de la UNC con la innovación y el desarrollo académico.
Explorando las matemáticas de una red neuronal: una mirada accesible al corazón del aprendizaje automático
En un mundo cada vez más atravesado por la inteligencia artificial (IA), entender cómo funcionan las redes neuronales ya no es un tema exclusivo para especialistas. Desde el reconocimiento de imágenes en nuestros celulares hasta los sistemas de recomendación de películas, estas redes están en el centro del desarrollo tecnológico actual. Pero, ¿cómo aprenden realmente? ¿Qué hay detrás de ese “cerebro artificial”?
En el artículo “Explorando las matemáticas de una red neuronal”, investigadores del Laboratorio de Investigación y Desarrollo de Software e Inteligencia Artificial (LIDeSIA) de la Universidad Nacional de Córdoba se propusieron explicar las bases matemáticas de una red neuronal de forma clara, accesible y rigurosa. Aquí resumimos sus principales aportes.
¿Qué es una red neuronal?
Una red neuronal artificial es un modelo matemático inspirado en el cerebro humano. Está compuesta por “neuronas” que almacenan números (llamados activaciones) y se organizan en capas: una capa de entrada, una o más capas ocultas y una capa de salida.
En el caso ejemplificado por los autores —el reconocimiento de dígitos manuscritos en imágenes de 28×28 píxeles—, cada píxel se convierte en una neurona de la capa de entrada. Como resultado, esa capa tiene 784 neuronas. La capa de salida, por su parte, tiene 10 neuronas: una para cada posible dígito del 0 al 9.
Entre ambas se sitúan capas ocultas que permiten a la red procesar la información. En el ejemplo del artículo, se usan dos capas ocultas de 16 neuronas cada una. Cada neurona de una capa está conectada con todas las neuronas de la capa siguiente, y cada conexión tiene un “peso” que determina su influencia. Además, cada neurona tiene un sesgo que ajusta su nivel de activación.
Cómo se activan las neuronas
El funcionamiento de cada neurona puede explicarse en tres pasos:
-
Suma ponderada: se suman las activaciones de la capa anterior, multiplicadas por sus pesos correspondientes.
-
Sesgo: se le agrega un número (el sesgo) a esa suma.
-
Función de activación: se aplica una función matemática, en este caso la función sigmoide, que transforma ese resultado en un valor entre 0 y 1.
Este valor indica qué tanto “cree” la neurona que la imagen corresponde a su categoría. Por ejemplo, si la neurona de salida correspondiente al número 3 tiene una activación cercana a 1, la red “piensa” que probablemente la imagen represente un 3.
Aprender a partir de errores: el entrenamiento
El aprendizaje de una red neuronal consiste en ajustar los pesos y sesgos para que las respuestas de la red se acerquen cada vez más a las correctas. Para lograrlo, se utiliza un conjunto de datos de entrenamiento, como el famoso conjunto MNIST, que incluye decenas de miles de imágenes de dígitos escritos a mano, cada una con su etiqueta correspondiente.
Al inicio, los pesos y sesgos son aleatorios. La red produce respuestas equivocadas. Pero tras cada prueba, se calcula un costo que mide el error. Cuanto más incorrecta sea la respuesta, mayor será este costo.
Descenso del gradiente: ir “cuesta abajo”
Aquí entra en juego una herramienta clave del cálculo: el descenso del gradiente. Esta técnica busca minimizar el costo ajustando los pesos y sesgos en la dirección en que el error disminuye más rápidamente. ¿Cómo se sabe cuál es esa dirección? Se calcula el gradiente, es decir, un vector que indica cómo cambia el costo en función de cada peso y sesgo.
La red ajusta sus parámetros en sentido opuesto al gradiente, paso a paso, en lo que se llama una época de entrenamiento. Tras muchas épocas, el error se reduce y la red mejora su precisión.
Retropropagación: aprender hacia atrás
Para calcular el gradiente de manera eficiente, se utiliza un algoritmo llamado retropropagación (backpropagation), que permite distribuir el error desde la salida hacia las capas anteriores. Cada peso y sesgo se ajusta en proporción a cuánto influyó en el error final.
Este proceso requiere aplicar la regla de la cadena del cálculo diferencial muchas veces. Si bien en redes más complejas los cálculos son más extensos, los principios siguen siendo los mismos. El artículo explica con claridad cómo se realiza esta operación en una red simplificada de solo tres neuronas, mostrando que incluso una red pequeña puede ilustrar cómo se ajustan los parámetros para aprender.
Matemáticas, ingeniería y futuro
Uno de los aspectos más valiosos del artículo es su enfoque formativo. No se trata solo de describir un modelo computacional, sino de resaltar el papel central que tiene la matemática en el desarrollo de tecnologías de inteligencia artificial. Entender las redes neuronales como estructuras matemáticas que operan mediante funciones, vectores, derivadas y matrices, permite a futuros ingenieros y científicas pensar de manera crítica y creativa sobre estos sistemas.
En este sentido, el trabajo del LIDeSIA de la UNC no solo aporta a la divulgación, sino que construye puentes entre la teoría y la práctica, entre el aula y el laboratorio, entre la matemática abstracta y las aplicaciones concretas que ya impactan en nuestras vidas.
Conclusión
Explorando las matemáticas de una red neuronal es un ejemplo claro de cómo se puede abordar un tema complejo con un lenguaje accesible y un enfoque educativo. En tiempos donde la inteligencia artificial aparece en titulares, es fundamental que también aparezca en las aulas, acompañada de herramientas que permitan comprender cómo y por qué funciona.
Más allá del código y los modelos, lo que este artículo demuestra es que, en el corazón de las redes neuronales, late una matemática poderosa y hermosa que merece ser conocida.