Avances en Ciencias e Ingeniería Vol. 15 nro 3 año 2024 Articulo 5

PINNs FRACCIONARIAS: NUEVOS HORIZONTES PARA LA MEMORIA PROLONGADA EN MODELOS CONTINUOS

FRACTIONAL PINNs: NEW FRONTIERS FOR LONG-RANGE MEMORY IN CONTINUUM MODELS


Yuniel Martínez1, Luis Rojas1, Alvaro Peña1, Matías Valenzuela2, Beatriz Hernández3, José García (1) Doctorado en Industria Inteligente, Facultad de Ingeniería, Pontificia Universidad Católica de Valparaíso, Valparaíso 2362804, Chile. (2) Escuela de Ingeniería de Construcción y Transporte, Pontifica Universidad Católica de Valparaíso, Valparaíso 2362804, Chile. (3) Centro de Observación de la Tierra, Facultad de Ciencias, Ingeniería y Tecnología, Universidad Mayor, Santiago 8580745, Chile.


Resumen

Se exponen los fundamentos y motivaciones del Cálculo Fraccionario para describir dinámicas con memoria prolongada en dominios tanto temporales como espaciales. Para superar la alta complejidad numérica que implican las convoluciones fraccionarias, se adopta el marco de las Redes Neuronales Informadas por la Física (PINNs), integrando transformadas de Laplace y Fourier que convierten la memoria en productos simples en el dominio transformado. Este trabajo ilustra el potencial de las PINNs al modelar una viga arco con retardo fraccionario, mostrando convergencia estable y una reducción significativa del costo computacional. Así, se sientan bases para futuras extensiones a geometrías y procesos más complejos, donde la memoria no local sea esencial.

Abstract

The fundamentals and motivations of Fractional Calculus for describing dynamics with pro- longed memory in both temporal and spatial domains are presented. To overcome the high numerical complexity involved in fractional convolutions, the framework of Physics-Informed Neural Networks (PINNs) is adopted, integrating Laplace and Fourier transforms that convert the memory into simple products in the transformed domain. This work illustrates the potential of PINNs in modeling an arc beam with fractional delay, showing stable convergence and a significant reduction in computational cost. Thus, it lays the foundation for future extensions to more complex geometries and processes, where non-local memory is essential.

 

Palabras clave: cálculo fraccionario, redes neuronales informadas, transformadas Laplace–Fourier, memoria prolongada Keywords: fractional calculus, physics-informed neural networks, Laplace–Fourier transforms, long-range memory



Dejar una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Puedes usar estas etiquetas y atributos HTML:

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>