Академический Документы
Профессиональный Документы
Культура Документы
TESIS
QUE PARAOBTENER EL GRADO DE
MAESTRO EN CIENCIAS
EN INGENIERÍA MECÁNICA
PRESENTA:
DIRECTORES:
Los usuarios de la información no deben reproducir el contenido textual, gráficas o datos del trabajo sin
el permiso expreso del autor y/o director del trabajo. Este puede ser obtenido escribiendo a la siguiente
dirección ing_gerardo_hdez@hotmail.com. Si el permiso se otorga, el usuario deberá dar el
agradecimiento correspondiente y citar la fuente del mismo.
A mis padres, quienes me han apoyado incansablemente, procurando lo necesario para lograr
mis objetivos personales y procurar mi salud. Por tener la paciencia para criarme con cariño y
dedicación y por enseñarme que aun los sueños más locos se tornan realidad, con fe, entusiasmo por lo
que verdaderamente me gusta y trabajo arduo. También les agradezco por criarme, dejarme ser rebelde,
observador y jugar en la tierra, ya que es lo que me ha permitido a lo largo de mi vida tomar mis
propias decisiones y poder notar aun más allá del detalle en las cosas.
A mi hermano, por todo lo que hemos compartido durante la vida, por su apoyo en momentos de
presión y por tolerar mis constantes cambios de humor, recibiendo de él cariño y aceptación en todo
momento.
Al Dr. Luis Héctor Hernández Gómez, a quien tengo profunda admiración y respeto, por su
comprensión, su tiempo y dedicación para el desarrollo de este trabajo, ya que más allá de ser un tutor
académico, lo considero un padre académico, debido a su orientación en aspectos de mi vida personal
que me han permitido concluir el actual trabajo de tesis, considerándolo uno de los personajes que más
ha influido en mi desarrollo profesional.
Al Dr. Luis Flores, quien ha participado como miembro de mi comisión revisora, por lo cual le
agradezco profundamente.
A los Profesores, Orlando Susarrey y Alcántara Montes, por su contribución hacia mi formación
profesional.
A mis compañeros y amigos, Arturo, José Luis, Leonardo, Iván, Guillermo, Edgar, Fabián
Leonov, David, Anaí, Esther, Karla, Betty, Cesar, Juan Pablo, Sergio, Carlos, Omar, Christopher, Ariel,
Arafat, Héctor, Saúl, Salomón, Samuel, Andrés, Erwin, Valentín, Rodolfo, Yadira, Sergio Viveros, J.J.
Arenas, J. Lira y Amara con quienes en algún momento he compartido diversas experiencias, dentro y
fuera de las aulas de clases, y han tolerado mis risas explosivas y mi comportamiento loco e infantil.
A Paty, Gina, Lilia, Sally, Nancy Jacqueline, Fernanda, Gaby Irma, Lilis y Celina con quienes
he compartido agradables momentos, me han dado ánimos para continuar en los lapsos más difíciles y
me han apoyado para la conclusión de mis estudios multidisciplinarios. A Kenia, quien me enseñó, que
en ocasiones hay que ser firmes, asertivos, rudos y muy fuertes en la vida, a Jessica y Benjamín,
quienes me dieron un ejemplo de esfuerzo y dedicación y a Rosalba, quien es un ejemplo de alegría y
sencillez.
A todos aquellos que de alguna forma han contribuido directa o indirectamente al desarrollo de
este trabajo de tesis.
¡GRACIAS!
i
Resumen
Este trabajo se centra en la implementación de Redes Neuronales Artificiales (RNA) para evaluar el Factor
de Intensidad de Esfuerzos en placas agrietadas lateralmente, bajo el modo de carga tipo I. La base de
datos requerida se obtiene mediante el cálculo de los Factores de Intensidad de Esfuerzos “K” por el
método analítico y por medio del Método del Elemento Finito (MEF). Se modifican los valores de la
longitud de la grieta, el ancho de espécimen, el espesor, y la carga que se le aplica, cuyos rangos de
variación son de 1mm a 33 mm para el caso del tamaño de la grieta, de 100 a 200mm para el ancho del
espécimen, de 1mm a 100mm para el espesor y de10MPa a 20MPa en el caso de la carga. Los resultados
analíticos se comparan con los numéricos por medio del MEF y posteriormente se procede al
entrenamiento de la red con distintas arquitecturas y algoritmos de entrenamiento, determinando aquella
que proporciona el menor error cuadrático medio y menor tiempo en el cálculo.
Finalmente, se desarrollo una función objetivo que mediante la aplicación de Algoritmos Genéticos,
permite obtener a partir del valor del Factor de Intensidad de Esfuerzos, las condiciones de inicio de
propagación de una grieta, determinadas por los parámetros a, w, t y P. El error que se toma de base para la
programación del Algoritmo Genético, es el obtenido del entrenamiento previo de la red de
Retropropagación Levenberg-Marquardt.
Abstract.
In this work, Artificial Neural Networks analysis is used in the evaluation of the Stress Intensity Factor of
cracked edge plates. They were loaded under mode I conditions. The required database was obtained with
the evaluation of Stress Intensity Factors. This was done with analytical solutions and with the Finite
Element Method.
In this analysis, crack propagation conditions are varied. Crack length from 1mm to 33mm, plate
width from 100mm to 200mm, plate thickness from 1mm to 100mm and applied stress from 10MPa to
20MPa. Once the numerical results are validated, diverse Artificial Neural Networks are trained. Different
architectures and training algorithms are used. Those networks, which produce the lower mean squared
error and required a reduced computing time, were selected.
The algorithms that were used with the Backpropagation Neural Network are: Levenberg-
Marquardt, BFGS Quasi-Newton, Resilient Retropropagación, Conjugated Gradient, Fletcher-Reeves and
One Step Secant. Best results were obtained with the Levenberg-Marquardt algorithm. This based on the
descendent gradient and Gauss-Newton interpolation which are appropriated to solve linear and non-linear
problems.
Finally an objective function was designed to get start crack propagation conditions from Stress
Intensity Factors values by means of Genetic Algorithms. Base error to make the evaluation was taken
from a previous Backpropagation Levenberg-Marquardt algorithm training.
Índice General
Resumen.....………………………………………………................................................................... i
Abstract…....………………………………………………………………………………..…........... ii
Índice General…………………………………………………………………………………………iii
Índice de figuras ....……………………………………………….…………………………..……..v
Índice de tablas …..………………………………………………………………….………..……..vii
Nomenclatura …………………………………………………………………………………….... viii
Objetivo…....…………………………………………………………………………………............. ix
Justificación………………………………………………………………………………………….. x
Introducción………………………………………………………………………………………...... xii
Referencias……………………………………………………………………………………………..xiv
Anexo 1. Código para el cálculo de los Factores de Intensidad de Esfuerzos por medio del
Método del Elemento Finito 130
Anexo 2. Cálculo de K analítico de los Factores de Intensidad de Esfuerzos 132
Anexo 3. Cálculo de K por medio del Método del Elemento Finito 149
Anexo 4. Función objetivo 159
Anexo 5. Iteraciones para el cálculo inverso de los parámetros que definen a KIC, mediante
Algoritmos Genéticos 160
Índice de figuras
Figura. 3.7. Tipo de elemento PLANE185 utilizado para el análisis (Tutorial ANSYS) 73
Figura. 3.8. Condiciones de simetría del espécimen 74
Figura. 3.9. Cálculo de K por medio del MEF
para el caso de variación del tamaño de grieta 76
Figura. 3.10. Campo de esfuerzos en una placa con una grieta de 5mm 77
Figura. 3.11. Cálculo de K por medio del MEF variando el ancho del espécimen 78
Figura. 3.12. Campo de esfuerzos en una placa de 120mm de ancho 79
Figura. 3.13. Cálculo de K por medio del MEF variando el espesor 80
Figura. 3.14. Campo de esfuerzos en una placa de 10mm de espesor 81
Figura. 3.15. Cálculo de K por medio del MEF variando el esfuerzo 82
Figura. 3.16. Campo de esfuerzos en una placa con un esfuerzo de 19MPa 83
Figura. 3.17. Configuración de las entradas y salidas de la red 89
Figura. 4.1. Cuadro de entrenamiento de la RNA Levenberg-Marquardt con 2000 épocas 96
Figura. 4.2. Desempeño de la RNA Levenberg-Marquardt con 2000 épocas 97
Figura. 4.3. Estado del entrenamiento de la RNA Levenberg-Marquardt con 2000 épocas 98
Figura. 4.4. Entrenamiento de la Red Neuronal BFGS Quasi-Newton 99
Figura. 4.5. Desempeño de la Red Neuronal BFGS Quasi-Newton 100
Figura. 4.6. Estado del entrenamiento de la Red Neuronal BFGS Quasi-Newton 100
Figura. 4.7. Entrenamiento de la Red Neuronal de Retropropagación Elástica 101
Figura. 4.8. Desempeño la Red Neuronal de Retropropagación Elástica 102
Figura. 4.9. Entrenamiento de la Red Neuronal de Gradiente Conjugado 103
Figura. 4.10. Desempeño de la Red Neuronal de Gradiente Conjugado 103
Figura. 4.11. Estado del entrenamiento de la Red Neuronal de Gradiente Conjugado 104
Figura. 4.12. Entrenamiento de la Red Neuronal de Fletcher-Reeves 105
Figura. 4.13. Desempeño de la Red Neuronal de Fletcher-Reeves 106
Figura. 4.14. Entrenamiento de la Red Neuronal de Secante de un Paso 107
Figura. 4.15. Desempeño de la Red Neuronal de Secante de un Paso 107
Figura. 4.16. Tiempo de cálculo 109
Figura. 4.17. Error cuadrático medio 109
Figura. 4.18. Entrenamiento de la RNA Levenberg-Marquardt datos analíticos aleatorios 111
Figura. 4.19. Validación de la RNA Levenberg-Marquardt 111
Figura. 4.20. Datos de gradiente y validación de la RNA Levenberg-Marquardt 112
Figura. 4.21. Herramienta de optimización de Algoritmos Genéticos 114
Figura. 4.22. Comparación de los valores de los parámetros de origen y
los calculados mediante Algoritmos Genéticos 116
Figura. 4.23. Comparación de los valores de los parámetros de origen
y los calculados mediante Algoritmos Genéticos 117
Figura. d.1. Cálculo del Factor de Intensidad de Esfuerzos por diversos métodos 121
Figura. d.2. Valor del error promedio calculado para diferentes algoritmos 122
Figura. d.3. Desviación estándar del error de los algoritmos 123
Figura. d.4. Comparación del Factor de Intensidad de Esfuerzos para 10 valores aleatorios 124
Índice de tablas
Tabla. 1.1. Los principales aspectos en el desarrollo de las Redes Neuronales Artificiales
la historia de las RNA. (Gori, 2003) 6
Tabla. 2.1. Describe las funciones geométricas para el modo de carga I
aplicado a distintas formas de grieta en placas (Rice, 1972) 52
Tabla. 2.2. Valores de KIC, Espesor y esfuerzo de cedencia para algunos materiales 55
Tabla. 3.1. Rangos de variación de los parámetros a, w, t y P 64
Tabla. 3.2. Cálculo del error analítico y numérico, para el caso de la variación
del tamaño de grieta 76
Tabla. 3.3. Cálculo del error analítico y numérico, para el caso de
la variación del ancho del espécimen 78
Tabla. 3.4. Cálculo del error analítico y numérico, para el caso de la variación del espesor 80
Tabla. 3.5. Cálculo del error analítico y numérico, para el caso de la variación del esfuerzo 82
Tabla. 3.6. Casos a evaluar con los diferentes algoritmos de entrenamiento 88
Tabla. 3.7. Arquitecturas de las redes con relación a los diferentes
algoritmos y parámetros de entrenamiento considerados 92
Tabla. 4.1. Desempeño de los algoritmos implementados en la red de Retropropagación 108
Tabla. 4.2. Condiciones de programación del Algoritmo Genético 115
Tabla. 4.3. Comparación entre los datos de origen y el cálculo inverso
por medio de Algoritmos Genéticos 116
Tabla. 4.4. Comparación entre los datos de origen y el cálculo inverso por medio
de Algoritmos Genéticos. 117
Tabla. d.1. Valor del Factor de Intensidad de Esfuerzos obtenido por diferentes métodos 122
Nomenclatura
Glosario
Xi Entrada de la Red Neuronal
Yj Salida de la Red Neuronal
Wjn Peso sinápticos
σi(t) Estado de la neurona
Bpi Activación lineal de la neurona
Apn Conjunto de entradas
bpn Conjunto de salidas
AG Algoritmo Genético
RNA Red Neuronal Artificial
σloc Tensión en la punta de la grieta
UM Energía Mecánica
US Energía Superficial
Ua Energía Elástica Almacenada
ν Relación de Poisson
E Módulo de Elasticidad
ϒs Energía libre superficial por unidad de área
K Factor de Intensidad de Esfuerzos
KIC Tenacidad de Fractura
σ Esfuerzo remoto aplicado en el punto principal de la placa
a Longitud de la grieta
W Ancho del cuerpo
t, B Espesor
Α Factor de forma
σ0 Esfuerzo de fluencia
LM Levenberg-Marquardt
BFG BFGS Quasi- Newton
RP Resilient-Backpropagation
SCG Scaled Conjugated Gradient
CGF Fletcher-Reves
OSS One Steep Secant
Objetivo
Para poder concretar satisfactoriamente el objetivo general de esta tesis, se plantearon los siguientes
objetivos particulares, los cuales se presentan a continuación:
• Realizar el análisis numérico del comportamiento del inicio de propagación de una grieta en placas
por medio del Método del Elemento Finito (MEF) para la obtención del Factor de Intensidad de
Esfuerzos crítico.
• Conocer los aspectos de Mecánica de la Fractura aplicados al análisis de inicio de propagación de
una grieta, así como los diferentes enfoques teóricos.
• Entender y comprender el funcionamiento de Redes Neuronales Artificiales aplicadas al problema
de Mecánica de la Fractura.
• Comparar los datos de simulaciones numéricas mediante programas de diseño contra los obtenidos
mediante soluciones cerradas.
• Obtener una base de datos para el entrenamiento de Redes Neuronales Artificiales.
• Implementar las Redes Neuronales Artificiales para la determinación de los Factores de Intensidad
de Esfuerzos, mediante la aplicación de diferentes algoritmos y arquitecturas.
• Determinar las condiciones de inicio de propagación de grietas por medio de Algoritmos
Genéticos.
Justificación
En las Ciencias de la Ingeniería, así como en ciertas disciplinas de la Física, tal es el caso de la Mecánica,
se busca el empleo de diversos modelos teóricos que sirvan de apoyo para representar fenómenos de la
realidad. En esta búsqueda, se han desarrollado distintos modelos que en ocasiones se fundamentan en el
funcionamiento del cuerpo humano. Debido a la complejidad, perfección y buen desempeño que esto ha
mostrado para la realización de distintas tareas en comparación con sistemas estructurados ingenieriles
avanzados, el hecho de tratar de emular sus funciones ha tenido una creciente aceptación recientemente.
Los sistemas expertos, tal como se conocen, son una rama de la inteligencia artificial, de los cuales, se
destacan la Lógica Difusa y el modelo de Redes Neuronales Artificiales (RNA). Este último, se
fundamenta en una analogía del funcionamiento del sistema nervioso de algunas especies vivas tales como
los seres humanos, para la implementación en aplicaciones de Ingeniería.
Las Redes Neuronales Artificiales son un sistema de interconexiones neuronales que forman una
red, la cual, está compuesta de neuronas que proporcionan las entradas de datos. A través de las
interconexiones emiten una salida y esta a su vez, está determinada por tres funciones: una de propagación,
una de activación y una de transferencia. De esta forma, la red adquiere información y proporciona datos
a la salida, teniendo la posibilidad de crecer la red en cantidad de información, por lo que se describe
análogamente a los procesos humanos de aprendizaje. Debido a sus características, las RNA’s, se han
utilizado para intentar predecir el comportamiento de diversos sistemas. Algunos de estos son considerados
no lineales. En este caso, resulta de gran interés por sus implicaciones en diversas ramas de la Ingeniería y
la Industria y para la predicción del inicio de propagación de grietas con relación a distintas variables que
se introducen al modelo.
Introducción
Existen diversas metodologías para el análisis de las propiedades mecánicas de los materiales, ya sean
mediante métodos destructivos, como no destructivos. Dentro de los no destructivos, podemos considerar
el análisis numérico, que complementa las ecuaciones experimentales, iniciando determinaciones
cuantitativas. Lo anterior es debido a que en ocasiones, se requiere conocer el comportamiento de diversos
materiales, ante condiciones de falla críticas, ya que esto resulta de apoyo en el diseño de elementos
mecánicos, previniendo fallas catastróficas. No siempre es posible realizar el análisis por medio de técnicas
destructivas, ya que esto repercute en tiempo y costo, sin embargo, no todos los métodos numéricos,
resultan eficientes en cuanto a tiempo y precisión en el cálculo. En ocasiones son aplicables solo a
problemas con determinadas condiciones de frontera, por lo cual surge la necesidad de implementar nuevas
metodologías que apoyen a dicho análisis.
En la actualidad, se han desarrollado distintos procedimientos que permiten realizar análisis cada vez más
complicados con mayor grado de exactitud y en menor tiempo. Esto debido a la gran cantidad de
aportaciones científicas y tecnológicas. Algunas técnicas son multidisciplinarias, lo cual, se ve reflejado en
los modelos biológicos que han inspirado a la creación de dichas metodologías. De la misma forma, ha
influido el desarrollo de ordenadores más eficientes y potentes.
En la SEPI-ESIME se han desarrollado trabajos al respecto. (Campos, 2009), realizó un trabajo de tesis
titulado “Análisis inverso computacional enfocado a la localización de defectos en materiales sólidos”,
así también, (Bautista, 2008) desarrolló en la Sección de Estudios de Posgrado del Instituto Politécnico
Nacional en México una tesis que lleva por nombre, “Implementación Numérica de una Red Neuronal para
el Modelo Constitutivo del Comportamiento de Materiales”. Otro ejemplo es la tesis de (Ponce, 2008)
cuyo título es “Desarrollo de un Sistema Neuro-Difuso para la Solución a la Cinemática Inversa de
Manipuladores Robóticos”, en la cual, se aplican técnicas de Control Difuso y Redes Neuronales
Artificiales. Mediante trabajos de publicación también se ha contribuido al respecto. Tal es el caso de
(Luna et al, 2008) quienes realizaron un trabajo en torno a la localización y clasificación de defectos con
redes neuronales y (Lugo et al, 2009) con un trabajo en torno a la optimización de un mecanismo, a través
del uso de Algoritmos Genéticos.
Lo anterior, constituye un esfuerzo por realizar desarrollos científicos en el área de Mecánica, por lo cual
surgió el interés en la aplicación de dichas técnicas, no destructivas mediante métodos directos
computacionales utilizando Redes Neuronales Artificiales para el análisis de grietas en placas. Si bien, ya
existen análisis por medio del Método del Elemento Finito mediante el apoyo de diversos paquetes
computacionales, en esta tesis se analizan las posibilidades y alcances de aplicar Redes Neuronales
Artificiales a dicho problema que puede presentar un comportamiento no lineal.
Capítulo 1. Se presentan de forma general los orígenes y los conceptos relacionados con Redes Neuronales
artificiales, tales como la descripción de una neurona biológica, su relación con el modelo de RNA`s, así
como también se describe el Algoritmo de Retropropagación empleado en esta tesis, el Perceptrón como
modelo básico, y una breve introducción a las características de los Algoritmos Genéticos. Al final del
capítulo, se describe el planteamiento del problema, en el cual se explica lo que se pretende realizar con
este trabajo de tesis.
Capítulo 2. Se realiza una breve descripción de los antecedentes históricos que dan pie al surgimiento de la
Mecánica de la Fractura, lo cual justifica la importancia de los estudios en este campo de la ingeniería.
Posteriormente se plantean los conceptos de Mecánica de la Fractura relacionados con el problema
planteado en el capítulo 1, tales como el Factor de Intensidad de Esfuerzos y la Tenacidad de Fractura entre
otros.
Capitulo 3. En este capítulo, se describe el procedimiento que se llevó a cabo para el análisis analítico,
numérico y para la implementación por medio de Redes Neuronales Artificiales para la solución del
problema. SE explican detalladamente los procedimientos de cálculo, así como el desarrollo de la
programación para el diseño de las RNA`s.
Capítulo 4. En este capítulo se plasma el análisis de los resultados, a fin de dar una conclusión y definir los
alcances del actual trabajo. Primero se muestran los resultados para el entrenamiento de cada unos de los
algoritmos propuestos para el análisis y posteriormente se comparan los resultados de estos. Finalmente se
muestran los resultados que conciernen al análisis de los parámetros de inicio de propagación de grietas,
obtenidos a través del cálculo por medio de Algoritmos Genéticos, lo cual complementa el análisis por
medio de Redes Neuronales.
Es importante señalar, que el actual trabajo de tesis, pertenece al proyecto CONACyT con número de
registro 25226 titulado “Determinación de la Integridad de Estructuras Sometidas a Cargas de Diseño
Severas con Enfoque a Sistemas y Componentes Relacionados con la Seguridad de Centrales Nucleares de
Agua en Ebullición” y al proyecto de Investigación financiado por el IPN “Aplicación de Redes
Neuronales en la solución de problemas de Biomecánica” SIP 20080663.
Referencias
Campos, L. J. (2009). Análisis Inverso Computacional Enfocado a la Localización de Defectos en
Materiales Sólidos. Tesis de Maestría. México, D.F. SEPI-ESIME IPN.
Bautista, C. G. (2008). Implementación Numérica de una Red Neuronal para el Modelo Constitutivo del
Comportamiento de Materiales. Tesis de Maestría. México, D.F. SEPI-ESIME IPN.
Luna, A. A., Hernández, G. L., Durodola, J. F., Urriolagoitia, C. G. y Urriolagoitia, S. G. (2008). Locating
and Classifying Defects with Artifitial Neural Networks. Applied Mechanics and Materials.Vols. 13-14,
pp. 117-123.
CAPÍTULO 1
Conceptos y Características de las Redes
Neuronales Artificiales.
El estudio mediante Redes Neuronales, ha cobrado importancia a través de los años debido
a su diversa gama de aplicaciones y las ventajas que este paradigma teórico aporta con
relación a otros métodos y técnicas en la resolución de algunos problemas en distintas
disciplinas del conocimiento. El modelo de Redes Neuronales Artificiales (RNA) es
análogo al funcionamiento del sistema nervioso de algunos organismos, asociándose
principalmente al de los seres humanos. Este, al igual que distintos sistemas y modos de
funcionamiento de los organismos vivos, ha servido de ejemplar para la formación de
nuevos conceptos, teorías y paradigmas aplicables a distintas áreas, con la finalidad de
desarrollar nuevas tecnologías. Lo anterior, es debido a la eficacia de los sistemas
biológicos en la resolución de algunas tareas. Este hecho no es fortuito, ya que, los
diversos organismos que conocemos son producto de la evolución de millones de años.
introducen desde esta perspectiva de las Redes Neuronales, conceptos biológicos tales
como neurona, sinapsis y axón, entre otros. Campanario (2004) argumenta que este enfoque
es multidisciplinario y que con base al uso de Redes Neuronales, se mantiene relación con
campos tan aparentemente ajenos a la didáctica de las ciencias como son las Matemáticas,
la Inteligencia Artificial, la Epistemología, la Lingüística, la Informática y la
Neurobiología, entre otros.
A través de los años, el hombre ha intentado crear máquinas y procesos que imiten
las funciones del cuerpo humano, así, las primeras explicaciones en torno al
funcionamiento del cerebro fueron dadas por filósofos griegos tales como Platón, y en la
actualidad se equiparan con el modelo de Von Newman. Es de aquí, que se introducen en la
Psicología Cognitiva conceptos como almacenamiento y procesamiento de información
propia de dicho modelo, los cuales, posteriormente son retomados para aplicaciones de
Ingeniería.
Desde el punto de vista de las Ciencias de la Ingeniería, así como de las distintas
disciplinas, el modelo de Redes Neuronales es utilizado para predecir no sólo
comportamientos de organismos biológicos, sino también, de diversos sistemas que abarcan
una gran gama de áreas del conocimiento. Es por ello, que esta perspectiva traída de la
Biología y la Psicología, resulta tan atractiva como modelo teórico; por sus características y
aplicaciones.
la Medicina, entre otras. En el ámbito de la Ingeniería, las RNA`s, surgen como una
propuesta para la resolución de distintos problemas con la intención de desempeñar un sin
fin de tareas que comúnmente realiza el ser humano y requieren de lo que ordinariamente
llamamos inteligencia. Este interés por crear máquinas, aparatos y sistemas capaces de
suplir y facilitar algunos trabajos realizados por el ser humano, se observa fehacientemente
con la invención de la cuña, la palanca, la polea, la rueda y posteriormente la creación de
los motores de vapor, los telares, entre otros más sofisticados en la actualidad. De lo
anterior, se explica el profundo interés en la investigación aplicada en torno a las RNA´s, y
se justifica la importancia de la indagación de sus orígenes.
Las primeras explicaciones teóricas sobre el cerebro y el pensamiento ya fueron dadas por
algunos antiguos filósofos griegos, como Platón (427-347 a.C.) y Aristóteles (422-384 a.
C.). Las mismas ideas sobre el pensamiento mental también las mantuvo Descartes
(1596-1650). La clase de las llamadas máquinas cibernéticas, a la cual, pertenece la
Computación Neuronal, tiene más historia de lo que generalmente se cree. Herón, el
Alejandrino, construyó un autómata hidráulico sobre el 100 a.C. (Hilera y Martínez, 2000).
Lo anterior, específicamente la creación del autómata, al cual, se hace referencia, resulta
relevante debido a que aquí se observan los primeros intentos por reproducir acciones que
comúnmente realiza el ser humano.
Posteriormente, se sabe de los estudios del cerebro realizados por Alan Turing en
1936, los cuales, conforman las primeras representaciones del funcionamiento del cerebro
con una perspectiva computacional. Sin embargo, son el neurofisiólogo McCulloch y el
matemático Walter Pitts, quienes describen en 1943 los principales fundamentos de lo que
se conoce como Computación Neuronal (op cit). Por otra parte, Donald Hebb en 1949,
escribe “la Organización del Comportamiento” con lo cual, establece una conexión entre
la Fisiología y la Psicología (Hebb, 1949). En el cuarto capítulo de su libro; se da, por
primera vez, una metodología para la modificación de las sinapsis, es decir, una regla de
aprendizaje fisiológica. Además, propone que la conectividad del cerebro cambia
Son bastos los estudios que se reportan en la literatura en torno a las Redes
Neuronales Artificiales, sin embargo, resulta importante destacar el desarrollo del modelo
adeline en 1959 por parte de Bernard Widrow y Marcial Hoff, ya que de aquí se conforma
la primera Red Neuronal aplicada a un problema real, siendo usado de forma comercial por
décadas (Widrow en Hilera y Martínez, 2001).
esta forma surgió la Teoría de la Resonancia Adaptativa (TRA) o mejor conocida por sus
siglas en ingles ART (Adaptative Resonance Theory).
Las Redes Neuronales Artificiales son análogas a la fisiología neuronal del cuerpo humano,
es decir, se toma como modelo el funcionamiento de parte del Sistema Nervioso Central,
siendo su analogía el emularlo mediante técnicas computacionales y esto a su vez,
permite dar solución a una gran gama de problemas, con las ventajas y limitaciones que
estas implican.
En la figura 1.1, se observan los elementos que componen a una neurona biológica,
tales como el núcleo o cuerpo de la neurona, también llamado soma, y una serie de
terminales que parten de este, vistas como ramificaciones llamadas dendritas. Existe una
conexión entre las dendritas y el teledrón llamada axón. El axón está recubierto por una
vaina de mielina. Esta capa es interrumpida en varios puntos por los nodos de ranvier.
Las fibras nerviosas en si son malas conductoras de energía eléctrica, sin embargo,
la transmisión de potencial de acción a lo largo del axón es el resultado de una serie de
despolarizaciones que tiene lugar en los nodos de ranvier. Cuando uno de los nodos se
despolariza, se desencadena la despolarización del siguiente nodo. El potencial de acción
viaja a lo largo de la fibra en forma discontinua, de un nodo a otro. Una vez que el
potencial de acción ha pasado por un cierto punto, este no puede volver a ser excitado
durante un milisegundo aproximadamente, que es el tiempo que tarda en volver a su
potencial de reposo o estado basal. Este periodo refractario limita la frecuencia de
transmisión de los impulsos nerviosos a unos 1000Hz por segundo (Freeman y Skapura,
1993).
La sinapsis es la unión que se establece entre dos neuronas, y mediante una serie de
neurotransmisores, se realiza la conexión entre neuronas. Las sinapsis permiten que la
célula influya en la actividad que realizan otras neuronas. El dogma recibido de la teoría de
Redes Neuronales dice que las sinapsis varían en fuerza. Esto es lo que permite las
detalladas interacciones entre varias neuronas, y son la clave de la naturaleza de los
cómputos de las Redes Neuronales (Anderson, 2007). Una característica de estas es que se
toman como modelo para aplicaciones tecnológicas por su funcionamiento en paralelo, es
decir, que pueden existir series de neuronas interconectadas unas con otras y trabajando al
mismo tiempo. Esta característica, a pesar de las limitaciones que tienen en tiempo de
transmisión por la frecuencia ya descrita, se compensa por su capacidad de funcionamiento
en paralelo, por lo cual, frente a otras aplicaciones actuales por medio de métodos
numéricos, reducen el tiempo de cálculo.
1. El impulso que llega a la sinapsis y el que sale de ella, los cuales, no son iguales, y
al tipo de salida, que depende del número de neurotransmisores que se ve
modificado por medio del proceso de aprendizaje, así, se cambia este y la
información almacenada se refuerza o se debilita.
Es conveniente comenzar definiendo lo que es una RNA, por lo que Haykin (1999) refiere
que esta es un procesador masivamente distribuido en paralelo, con la capacidad de
almacenar conocimiento experimental y mantenerlo disponible para su uso. Esto se
asemeja al cerebro humano en dos aspectos:
Por otra parte, Müller et. al (1995), definen un modelo de Redes Neuronales como
algoritmos para tareas cognitivas, tales como el aprendizaje y la optimización, las cuales,
en un sentido vago, se apoyan en conceptos derivados de la investigación en torno a la
naturaleza del cerebro. De lo anterior, se puede decir que existe una serie de características
de las Redes Neuronales Artificiales, que las colocan en ventaja en algunas aplicaciones
con relación a otros modelos teóricos. Es importante destacar que el modelo neuronal
biológico se toma como base para la creación de Redes Neuronales Artificiales, sin
embargo, no es el propósito reproducirlo de forma exacta, más bien, extraer las
características de mayor relevancia para su aplicación en la resolución de problemas.
En la Figura 1.3, Se muestra la analogía de una Red Neuronal Biológica con una
Red Neuronal Artificial, en donde X1, Xi, Xn y Yj son las neuronas y las líneas que unen
a X1,..Xn con Yj son las dendritas.
Las neuronas X1, Xi hasta Xn, son señales de entrada, las cuales, envían
información con valores numéricos y a su vez, se encuentran interconectadas con la
neurona Yj, las cuales son representadas por el vector de señales entrada:
(1.1)
Cada señal de entrada Xi, es multiplicada por un valor Wji, conocido como peso
sináptico, el cual, define el grado de importancia o prioridad de la información transmitida
a las dendritas de Yj. El primer subíndice de W, denota hacia donde es dirigida la
información proveniente de la neurona Xi, y a su vez, el segundo subíndice hace referencia
al origen de la información. Los pesos sinápticos Wji pueden ser excitatorios (positivos) o
inhibitorios (negativos) de acuerdo a su valor y son representados por el siguiente vector:
(1.2)
Al multiplicar las entradas por sus respectivos pesos y tomando en cuenta al igual
que en una neurona biológica, las entradas se suman en el soma o cuerpo de la neurona.
Loa totales de la suma de las neuronas Yj (in) quedan representados de la siguiente forma:
(1.3)
(1.4)
1.4.3. Aprendizaje.
Castillo et al (1999) mencionan que una de las principales características de las RNA´s es
su potencial de aprendizaje a partir de unos datos, y de esta forma, una vez que se ha
definido la arquitectura de la red, los pesos de las conexiones son ajustados para codificar
la información obtenida de un conjunto de datos de entrenamiento. De esta forma, los
diferentes métodos de aprendizaje se pueden clasificar en dos categorías dependiendo del
tipo de información disponible (op cit):
Una señal de activación, la cual, actualiza los estados de las neuronas y permite de
esta forma el cálculo. Dado un estado de una neurona i y la entrada de estimulación
de la neurona , el estado siguiente resultante es:
(1.5)
Una regla de aprendizaje, la cual, modifica los pesos de las conexiones y así
permite llevar a cabo el cálculo. Dado el peso sináptico Wji que se reforzará o inhibirá,
resulta lo siguiente:
(1.6)
Una Red Neuronal Artificial puede concebirse desde un punto de vista matemático como
un grafo dirigido y ponderado, donde los nodos representan las neuronas y las líneas que las
unen entre sí, son las conexiones sinápticas. Las arquitecturas pueden definirse por el
número de capas:
• Redes monocapas. Son las de configuración más sencilla, ya que están formadas
únicamente por una capa de neuronas que proporcionan las entradas a la red y una
capa de neuronas que generan los datos a la salida. Debido a que la capa de entrada
no realiza ningún cálculo, más bien sólo alimenta a la red con la señales de entrada,
esta capa no se cuenta. Es por ello que el nombre es redes monocapa. Este tipo de
red es conveniente cuando se trabaja con una gran cantidad de datos, ya que surge la
necesidad de agruparlos de acuerdo a sus similitudes de comportamiento. Cada capa
constituye un vector de neuronas, cuyas salidas pueden ser lineales o no lineales.
En la figura 1.5, se muestra un esquema de una Red Neuronal monocapa.
Large Scale Integrated) VLSI, por sus siglas en inglés. En la figura 1.6, se muestra
un ejemplo de una red multicapa.
salida proporciona una retroalimentación al sistema. Los lazos pueden ser entre
neuronas de diferentes capas o entre una misma neurona. Este tipo de configuración
las hace adecuadas para estudios no lineales.
• Redes Neuronales totalmente conectadas. Cada una de las neuronas de una capa se
encuentran conectadas con las neuronas de la capa siguiente (redes no recurrentes) o
con las de la capa anterior (redes recurrentes).
Si bien, las Redes Neuronales son una buena alternativa para la solución de muchos
problemas, también tienen sus limitaciones. No obstante lo anterior, se ha buscado la
forma de perfeccionarlas a través de diferentes modelos y adaptaciones. Se observan
actualmente trabajos mediante Redes Neuronales Artificiales en diversos campos,
combinadas con Algoritmos Genéticos o Algoritmos Evolutivos, tales como los descritos
por (Martinez y Goddart, 2001), en donde se usan Redes Neuronales para tareas de
clasificación por medio de un programa evolutivo, y (Parisi y cols, 2006), quienes aplican
Redes Neuronales en conjunto con Algoritmos Genéticos para la predicción de índices
bursátiles, solo por mencionar algunos trabajos.
• Alta tolerancia al ruido. Significa que resultan muy flexibles con relación a datos
complejos, y faltantes.
Por otra parte, Muñoz (1996) describe algunas de las características por las que las
RNA´s suelen ser útiles:
Algunas de las desventajas que se refieren al uso de las Redes Neuronales son las
siguientes de acuerdo a Bautista (2008) son:
1.6. El Perceptrón.
Hagan y cols. (1996), refieren que Frank Rosemblatt, en 1950, junto con otros
investigadores, desarrollaron una clase de Redes Neuronales llamadas Perceptrones, cuyas
neuronas eran similares a las de McCulloch y Pitts. El aspecto trascendente con el que
contribuyó Rosemblatt fue al introducir la regla de entrenamiento del Perceptrón para los
problemas de reconocimiento de patrones, observando que esta regla siempre converge
hacia los valores de los pesos correctos, la cual aprende de los errores.
(1.7)
• Método del descenso de gradiente, en el cual también se eligen los pesos sinápticos
de forma aleatoria. Sin embargo, la finalidad de este método es minimizar la suma
de los cuadrados de los errores por medio de la variación de los pesos. De esta
forma el error se encuentra determinado por la siguiente expresión:
(1.8)
(1.9)
(1.10)
(1.11)
(1.12)
esta forma, los valores obtenidos son utilizados para actualizar los pesos sinápticos Wik y
así propagar hacia atrás los errores anteriores:
(1.13)
(1.14)
Ya que los pesos han sido actualizados, el valor resultante junto con el valor a la
entrada y los de las neuronas de las capas ocultas, se utilizan para modificar los pesos de la
capa oculta:
(1.15)
(1.16)
Donde:
Las aplicaciones de las Redes Neuronales, son muy amplias. Lo anterior, es debido a su
versatilidad y sus características, tales como: el entrenamiento no supervisado y su
procesamiento en paralelo. Esto, las ponen en ventaja con relación a otras herramientas.
De acuerdo a la forma del tratamiento de los datos del problema, este puede ser
resuelto por medio de un análisis directo o inverso. En el caso de no contar con los
parámetros de defectos tales como el tamaño de grieta y la localización de defectos. Estos
pueden determinarse a partir de la respuesta dinámica de un sólido medido en diferentes
puntos de su superficie. Lo anterior es un análisis inverso del problema. Por otra parte, si
se conocen los parámetros del defecto, la respuesta dinámica de un sólido se puede obtener
a partir de análisis computacionales, por medio de simulaciones mediante métodos
numéricos tales como: el Método del Elemento Finito, entre otros. Esto es lo que se conoce
como un análisis directo del problema.
1. Se simulan mediante análisis por medio del Método del Elemento Finito,
generándose con esto, una base de datos sintética.
Estos son solo algunos de los muchos ejemplos de las aplicaciones de las Redes
Neuronales Artificiales en Ingeniería Mecánica. Actualmente, en la Sección de Estudios de
Posgrado e Investigación de ESIME-IPN se ha trabajado con la detección de defectos y su
implementación al modelo constitutivo del comportamiento de materiales, así también se ha
modelado mediante la implementación de Control Difuso y Redes Neuronales para la
resolución de problemas en mecánica. También, trabajos con Algoritmos Genéticos se han
realizado. Un ejemplo es el titulado “diseño de mecanismos utilizando Algoritmos
Genéticos con aplicaciones en prótesis para miembro inferior, a cargo de las M. en C.
Esther Lugo González, en donde describe la metodología para su implementación.
Los Algoritmos Genéticos, (AG) son una herramienta de optimización, aplicable a una
gran gama de problemas. Estos se basan en la selección natural de los procesos de
evolución biológica. Debido a esta característica, el AG modifica constantemente la
población de los individuos. En cada paso, se seleccionan los datos de una población al
azar, para ser padres y así formar hijos para la siguiente generación. Hacia las nuevas
generaciones, se propone una gran variedad de soluciones óptimas al caso a resolver. Una
característica importante, es que estos tienen la capacidad de resolver problemas mediante
una función objetivo, discontinua, no diferenciable, estocástica o altamente no lineal.
Los Algoritmos Genéticos funcionan bajo una función objetivo, que describe el
comportamiento del problema y debe programarse previamente. Se usan una gran gama de
reglas en cada paso para la creación de generaciones, las cuales son:
Reglas de cruce. Sirven para hacer combinaciones entre parientes para formar hijos
de las siguientes generaciones.
Reglas de mutación. Se aplican al azar para crear cambios en los padres para la
formación de hijos.
La pregunta es, si existe algún otro método que pueda dar solución a la evaluación
del problema de inicio de propagación de una grieta. Así es que, existe la necesidad de
generar criterios de evaluación y a la vez, se debe tomar en cuenta el carácter no lineal del
problema. Esto es, la relación parabólica entre el Factor de Intensidad de Esfuerzos y el
tamaño de la grieta. En este sentido, se ha establecido, que los análisis por medio de Redes
Neuronales Artificiales y Algoritmos Genéticos son una buena propuesta.
1.11. Sumario.
En este capítulo, se expusieron los conceptos básicos en torno a las Redes Neuronales
Artificiales, haciendo un breve recorrido por la historia, sus orígenes y sus principios
básicos, así como sus aplicaciones en el área de interés de esta tesis. Se desarrolló una
descripción detallada del algoritmo de entrenamiento de Retropropagación, ya que este es
el que se propone para llevar a cabo el análisis de grietas en placas. En la Sección de
Estudios de Posgrado e Investigación de la ESIME-IPN, ya se ha trabajado con el uso
Redes Neuronales Artificiales aplicadas a otros problemas de Ingeniería Mecánica y con
este análisis, se pretende contribuir con técnicas para el análisis mediante las RNA’s, en
específico se trata el caso de inicio de propagación de grietas en placas agrietadas sujetas al
modo de carga I. Con lo anterior, también se plantean las bases teóricas del algoritmo de
Retropropagación cuyas ecuaciones serán utilizadas para el análisis mediante la
implementación y comparación de los seis distintos algoritmos antes mencionados.
1.12. Referencias.
Castillo, E., Cobo, A., Gutiérrez, J. (1999). Introducción a las redes funcionales con
aplicaciones. Un nuevo paradigma neuronal. Paraninfo, Madrid España.
Gori, M. (2003). Introduzione alle Reti Neuronali Artificiali. Mondo digitale. Número 4.
Martínez, L. A., Goddart, C. J. (2001). Definición de una Red Neuronal para clasificación
por medio de un programa evolutivo. Revista Mexicana de Ingeniería Biomédica. Vol.
XXII, Num. 1. Pp. 4-11.
Müller, B., Reinhardt, J. y Strickland, M.T. (1995). Physics of neural networks. Neural
Netwoks, an introduction. Second Edition. Springer.
Okuda, H., Miyazaki, H. y Yagawa, G. (1995). "Model of inelastic response using neural
networks." Transactions of the Japan Society of Mechanical Engineers. A 62(597):
1284-1290.
Parisi, A., Parisi, F. y Diaz, D. (2006). Modelos de algoritmos genéticos y redes neuronales
en la predicción de índices bursátiles Asiáticos. Cuadernos de economía Vol. 43.
Universidad de Chile. Pp. 251-284.
Pistolesi G, (1999). Il ritorno delle reti neuralli Parte I: La física della mente. Gennaio
1999, Byte Italia pp. 57-61
CAPÍTULO 2
Conceptos Teóricos de Mecánica de la Fractura.
2.1. La Mecánica de la Fractura.
Estas técnicas son utilizadas, ya que, en general, los factores de los cuales depende
el fenómeno de fractura son las dimensiones del defecto, el estado de tensión al cual está
sometido el elemento, las características del material, la geometría del elemento en la
vecindad del defecto y la temperatura, por mencionar los más relevantes. Alternativamente,
los métodos indirectos, como la utilización de RNA`s, son adecuados por cuestión de costo
y tiempo. Un aspecto de interés en Mecánica de la Fractura es el conocer el estudio de la
propagación de grietas y la detección de defectos en materiales, ya que estos son los
orígenes más comunes de la ruptura de materiales. Para estos estudios, una forma es
considerar los elementos o especímenes a analizar como continuos, con base en teorías
elásticas lineales y elastoplásticas, las cuales, permiten un criterio de análisis macroscópico.
pudieran ser más antiguos. Al revisar su trabajo, con base en los conocimientos actuales,
es claro que la resistencia del material no depende de su longitud. Da Vinci llegó a esta
conclusión ya que la cantidad de material sí está en función de su longitud, por lo que al
haber más material, aumenta la probabilidad de que se presente algún defecto en la cuerda y
esto provoque su fractura. (Urriolagoitia-Sosa, 1996).
Fig. 2.1. Esquema de los experimentos de Leonardo da Vinci sobre la resistencia de hilos o lianas.
Ejemplos previos sobre la ruptura de piedras para la creación de estatuas por parte
de los antiguos egipcios, dan cuenta de la observación de los fenómenos de fractura. En la
figura 2.2, se observan las trazas de las excavaciones llevadas a cabo en Egipto a fin de
debilitar las piedras provocando una tensión crítica y a su vez fracturando la piedra.
(Pluvinage, 2009).
Fig.2.3. Modo de ruptura bajo flexión en una viga. (Galileo, 1638. Pp.133)
En este momento, el interés por el análisis del fenómeno de fractura cobra gran
importancia y Weibüll (1939), desde un punto de vista estadístico, aplica los conocimientos
en torno a la fractura que ya se reportaban a la fecha. Por otra parte, Pierce (1926) realiza
estudios probabilísticos para evaluar la tensión en fibras. Posterior a esto, el gran impulso
en esta área fue durante la Segunda Guerra Mundial debido a los problemas de fractura en
algunos elementos de barcos y buques de ataque y mercantes. Debido a esto se realiza un
reporte en torno al funcionamiento de los barcos “Liberty”, lo cual, dio lugar al
entendimiento en torno a algunos fenómenos de falla repentinos.
a) b)
Estos barcos eran de origen británico, pero fueron adoptados por los
estadounidenses debido a su diseño económico y su rapidez. Posteriormente, se
modificaron y se adaptaron más al concepto estadounidense.
Rice (1968), realiza una aproximación energética para el análisis de grietas con base
en la integral “J” desarrollada previamente por Eshelby, (1951) para una singularidad en un
sólido, sin embargo, no pudo aplicarse cabalmente al análisis de grietas.
Elber, (1970,1971) demostró que las grietas por fatiga pueden permanecer cerradas
aun cuando están sujetas a cargas de tensión cíclicas. Pearson (1975) fue el primero en
registrar e identificar el problema de grieta corta, que afecta en cuestión de diseño a
componentes mecánicos largos. Al principio de la década de los ochenta, Ritchie (1980),
analiza las condiciones de fatiga en materiales y Surech, Zaminski y Ritchie (1981),
estudiaron el comportamiento de propagación de grietas bajo condiciones de fatiga,
categorizando los rasgos básicos de algunos tipos de agrietamientos cerrados.
El modo III o modo de desgarre, es un modo particular, ya que se aplican las cargas
paralelamente al frente de la grieta, pudiendo producirse desplazamiento y cizalladura de
los labios de la fisura. La peculiaridad del modo, se debe a que en el ámbito de la
Ingeniería, se presenta en pocas ocasiones en comparación del modo I.
Fig 2.6. Placa infinita con una discontinuidad elíptica en el centro de dimensiones 2aX2b.
En la figura 2.6, se observa una placa con una discontinuidad elíptica en su centro
de longitud 2a, la cual, es cargada en sus bordes. La anchura de la placa es superior a 2a y
el estado en la placa es de tensión bidimensional.
(2.2)
Ue, es la energía elástica almacenada y UA es la energía del sistema exterior que introduce
la fuerza, la cual, puede expresarse como el valor negativo del trabajo asociado con los
desplazamientos de los puntos de aplicación de la carga. El término US, es la energía que se
consume en la creación de las nuevas superficies de la grieta, por lo tanto:
(2.3)
Al crear nuevas superficies de grieta, la energía superficial del sistema aumenta, es decir:
En el criterio de Griffith, se considera una grieta bajo tensión uniforme como la que
se observa en la figura 2.7. Para el cálculo de la energía mecánica de este sistema, se puede
utilizar un resultado de la teoría de elasticidad lineal, a saber, que para cualquier cuerpo
bajo carga constante durante la formación de la grieta:
El término Ue, puede ser calculado a partir de las tensiones y las deformaciones
(2.8)
Donde ϒs, es la energía libre superficial por unidad de área. La energía total del sistema
por unidad de espesor de la placa es:
(2.10)
Fig. 2.7. Energía del sistema en condiciones de tensión uniforme. Datos de Griffith para el vidrio.
(Griffith, 1921).
(2.11)
El resultado para el caso de una grieta central que está bajo la deformación plana es
similar:
(2.12)
En el caso de una grieta elíptica como la de la figura 2.6, en una placa infinita
sometida a tensión perpendicular a la superficie de la grieta, la ecuación se resuelve de la
siguiente forma:
(2.13)
Puede decirse entonces, que el criterio de Griffith, es una condición necesaria para
los análisis de fractura y es adecuado si la punta de la grieta es un vértice donde se
interceptan las superficies de la grieta, así también, si las fisuras son ideales. Estas
condiciones no siempre se encuentran en los sólidos reales, ya que sus radios de la punta
de la grieta son finitos. (Anglada et al, 2002).
(2.14)
(2.15)
Esfuerzo plano
(2.17)
En una placa sometida a tensión:
σ= (2.18)
Este factor “K”, entrega una medida del nivel de esfuerzos en la vecindad de la
grieta en una condición de pequeña fluencia para una amplia variedad de geometrías. Su
expresión genérica está dada por la siguiente ecuación equivalente a la anterior, pero con
otra notación.
Este factor es aplicable a los ejemplos del modo I descritos en la tabla 2.1
Siendo:
Existe una amplia gama de métodos para determinar los factores K, los cuales se
pueden dividir en Analíticos, Numéricos, Experimentales. (Ortuzar, 1999). Por otra por otra
parte, (Gonzalez, 2004) describe los procedimientos para la determinación de K como los
siguientes: solución analítica, solución por métodos numéricos; Método Elemento Finito,
Integral de Límite, entre otros, métodos experimentales; tales como la flexibilidad, la
fotoelasticidad, la extensometría, entre otros, métodos indirectos; como la propagación de
grietas por fatiga, el método fractográfico, por mencionar algunos. Dentro de este campo
de posibilidades, se consideran las Redes Neuronales Artificiales y distintos métodos tanto
directos como indirectos, mencionados en el capítulo 1. Aspectos importantes a considerar
al elegir el modo de análisis son: la exactitud que proporciona el método para la resolución
del problema, determinada mediante el valor del error cuadrático medio, el tiempo de
cálculo, el consumo de recursos computacionales, en el caso de los análisis numéricos y la
complejidad en la resolución del problema, entre otros. Dependiendo el tipo de análisis
experimental que se pretenda, este puede ser destructivo o no destructivo, teniendo lo
anterior repercusiones, en costo y tiempo.
modo de carga del tipo I. Estos se muestran a continuación en la tabla 2.1, donde la figura 3
describe el caso de análisis de esta tesis. Las soluciones para K están dadas por:
Tabla 2.1. Funciones geométricas para el modo de carga I aplicado a distintas formas de grieta en placas
(Rice, 1972)
Numéricamente, este valor está en función del espesor del espécimen, por lo cual, si
éste es analizado bajo condiciones de deformación plana, no se considera una propiedad
mecánica. A esto se llama, Tenacidad a la Fractura en deformación plana o KIC.
w>2B (2.20)
La tabla 2.2, muestra los valores ideales para realizar la prueba y con base a esta determinar
KIC, válida para materiales de uso común.
Tabla 2.2. Valores de KIC, espesor y esfuerzo para algunos materiales (González, 2004).
En la tabla 2.2, se observan los valores propuestos para el acero de alta resistencia,
los cuales serán considerados para el análisis propuesto en el capítulo 3.
El Método del Elemento Finito (MEF) es una aproximación numérica de los problemas
continuos. En algunos casos, el tratamiento puramente matemático de los problemas
dificulta su análisis en tiempo y en complejidad, por ello, se recurre en ocasiones al uso de
este tipo de métodos. Otra razón es debido a que no todos los problemas tienen solución por
métodos convencionales.
El paquete computacional ANSYS, sigue esta filosofía. Está dotado con las
herramientas necesarias para hacer simulaciones y obtener resultados numéricos.
• Los resultados son solo aproximaciones que, dependiendo del número de nodos,
pueden tener un mayor o menor valor de error.
Para el análisis que se propone en esta tesis, existen una gran variedad de métodos
computacionales que pueden cubrir la necesidad de simulación.
2.7. Sumario.
En el siguiente capítulo se plantean una serie de casos de análisis. Los valores numéricos
obtenidos mediante el MEF con la ayuda del programa ANSYS 11.0, dotarán a la red
Neuronal Artificial de Retropropagación, propuesta para esta tesis, de los datos necesarios
para realizar el entrenamiento de la red, lográndose de esta forma la implementación RNA
de Retropropagación a través de 6 distintos tipos de algoritmos.
2.8. Referencias.
Coulomb, C. A. (1776). Remarque sur la ruptura du corps. Memoires presentes par divers
savans a lácademie. Vol 7.
Domínguez, V. M. (1992). Estado del Arte del Análisis Experimental de Esfuerzos como
Base para Algunas Aplicaciones del Método del Elemento Finito, H. SEPI – ESIME – IPN,
1992.
Elber, W. (1971). The significance of fatigue crack closure. In damage tolerance in aircraft
structures, Special technical publication 486, Philadelphia American Society for Testing
and Materials. Pp.230-42
Elber, W. (1970). Fatigue Crack closure under cyclic tension. Engineering Fracture
Mechanics 2. 37-45.
Galileo, G. (1638). “Discorsi e dimostrazioni sopra due nuove scienze attenenti alla
mecanica& i movimenti locali”, Leida, Elsevirii
Gonzalez, V. J. (2004). Mecánica de fractura. 2da. Edición. Ed. Limusa. Mexico. pP. 63-
78.
Inglis, C. E. (1913). Stress in plate due to presence of cracks and sharps corners.
Transaction of the institute of naval architects 55, Pp.219-41.
Irwin, G. R. (1957) Analysis of the stress and strain near the end of the crack traversing a
plate. Journal of applied mechanics. 24, 361-4.
Pearson, S. (1975). Initiation of fatigue cracks in comertial aluminium alloys and the
subsequent propagation of very short cracks. Engineering fracture mechanics 7,235-5.
Rice, J. R. (1972). Some remarks on elastics crack-tip stress fields, International Journal
of Solids and Structure, Vol. 8, pp 751-758.
Rice, J. R.(1972). Weight function theory for Three-dimensions elastic crack analysis,
International Journal of Solids and Structure, Vol. 8, pp 341-348.
Rice, J. R. (1968). A Path Independent Integral and the Approximate Analysis of Strain
Concentration by Notches and Cracks, J.Appl. Mech., Vol. 35, Pp. 379-386.
Ritchie, R. O., Surech S. y Moss C.M. (1980). Near-threshold fatigue crack growth in 2 ¼
Cr 1 Mo pressure vessel in air and hydrogen. Journal of Engineering Materials and
Technology 102, 293-318.
Timmins, P. F., (1994). Fracture Mechanics and Failure Control for Inspectors and
Engineers: General Engineering. Ed. ASM International, pp 5.
CAPÍTULO 3
Análisis y Descripción de los Casos de Estudio.
En la presente tesis, se realiza una evaluación numérica del Factor de Intensidad de
Esfuerzos por medio de Redes Neuronales Artificiales. Para llevar a cabo esto, se realiza el
entrenamiento de la RNA con una base de datos del cálculo de “K” en placas agrietadas
sujetas al modo de carga tipo I. El cálculo de los Factores de Intensidad de Esfuerzos se
hace por medio del Método del Elemento Finito, con el apoyo del paquete computacional
ANSYS. Sin embargo, antes de entrenar la red, es necesario validar los datos numéricos,
comparándolos con los resultados analíticos. Lo anterior es una breve descripción de la
metodología del apartado 1.10 del capítulo 1 de esta tesis. A continuación se presentan lo
correspondiente al cálculo analítico, numérico y la implementación numérica de la Red
Neuronal Artificial para los casos antes mencionados.
El desarrollo analítico se realiza para una placa sujeta al modo I de carga en donde existe
una grieta lateral. El espécimen a analizar es una placa metálica de un material con una
relación de Poisson “ν” de 0.27 y un módulo de elasticidad de “E” de 200 GPa, Este
corresponde al acero estructural (ASTM-A36), de alta resistencia-aleación baja (ASTM-
A709 grado 345, ASTM-A913 grado 450, ASTM-A992 grado 345), y aceros de refuerzo de
resistencia media y alta, (Beer, Johnston y De Wolf, 2001). En los casos anteriores, se
procede en la obtención de los valores del Factor de Intensidad de Esfuerzos K,
modificando los valores de las variables a, w, t y P (Tamaño de grieta, ancho del
Fig. 3.1. Grieta lateral sujeta al modo de carga I en una placa de espesor t.
Para este análisis, se considera una placa con las características de forma y
dimensiones tal como se muestran en la figura 3.1. Se varían los parámetros descritos, lo
cual, resulta en una base de datos con 380 Factores de Intensidad de Esfuerzos analíticos.
Para la obtención de los valores de K, y debido a que en este análisis resulta importante la
geometría del espécimen, se procede primeramente con el cálculo del factor geométrico
“α”:
2 3 4
a a a a
α = 1.12 − 0.23 + 10.55 − 21.71 + 30.38 (3.1)
w w w w
a a
2
a
3
a
4
p
K I = 1.12 − 0.23 + 10.55 − 21.71 + 30.38 πa (3.2)
w w w w wt
Donde:
P
σ =
wt (3.3)
En la figura 3.2, se muestran las características del espécimen de estudio con una
carga uniforme en los extremos “P”, de espesor “t” y cuyas dimensiones se varían para el
caso de estudio que se plantea.
Para el caso en el que se varía el valor de “w”, los valores están comprendidos entre
100mm y 200mm. Para “t” desde 1mm hasta 100mm y finalmente para el caso de P entre
10 y 20 MPa. De acuerdo a las consideraciones en la sección 2.5, referentes a la Tenacidad
de Fractura, y descritas por (González, 2004) para la obtención del coeficiente KIC, se hace
referencia a que no solo es necesario contar con espesor en el espécimen de estudio para un
análisis en condiciones de deformación plana. La pregunta giraría en torno a saber desde
que valor de espesor se consideraría un análisis en deformación plana, en vez de uno en
esfuerzo plano. Lo anterior se resuelve con las ecuaciones 2. 19, 2.20 y 2.21, dadas por
norma y utilizadas para la determinación de KIC mediante pruebas en condiciones de
deformación plana.
Posteriormente, con los resultados obtenidos del cálculo analítico se forma una base
de datos con 380 diferentes valores de K.
60
Factor de Intensidad de Esfuerzos "K"
50
40
(MPa√m)
30
K analítico
20
K numérico
10
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33
Tamaño de grieta "a"
(mm)
25
15
(MPa√m)
10 K analítico
K numérico
5
0
1
8
15
22
29
36
43
50
57
64
71
78
85
92
99
Ancho del especimen "w"
(mm)
En este caso, se consideró un espesor delgado, por lo cual, el análisis de los datos,
variando el ancho del espécimen se consideran de esfuerzo plano. Si bien, los valores del
Factor de Intensidad de Esfuerzos podrían presentar otra tendencia al variar el ancho “w”,
si se modificara las variables a, t o P, el comportamiento descrito en la figura 3.4 , obedece
a una reducción de la magnitud de K en función del incremento de w.
25
15
(MPa√m)
10 K analítico
K numérico
5
0
1
8
15
22
29
36
43
50
57
64
71
78
85
92
99
Espesor "t"
(mm)
50
Factor de Intensidad de
40
Esfuersos "K"
30
(MPa√m)
20
K analítico
10
K numérico
0
11
16
21
26
31
36
41
46
51
56
61
66
71
76
81
86
91
96
101
1
6
Esfuerzo"P"
(MPa)
El análisis de las últimas cuatro gráficas, muestra la relación que existe entre los
parámetros mencionados con el Factor de Intensidad de Esfuerzos. En el caso del tamaño
de la grieta, la gráfica es parabólica como era de esperarse, y en los demás casos hay datos
tanto lineales como no lineales. Esto es importante, porque se muestra el grado de impacto
que tendrán que hacer los análisis con Redes Neuronales. De aquí la importancia de este
análisis.
Fig. 3.7. Tipo de elemento PLANE185 utilizado para el análisis (Tutorial ANSYS).
un diseño del espécimen completo, sin definir las condiciones de simetría, sin embargo,
esto repercutiría en el tiempo de cálculo que el programa de cómputo toma para
proporcionar los valores de K, así como del consumo de recursos computacionales.
Fig. 3.9. Cálculo de K por medio del MEF para el caso de variación del tamaño de grieta.
datos de 0.221MPa m .
a w t P K analítico K numérico
(cm) (cm) (cm) (MPa) (MPa√m) (MPa√m) Error
0.3 10 0.1 10 10.89284599 10.382 0.510845989
0.4 10 0.1 10 12.62656922 12.042 0.584569224
0.5 10 0.1 10 14.19191673 13.479 0.712916735
5 10 0.1 10 112.0630793 113.27 1.206920653
5.1 10 0.1 10 116.9675735 118.6 1.632426503
5.2 10 0.1 10 122.1351814 124.26 2.124818647
6.9 10 0.1 10 267.1760733 317.02 49.8439267
7 10 0.1 10 280.2526068 339.33 59.07739319
7.1 10 0.1 10 293.9867993 363.99 70.00320065
Tabla. 3.2. Cálculo del error analítico y numérico, para el caso de la variación del tamaño de grieta.
constantes las demás variables. Se observa que a partir del 5.2 cm en adelante, el error se
incrementa, siendo con un espesor de 6.9, de 49.84 con relación al cálculo analítico.
Fig. 3.10. Campo de esfuerzos en una placa con una grieta de 5mm.
Fig. 3.11. Cálculo de K por medio del MEF variando el ancho del espécimen.
a w t P K analítico K numérico
(cm) (cm) (cm) (MPa) (MPa√m) (MPa√m) Error
1 10.3 0.1 10 20.30484017 19.352 0.952840165
1 10.4 0.1 10 20.08875471 19.47 0.618754712
1 10.5 0.1 10 19.87734921 18.946 0.931349208
1 14 0.1 10 14.56294887 13.893 0.669948868
1 14.1 0.1 10 14.45338871 13.789 0.664388712
1 14.2 0.1 10 14.34550239 13.686 0.659502388
1 19.8 0.1 10 10.13964634 9.6739 0.465746338
1 19.9 0.1 10 10.08714893 9.6238 0.463348928
1 20 0.1 10 10.03520056 9.5742 0.461000561
Tabla. 3.3. Cálculo del error analítico y numérico, para el caso de la variación del ancho del espécimen.
En la tabla 3.3, se muestra el error para algunos valores de “K” variando en ancho
del espécimen. El error entre el cálculo analítico y numérico, incrementa en función de la
disminución de “w”, sin embargo no es tan grande como en el caso del análisis con
incrementos en la grieta. En la evaluación numérica, esto puede deberse a la disminución
del valor de “K”, por lo cual, la tendencia en el comportamiento del espécimen es
mayormente elástico, ajustándose a las propiedades del modelado de linealidad, elasticidad,
a w t P K analítico K numérico
(cm) (cm) (cm) (MPa) (MPa√m) (MPa√m) Error
1 10 0.1 10 20.98280498 19.844 1.138804975
1 10 0.2 10 10.49140249 9.9977 0.493702488
1 10 0.3 10 6.994268325 6.6652 0.329068325
1 10 4.8 10 0.43714177 0.41657 0.02057177
1 10 4.9 10 0.42822051 0.40807 0.02015051
1 10 5 10 0.4196561 0.39991 0.0197461
1 10 9.8 10 0.214110255 0.20404 0.010070255
1 10 9.9 10 0.211947525 0.20197 0.009977525
1 10 10 10 0.20982805 0.19995 0.00987805
Tabla. 3.4. Cálculo del error analítico y numérico, para el caso de la variación del espesor.
En la tabla 3.4, se muestra el cálculo del error para algunos valores de “K”, al
modificar el espesor. El tamaño de grieta, ancho del espécimen y la carga se mantienen
constantes. Se observa un incremento en el error, cuando los valores de K son mayores.
Esto debido a las condiciones del análisis numérico.
En la figura 3.15, se observan los resultados obtenidos por medio del cálculo
a w t P K analítico K numérico
(cm) (cm) (cm) (MPa) (MPa√m) (MPa√m) Error
1 10 0.1 10.2 21.40246107 20.395 1.007461075
1 10 0.1 10.3 21.61228912 20.595 1.017289125
1 10 0.1 10.4 21.82211717 20.795 1.027117174
1 10 0.1 14.8 31.05455136 29.593 1.461551364
1 10 0.1 14.9 31.26437941 29.793 1.471379413
1 10 0.1 15 31.47420746 29.993 1.481207463
1 10 0.1 19.8 41.54595385 39.791 1.754953851
1 10 0.1 19.9 41.7557819 39.991 1.764781901
1 10 0.1 20 41.96560995 40.191 1.774609951
Tabla. 3.5. Cálculo del error analítico y numérico, para el caso de la variación del esfuerzo.
Para el diseño de la Red Neuronal propuesta, las variables que se establecen como datos de
entrada son a, w t y P, que respectivamente son el tamaño de grieta, el ancho del
espécimen, el espesor y el esfuerzo aplicado a este. La base de datos del entrenamiento fue
obtenida mediante los cálculos por medio del Método del Elemento Finito, con los cuales
se entrenaron 6 Redes Neuronales Artificiales con diferentes algoritmos, cuyos resultados,
se comparan en el capítulo 4 de resultados.
Datos de entrenamiento. La Red Neuronal se entrenó con 380 datos del cálculo de
“K”, los cuales formaron el conjunto de salidas y 380 datos del conjunto de entradas
correspondientes a las variables a, w, t, P, de los cuales el 70 % forman parte del conjunto
de entrenamiento, el 15% son para el conjunto de validación y el 15% restante son parte del
conjunto de prueba en todos los casos de programación.
Valor del mínimo gradiente. Se propone 1.0 e-6 en los casos a evaluar.
Levenberg-Marquardt trainlm LM
BFGS Quasi-Newton trainbfg BFG
Resilient Backpropagation trainrp RP
Scaled Conjugate Gradient trainscg SCG
Fletcher-reves Conjugate Gradient Traincgf CGF
One Step Secant Trainoss OSS
p=ent';
t=sal';
net=newff(p,t,25);
net.trainParam.min_grad=1e-6;
net.trainParam.max_fail=100;
net = newff(p,t,3,{},'trainbfg');
net.trainParam.epochs=2000;
net = newff(p,t,20,{},'trainrp');
net.trainParam.epochs=2000;
net = newff(p,t,10,{},'trainscg');
net.trainParam.epochs=2000;
net = newff(p,t,10,{},'traincgf');
net.trainParam.epochs=2000;
net = newff(p,t,20,{},'trainoss');
net.trainParam.epochs=2000;
[net,tr] = train(net,p,t);
y= sim(net,p);
Finalmente, por medio del comando nntraintool, se despliega una ventana, la cual
posterior al entrenamiento, permite desplegar las gráficas correspondientes a este, a fin de
analizar los resultados.
Es importante mencionar que los datos obtenidos mediante una RNA, pueden diferir
entre entrenamientos, incluso manteniendo las mismas condiciones.
Tabla 3.7. Arquitecturas de las redes con relación a los diferentes algoritmos y parámetros de entrenamiento
considerados.
3.5. Sumario.
En este capítulo se describieron los casos de estudio analítico, numérico y por medio de
Redes Neuronales Artificiales. Se describió el procedimiento en cada uno de los casos a fin
de entender cómo es que se desarrollaron los cálculos. Esto forma la base del análisis
propuesto.
3.6 Referencias.
González, V. J. (2004). Mecánica de fractura. 2da. Edición. Ed. Limusa. México. pp. 63-
78.
CAPÍTULO 4
Análisis de Resultados.
En este capítulo se describen los resultados y la comparación de los alcances de las Redes
Neuronales, para las condiciones y parámetros descritos en el capítulo 3. Así mismo, se
cotejan los datos obtenidos mediante el entrenamiento de la RNA que arrojó menor error y
los obtenidos por medio del el Método del Elemento Finito contra los datos analíticos.
Finalmente se describen los resultados de la determinación de las condiciones de inicio de
propagación de grietas, a través del empleo de Algoritmos Genéticos, dando de esta forma
una propuesta complementaria para el caso descrito en el planteamiento del problema de la
sección 1.10 de este trabajo de tesis.
En esta sección se analizan los resultados obtenidos mediante el entrenamiento de una red
de Retropropagación, con 6 distintos algoritmos de entrenamiento. Los resultados se
comparan y se determina el mejor para entrenar la red, en el caso del cálculo de una grieta
lateral en una placa metálica descrita en el capítulo 3 en la figura 3.2. La tabla 3.6 en dicho
capítulo, muestra los algoritmos que se utilizaron.
Cabe señalar, que las características del equipo de computo utilizado para la
obtención de estos resultados son: Procesador AMD Turion 64 x2 a 1.9 GHz de velocidad,
2GB de memoria RAM, sistema Windows vista a 32 bits con Matlab 2008. Las
características del equipo, se ven reflejadas principalmente en el tiempo de cálculo y en la
precisión de las operaciones.
Este es uno de los métodos más utilizados por su rapidez de cálculo y eficiencia, por lo
cual, se realizó un entrenamiento con 2000 épocas y 25 neuronas en la capa oculta, en el
cual se observa la condición de convergencia, mucho antes de cumplirse las 2000 épocas.
En las figura 4.1, también se observa el tiempo que tardó la red en llevar a cabo el
cálculo. Este fue de 51 segundos, así también se representa el error cuadrático medio o
“Mean Squared Error”, por sus siglas en inglés. En la figura 4.2, se observa convergencia a
las 226 épocas, así mismo el error cuadrático medio es de 0.0979. Con relación a los demás
algoritmos de entrenamiento, el error es el menor en este caso.
Fig. 4.3. Estado del entrenamiento de la RNA Levenberg-Marquardt con 2000 épocas.
En este caso, el entrenamiento fue con 3 neuronas en la capa oculta. Esto debido a que este
algoritmo requiere de un tiempo mayor de cálculo en comparación al caso anterior, y un
parámetro que incrementa aún más el tiempo, es el número de neuronas en las capas
ocultas. Así mismo, el número de épocas para este caso fue de 2000. Aunque este algoritmo
consume menor cantidad de recursos de cómputo, generalmente converge más rápidamente,
no resultando así en este caso de estudio.
Se entrenó con 2000 épocas, 20 neuronas en la capa oculta y de acuerdo a la tabla 3.6 que
muestra la arquitectura de la red. Este algoritmo trabaja más rápidamente que el anterior,
convergiendo en un menor número de épocas tal como lo muestra la figura 4.7. En la figura
4.8, se nota que el error sigue siendo demasiado grande, con relación al objetivo, sin
embargo el mejor entrenamiento logrado se dió a las 167 épocas con un error cuadrático
medio de 66.087, siendo a las 267 cuando el programa detiene la red. Por el valor del error,
queda muy lejos del objetivo, sin embargo, el entrenamiento de la Red Neuronal es
detenido en esa época, debido a que es el valor de convergencia en donde se obtienen los
mejores resultados para este tipo de red. La figura 4.7, muestra las condiciones de
entrenamiento, así como el tiempo que tardó en realizar los cálculos la RNA.
La figura 4.8, muestra la condición de convergencia a las 167 épocas, con un error
cuadrático medio de 66.087. Se observan diversas fluctuaciones en los valores de prueba de
la red, por lo cual esta se detiene mucho antes de las 200 épocas. Esto da pauta para
considerar poco viable este algoritmo en el entrenamiento de la RNA para el caso de
análisis.
En la tabla 4.1, se nota claramente que el algoritmo más rápido en cuanto a cálculo
fue el de Retropropacgacion Elástico o “Backpropagation Resilient” por sus siglas en
inglés, sin embargo su desempeño con un error cuadrático medio de 66.087 no fue el
óptimo para el caso de estudio. El algoritmo Levenberg-Marquard se aprecia con el menor
error cuadrático medio de 0.979, seguido del algoritmo de la Secante de un Paso con 0.772,
sin embargo, este último fue uno de los más tardados en cuanto a tiempo de cálculo.
Es importante señalar que el tiempo de cálculo y el valor del error cuadrático medio,
son los dos criterios que se toman en cuenta para determinar cuál de los seis algoritmos es
el que proporciona el mejor entrenamiento.
500
450
400
350
300
Tiempo
250
200
150
100
50
0
Típo de algorítmo
120
Error cuadráticoMedio
100
80
60
40
20
0
Tipo de Algoritmo
Para este análisis se entrenó una red Levenberg-Marquardt, ya que es la que se observó en
la sección anterior que presenta el menor error con relación a las demás algoritmos
probados, seguida por el método de la secante que también mostro un buen desempeño. El
entrenamiento de esta red se realizó con datos ordenados aleatoriamente, esta vez, del
cálculo analítico, los cuales, se compara con los obtenidos mediante el cálculo por medio
del método del elemento finito empleando el paquete computo ANSYS 11.0. Lo anterior se
hace, para evaluar los alcances de la implementación de RNA’s, a la resolución del
problema planteado en la sección 1.10.
Al comparar los datos de las figuras anteriores, observamos que el error, en el mejor
entrenamiento es de .0030906 a las 526 épocas, con un tiempo de cálculo de 28 segundos.
En comparación de Ansys, el error medio es de 6.6540. Considerando que las redes
neuronales tienen el potencial para trabajar con datos lineales y no lineales, las coloca en
ventaja de otros métodos para este tipo de análisis, aunado al hecho de que por las
características inherentes al diseño de una RNA, es capaz de proporcionar resultados, aun si
hay datos faltantes.
Para lograr lo anterior, se diseñó una función objetivo. Primero se declaran las 4
variables que definen el Factor de Intensidad de Esfuerzos, las cuales son a, w, t y P. Se
proponen como restricciones, los rangos que se pudieran ocupar dichas variables y que se
establecieron en la tabla 3.1. Posteriormente se introduce la condición de optimización con
base al valor del cálculo del error cuadrático medio obtenido de un entrenamiento previo
mediante Redes Neuronales Artificiales, utilizando del algoritmo Levenberg-Marquardt.
Con el error, se optimizó cada valor del Factor de Intensidad de Esfuerzos, a fin de obtener
los valores más adecuados de los parámetros a, w, t, P, creando un intervalo a través de la
función “Kd”, en el cual, el Algoritmo Genético, busca los mejores valores que cumplan las
condiciones.
% Se asignan los posibles valores que tendrán las variables para obtener
el valor de factor de intensidad de esfuerzos
a=x(:,1);
w=x(:,2);
t=x(:,3);
p=x(:,4);
k1=(1.12-0.23*(a./w)+10.55*(a./w).^2-
21.71*(a./w).^3+30.38*(a./w).^4).*(p./(w.*t)).*sqrt(pi*a) % factor de
intensidad de esfuerzos
Condiciones Valores
Población vector doble
Idoneidad Proporcional
Selección Ruleta
Reproducción 2
Mutación Uniforme
Cruce 2 puntos
Migración hacia adelante
criterio de paro 200
Cabe destacar, que al igual que en las Redes Neuronales, los parámetros que
definen los Algoritmos Genéticos, constituyen un proceso heurístico, por lo cual, no hay
una metodología concreta para determinarlos.
En la tabla siguiente, se muestra la comparación del error del cálculo del Factor de
intensidad de Esfuerzos por cada valor de K de algunos datos aleatorios, entre los datos de
entrenamiento, es decir los calculados por medio del Método del Elemento Finito, los
resultados obtenidos mediante la utilización del algoritmo Levenberg–Marquardt y a través
de la optimización por medio de Algoritmos Genéticos.
Algoritmos
genéticos 0.2988 10.8108 0.1123 10.8664 10.8928 0.00025
Tabla 4.3. Comparación entre datos de origen y cálculo inverso por medio de Algoritmos Genéticos.
12
11
10
9
Magnitud del Parámetro
8
7
6
5 Datos de origen
4
Algoritmos Genéticos
3
2
1
0
a (cm) w (cm) t (cm) P (MPa) K
(MPa√m)
Parámetros
Fig. 4.22. Comparación de los valores de los parámetros de origen y los calculados mediante
Algoritmos Genéticos.
Algoritmos
Genéticos 3.2863 10.9126 0.5318 10.5502 57.090 .000094
Tabla 4.4. Comparación entre datos de origen y cálculo por medio de Algoritmos Genéticos.
En la tabla 4.4, se observan los resultados obtenidos del análisis inverso. Se aprecia
que aunque el programa calcula un error de 0.000094, existe una variación considerable en
el tamaño valor del tamaño de la grieta, con una diferencia de 0.4318. Cabe destacar que al
igual que las RNA’s, los resultados, pueden variar, en este caso, cada vez que se repite el
procedimiento, aún si la base de datos y la configuración es la misma.
60
50
Magnitud del Parámetro
40
30
Datos de origen
20 Algoritmos Genéticos
10
0
a (cm) w (cm) t (cm) P (MPa) K
(MPa√m)
Parámetros
Fig. 4.23. Comparación de los valores de los parámetros de origen y los calculados mediante
Algoritmos Genéticos.
4.5. Sumario.
4.6. Referencias.
Discusiones
justifica el interés de proponer análisis por medio de este método, aunado a las
características descritas anteriormente.
Para el problema que se plantea en este trabajo de tesis, se formo una base de datos
con diferentes valores del Factor de Intensidad de Esfuerzos. Estos se obtuvieron de
acuerdo a diferentes condiciones de inicio de propagación de grietas determinadas por los
paramentos a, w, t y P y se verificaron analíticamente. Esto es necesario para validar la base
de datos. También se considero un orden en la variación de los parámetros. Lo anterior con
la finalidad de no repetirlos y acumular información innecesaria para el entrenamiento de la
red, lo cual consumiría recursos superfluos.
los 6 algoritmos que se validaron. Las condiciones de inicio de propagación de una grieta
de este valor son: un tamaño de grieta de 10mm, un ancho del espécimen de 100mm, un
espesor de 59mm y una carga de 10MPa. El entrenamiento se realizó con los datos
obtenidos mediante el cálculo por medio del MEF, por lo tanto, los algoritmos con mejores
resultados, son aquellos cuyo valor de K tiene menor error con relación a dichos datos. Se
observa en la figura, que el algoritmo BFGS Quasi-Newton así como el Resilient
BAckpropagation o de Retropropagación elastica por su traducción al español, son los que
proporcionan mayor error, ya que el valor del Factor de Intensidad de Esfuerzos por medio
de esos algoritmos, diverge mucho del valor obtenido por medio del MEF, de cuyo calculo,
se determino la base de datos de entrenamiento.
12
10
MEF
8
Analítico
Factor de 6 BFGS Quasi-Newton
Intensidad de Fletcher-Reeves
Esfuerzos 4 Levenberg-Marquardt
One Step Secant
2
Resilient Backpropagation
0 Scaled Conjugate Gradient
-2
Valor de K
Métodos
Fig. d.1. Cálculo del Factor de Intensidad de Esfuerzos por diversos métodos.
En la tabla d.1, se observan los valores de K y se nota que con un valor de 0.3434 y 0.3603,
los algoritmos Levenberg-Marquardt y Sacaled Conjugated Gradient, son los que muestran
menor diferencia con relación al valor de entrenamiento de 0.3389, proporcionado por el
cálculo por medio del MEF.
Métodos Valor de K
MEF 0.33891
Analítico 0.35564
BFGS Quasi-Newton 5.3371
Fletcher-Reeves -0.7872
Levenberg-Marquardt 0.3434
One Step Secant -0.1192
Resilient Backpropagation 11.8323
Scaled Conjugate Gradient 0.3603
Tabla d.1. Valor del Factor de Intensidad de Esfuerzos obtenido por diferentes métodos.
1.6
1.4
BFGS Quasi-Newton
1.2
Fletcher-Reeves
Error Promedio
1
Levenberg-Marquardt
0.8
One Step Secant
0.6
Resilient Backpropagation
0
Algoritmos
Fig. d.2. Valor del error promedio calculado para diferentes algoritmos.
En la figura d.2, se observa el error medio deferentes algoritmos, confirmando que los
algoritmos cuyos resaltados son más exactos son: Levenberg-Marquard, One Step Secant o
de Secante de un Paso y Fletcher–Reeves con un error de 0.0103, 0.0648 y 0.0864
respectivamente.
25
BFGS Quasi-Newton
20
Fletcher-Reeves
Desviación Estándar
15 Levenberg-Marquardt
5 Scaled Conjugated
Gradient
0
1
Algoritmos
En la figura d.3, se muestran los valores de la desviación estándar, lo cual, refleja que los
algoritmos BFGS Qauasi-Newton y Resilient Backpropagation, son los que muestran
mayor dispersión del error con relación a la media, con una desviación estándar de 20.098 y
11.555 respectivamente. Por el contrario los algoritmos Levenberg-Marquardt y One Step
Secant tienen valores de desviación estándar más bajos con 0.313 para el primero y 1.958
para el segundo. Esto muestra que al haber menor grado de dispersión en el error de los
datos, hay mayor precisión de cálculo del Factor de Intensidad de Esfuerzos, por lo cual, el
algoritmo Levenberg-Marquard, seguido del One Step Secant, son los que generan los
mejores resultados.
14
12
Factor de Intensidad de Esfuerzos
10
8
Levenberg-Marquardt
MEF
6
0
1 2 3 4 5 6 7 8 9 10
Datos aleatorios
Fig. d.4. Comparación del Factor de Intensidad de Esfuerzos para 10 valores aleatorios.
debido a que las posibilidades de configuración son grandes, lo cual, también genera un
problema al determinar los mejores parámetros al programar el Algoritmo Genético.
Conclusiones
El análisis por medio de redes neuronales por medio del método de Levenberg-
Marquardt, proporcionó los mejores resultados en el entrenamiento de la red para el análisis
de grietas en placas propuesto en esta tesis.
El cálculo de los Factores de Intensidad de Esfuerzos por medio del método del
elemento finito, con la ayuda de ANSYS para formar la base de datos, fue muy grande en
comparación con el tiempo que toma el entrenamiento de una red neuronal.
Los Algoritmos Genéticos son útiles para optimizar los datos obtenidos del
entrenamiento de una red neuronal, así también para realizar análisis inversos de alta
precisión. En este trabajo de tesis, se determinaron las condiciones de inicio de propagación
de una grieta, partiendo del valor del Factor de Intensidad de Esfuerzos y posibles
restricciones de los parámetros que lo definen.
Se concluye que para un óptimo entrenamiento de una Red Neuronal para el análisis
de grietas en placas, es necesario identificar y definir las características más apropiadas de
la arquitectura, a fin de reducir el error cuadrático medio y tiempo de cálculo, de la misma
forma se encontró que, mediante todos los algoritmos de redes probados, el tiempo fue
menor con respecto al análisis por medio del Método de Elemento Finito, sin embargo, no
en todos los casos el error cuadrático medio era adecuado por la divergencia con relación a
los datos de entrenamiento. También se obtuvieron resultados congruentes con los datos de
origen, al realizar el análisis por medio de Algoritmos Genéticos, lo cual complementa este
análisis y lo dota de ser una buena alternativa para la resolución de problemas no lineales.
Anexos
Anexo1
Código para el cálculo de los Factores de Intensidad de Esfuerzos por medio del
Método del Elemento Finito.
Las siguientes líneas de comandos, describen la programación para la determinación del Factor de
Intensidad de Esfuerzos por medio del Método del Elemento Finito, por medio del programa de
computo Ansys 11.0.
!*DEFINICION DE LA GEOMETRIA A, H, W, P, T, E, NU
a=5.5
h=20
w=h/2
P=10
t=1/10
E=200e3
nu=0.27
/PREP7
ET,1,PLANE183
KEYOPT,1,1,0
KEYOPT,1,3,3
KEYOPT,1,6,0
KEYOPT,1,10,0
R,1,t,
KEYOPT,1,3,2
KEYOPT,1,5,0
KEYOPT,1,6,0
MPTEMP,,,,,,,,
MPTEMP,1,0
MPDATA,EX,1,,E
MPDATA,PRXY,1,,0.27
K,1,,
K,2,a,
K,3,w,
K,4,w,h/2
K,5,,h/2
L,1,2
L,2,3
L,3,4
L,4,5
L,5,1
LESIZE,3, , ,51, , , , ,1
LESIZE,4, , ,51, , , , ,1
LESIZE,5, , ,63,.2, , , ,1
LESIZE,1, , ,25,4, , , ,1
LESIZE,2, , ,34,.2, , , ,1
KSCON,2,a/16,1,16, ,
!* PROPIEDADES DE SIMETRIASIMETRIA
Al,all
DL,2,1,SYMM
SFL,4,PRES,-(P/(w*t)),
AMESH,1
/SOLU
solve
FINISH
/POST1
PPATH,1,2,
PPATH,2,48,
PPATH,3,1,
PATH,STAT
KCALC,0,1,0,0
Anexo 2.
En las siguientes tablas, se plasman los resultados del cálculo analítico del Factor de
Intensidad de Esfuerzos, en donde “a” es el tamaño de la grieta, “W” es el ancho del
espécimen, “P” es la carga aplicada y “K” es el Factor de Intensidad de Esfuerzos.
1 12 0.1 10 17.178012
1 10 0.1 10 20.982805
1 11 0.1 10 18.8854143
1 14 0.1 10 14.5629489
1 19 0.1 10 10.5804958
1 13 0.1 10 15.7600565
1 20 0.1 10 10.0352006
1 15 0.1 10 13.538275
1 16 0.1 10 12.6508806
1 17 0.1 10 11.8746133
1 18 0.1 10 11.1896074
3 10 0.1 10 50.9741956
2 10 0.1 10 34.3640689
1 10 0.1 10 20.982805
10 10 0.1 10 1127.16373
5 10 0.1 10 112.063079
4 10 0.1 10 74.5950674
6 10 0.1 10 174.875089
8 10 0.1 10 452.001627
7 10 0.1 10 280.252607
9 10 0.1 10 721.259045
1 10 9.5 10 0.22087163
1 10 9.2 10 0.22807397
1 10 9.4 10 0.22322133
1 10 9.1 10 0.23058027
1 10 9.3 10 0.22562156
1 10 4.5 10 0.46628456
1 10 4.6 10 0.45614793
1 10 4.7 10 0.44644266
1 10 5.2 10 0.40351548
1 10 5.3 10 0.39590198
1 10 5.4 10 0.38857046
1 10 9.8 10 0.21411025
1 10 10 10 0.20982805
1 10 9.7 10 0.21631758
1 10 5.5 10 0.38150555
1 10 9.6 10 0.21857089
1 10 5.6 10 0.37469295
1 10 5.8 10 0.3617725
1 10 5.7 10 0.36811939
1 10 9.9 10 0.21194753
1 10 9 10 0.23314228
1 10 5.1 10 0.41142755
1 10 5 10 0.4196561
1 10 4.9 10 0.42822051
1 10 4.4 10 0.47688193
1 10 4.8 10 0.43714177
1 10 3.9 10 0.53802064
1 10 3.7 10 0.56710284
1 10 3.8 10 0.55217908
1 10 4.2 10 0.49959059
1 10 4.1 10 0.51177573
1 10 3.6 10 0.58285569
1 10 4 10 0.52457012
1 10 4.3 10 0.48797221
1 10 3.5 10 0.59950871
1 10 3 10 0.69942683
1 10 3.4 10 0.61714132
1 10 2.9 10 0.723545
1 10 2.7 10 0.77714093
1 10 2.8 10 0.74938589
1 10 3.1 10 0.67686468
1 10 3.2 10 0.65571266
1 10 7.7 10 0.27250396
1 10 3.3 10 0.63584258
1 10 7.6 10 0.27608954
1 10 7.8 10 0.26901032
1 10 8 10 0.26228506
1 10 7.9 10 0.26560513
1 10 8.1 10 0.25904698
1 10 2.4 10 0.87428354
1 10 2.6 10 0.80703096
1 10 2 10 1.04914025
1 10 2.5 10 0.8393122
1 10 2.1 10 0.99918119
1 10 2.2 10 0.95376386
1 10 2.3 10 0.91229587
1 10 8.9 10 0.23576185
1 10 8.4 10 0.2497953
1 10 8.2 10 0.25588787
1 10 8.5 10 0.24685653
1 10 8.3 10 0.25280488
1 10 8.6 10 0.2439861
1 10 1.5 10 1.39885367
1 10 8.7 10 0.24118167
1 10 1.6 10 1.31142531
1 10 8.8 10 0.23844097
1 10 1.4 10 1.49877178
1 10 1.3 10 1.61406192
1 10 1.2 10 1.74856708
1 10 1.1 10 1.90752773
1 10 1.7 10 1.23428265
1 10 1.8 10 1.16571139
1 10 1.9 10 1.10435816
1 10 7 10 0.29975436
1 10 7.1 10 0.29553246
1 10 7.2 10 0.29142785
1 10 7.3 10 0.28743568
1 10 1 10 2.0982805
1 10 0.9 10 2.33142278
1 10 0.8 10 2.62285062
1 10 0.7 10 2.99754357
1 10 0.3 10 6.99426833
1 10 0.2 10 10.4914025
1 10 0.1 10 20.982805
1 10 6.9 10 0.30409862
1 10 6.8 10 0.30857066
1 10 6.7 10 0.31317619
1 10 6.6 10 0.31792129
1 10 6.5 10 0.32281238
1 10 0.6 10 3.49713416
1 10 0.5 10 4.196561
1 10 0.4 10 5.24570124
1 10 6.4 10 0.32785633
1 10 6.3 10 0.3330604
1 10 6.2 10 0.33843234
1 10 6.1 10 0.34398041
1 10 6 10 0.34971342
1 10 7.4 10 0.28355142
1 10 7.5 10 0.27977073
1 10 5.9 10 0.35564076
1 10 0.1 15 31.4742075
1 10 0.1 20 41.96561
1 10 0.1 14 29.375927
1 10 0.1 16 33.572488
1 10 0.1 10 20.982805
1 10 0.1 17 35.6707685
1 10 0.1 13 27.2776465
1 10 0.1 18 37.769049
Anexo 3.
En las siguientes tablas, se muestran los resultados del cálculo del Factor de Intensidad de
Esfuerzos, mediante el método numérico, con el apoyo del paquete computacional Ansys
11.0. Los parámetros que se muestran son: “a” que es el tamaño de la grieta, “W”, el ancho
del espécimen, “t” es el espesor, “P” es la carga y “K” es el Factor de Intensidad de
Esfuerzos.
1 10 9.4 10 0.21272
1 10 9.3 10 0.21501
1 10 9.2 10 0.21734
1 10 9.1 10 0.21973
1 10 0.8 10 2.4994
1 10 0.7 10 2.8565
1 10 9 10 0.22217
1 10 3.1 10 0.64502
1 10 8.3 10 0.24091
1 10 8.4 10 0.23804
1 10 8.5 10 0.23524
1 10 3.2 10 0.62486
1 10 7.8 10 0.25635
1 10 7.9 10 0.25311
1 10 8 10 0.24994
1 10 8.6 10 0.23251
1 10 8.7 10 0.22983
1 10 3.3 10 0.60592
1 10 3.4 10 0.5881
1 10 3.5 10 0.5713
1 10 8.1 10 0.24686
1 10 7.7 10 0.25968
1 10 4.2 10 0.47608
1 10 8.2 10 0.24385
1 10 8.8 10 0.22722
1 10 8.9 10 0.22467
1 10 3 10 0.66652
1 10 2.9 10 0.6895
1 10 2.8 10 0.71412
1 10 1.8 10 1.1109
1 10 10 10 0.19995
1 10 9.9 10 0.20197
1 10 9.8 10 0.20404
1 10 7.6 10 0.2631
1 10 7.5 10 0.26661
1 10 7.4 10 0.27021
1 10 6.7 10 0.29844
1 10 6.8 10 0.29405
1 10 6.9 10 0.28979
1 10 7 10 0.28565
1 10 7.1 10 0.28163
1 10 7.2 10 0.27771
1 10 7.3 10 0.27391
1 10 6.6 10 0.30296
1 10 1.2 10 1.6663
1 10 1.3 10 1.5381
1 10 6.5 10 0.30762
1 10 1.4 10 1.4282
1 10 1.5 10 1.333
1 10 6.4 10 0.31243
1 10 6.3 10 0.31739
1 10 6.2 10 0.32251
1 10 6.1 10 0.32779
1 10 1.7 10 1.1762
1 10 1.6 10 1.2497
1 10 6 10 0.33326
1 10 5.9 10 0.33891
1 10 5.6 10 0.35706
1 10 5.5 10 0.36355
1 10 5.4 10 0.37029
1 10 5.3 10 0.37727
1 10 4.7 10 0.42544
1 10 4.6 10 0.43468
1 10 1.1 10 1.8178
1 10 0.9 10 2.2217
1 10 1 10 1.9933
1 10 4.8 10 0.41657
1 10 4.9 10 0.40807
1 10 5 10 0.39991
1 10 5.2 10 0.38453
1 10 5.7 10 0.3508
1 10 5.8 10 0.34475
1 10 5.1 10 0.39207
1 10 4.5 10 0.44434
1 10 4.4 10 0.45444
1 10 4.3 10 0.46501
1 10 0.1 12.9 25.794
1 10 0.1 13 25.994
Anexo 4
Función objetivo.
function [evalfit,F]=funcionobjetivo(x,kd)
%% [ a w t p ] % variables
ke=10.8928;
es=0.0979;
kd=[(ke+es) (ke-es)];
%kd=[16.7258 ];% Mejor valor de K para comparar, condiciones inicales
%
a=x(:,1);
w=x(:,2);
t=x(:,3);
p=x(:,4);
%s=p./(w.*t);
k1=(1.12-0.23*(a./w)+10.55*(a./w).^2-
21.71*(a./w).^3+30.38*(a./w).^4).*(p./(w.*t)).*sqrt(pi*a); % factor de
intensidad de esfuerzos
F=((kd(1)-k1)+(kd(2)-k1))/2 ;
evalfit=1./F;
Anexo 5.
Iteraciones para el cálculo inverso de los parámetros que definen a KIC, mediante
Algoritmos Genéticos.
En las siguientes tablas, se muestran los valores de las iteraciones que general el cálculo por
medio de Algoritmos Genéticos para lo obtención de los parámetros a, w, t y P, donde se
observa la disminución del error conforme aumenta el número de ciclos de cálculo. Estos
datos son los relativos al cálculo de dichas condiciones para el valor de KIC, o de Tenacidad
de Fractura.
a (Tamaño w t P
Iteración Error de grieta) (Ancho) (Espesor) (Esfuerzo) Tiempo
2 0.25871844 3.46911757 10.3608765 0.60380934 10.0033505 0.128781
3 0.25871844 3.46911757 10.3608765 0.60380934 10.0033505 0.135163
4 0.02775601 3.28237585 10.9126593 0.53185055 10.5344686 0.150743
5 0.027756 3.28237585 10.9126593 0.53185055 10.5344686 0.169243
6 0.027756 3.28237585 10.9126593 0.53185055 10.5344686 0.180098
7 0.027756 3.28237585 10.9126593 0.53185055 10.5344686 0.183563
8 0.027756 3.28237585 10.9126593 0.53185055 10.5344686 0.187838
9 0.027756 3.28237585 10.9126593 0.53185055 10.5344686 0.190523
10 0.02775281 3.28237681 10.9126593 0.53185055 10.5344686 0.193236
11 0.02775281 3.28237681 10.9126593 0.53185055 10.5344686 0.196952
12 0.02775281 3.28237681 10.9126593 0.53185055 10.5344686 0.199618
13 0.02775281 3.28237681 10.9126593 0.53185055 10.5344686 0.207105
14 0.02775281 3.28237681 10.9126593 0.53185055 10.5344686 0.210414
15 0.02775281 3.28237681 10.9126593 0.53185055 10.5344686 0.213023
a (Tamaño w t P
Iteración Error de grieta) (Ancho) (Espesor) (Esfuerzo) Tiempo
16 0.02775281 3.28237681 10.9126593 0.53185055 10.5344686 0.216239
17 0.02775281 3.28237681 10.9126593 0.53185055 10.5344686 0.218654
18 0.02775281 3.28237681 10.9126593 0.53185055 10.5344686 0.221325
19 0.02775281 3.28237681 10.9126593 0.53185055 10.5344686 0.226454
20 0.02775281 3.28237681 10.9126593 0.53185055 10.5344686 0.229525
21 0.02769344 3.28237585 10.9126593 0.53184712 10.5344686 0.232395
22 0.02769344 3.28237585 10.9126593 0.53184712 10.5344686 0.23653
23 0.02769344 3.28237585 10.9126593 0.53184712 10.5344686 0.240084
24 0.02769342 3.28237585 10.9126593 0.53184712 10.5344686 0.242644
25 0.02769342 3.28237585 10.9126593 0.53184712 10.5344686 0.245113
26 0.02769342 3.28237585 10.9126593 0.53184712 10.5344686 0.248979
27 0.02769342 3.28237585 10.9126593 0.53184712 10.5344686 0.262246
28 0.02769342 3.28237585 10.9126593 0.53184712 10.5344686 0.266437
29 0.02769342 3.28237585 10.9126593 0.53184712 10.5344686 0.269585
30 0.02769342 3.28237585 10.9126593 0.53184712 10.5344686 0.272276
31 0.02769342 3.28237585 10.9126593 0.53184712 10.5344686 0.275188
32 0.02769342 3.28237585 10.9126593 0.53184712 10.5344686 0.279417
33 0.02374944 3.28237585 10.9126593 0.53163083 10.5344686 0.282103
34 0.02374944 3.28237585 10.9126593 0.53163083 10.5344686 0.28459
35 0.02374944 3.28237585 10.9126593 0.53163083 10.5344686 0.28818
36 0.02374944 3.28237585 10.9126593 0.53163083 10.5344686 0.290983
37 0.02374944 3.28237585 10.9126593 0.53163083 10.5344686 0.293857
38 0.02374944 3.28237585 10.9126593 0.53163083 10.5344686 0.296607
39 0.02374944 3.28237585 10.9126593 0.53163083 10.5344686 0.300591
40 0.02374944 3.28237585 10.9126593 0.53163083 10.5344686 0.303365
41 0.02374944 3.28237585 10.9126593 0.53163083 10.5344686 0.306155
42 0.02374944 3.28237585 10.9126593 0.53163083 10.5344686 0.30955
43 0.02374944 3.28237585 10.9126593 0.53163083 10.5344686 0.312955
44 0.02374944 3.28237585 10.9126593 0.53163083 10.5344686 0.315557
45 0.0237494 3.28237585 10.9126593 0.53163083 10.5344686 0.321263
46 0.0237494 3.28237585 10.9126593 0.53163083 10.5344686 0.34075
47 0.0133777 3.28237585 10.9126593 0.53185055 10.5500936 0.343541
48 0.0133777 3.28237585 10.9126593 0.53185055 10.5500936 0.352456
49 0.0133777 3.28237585 10.9126593 0.53185055 10.5500936 0.355399
50 0.01337769 3.28237585 10.9126593 0.53185055 10.5500936 0.357969
51 0.01337769 3.28237585 10.9126593 0.53185055 10.5500936 0.361434
52 0.01337766 3.28237585 10.9126593 0.53185055 10.5500936 0.363982
53 0.01337766 3.28237585 10.9126593 0.53185055 10.5500936 0.366695
54 0.00936497 3.28237591 10.9126593 0.53163083 10.5500936 0.369408
a (Tamaño w t P
Iteración Error de grieta) (Ancho) (Espesor) (Esfuerzo) Tiempo
55 0.00936497 3.28237591 10.9126593 0.53163083 10.5500936 0.373339
56 0.00936497 3.28237591 10.9126593 0.53163083 10.5500936 0.376139
57 0.00936497 3.28237591 10.9126593 0.53163083 10.5500936 0.379179
58 0.00936497 3.28237591 10.9126593 0.53163083 10.5500936 0.386233
59 0.00936497 3.28237591 10.9126593 0.53163083 10.5500936 0.393776
60 0.00936497 3.28237591 10.9126593 0.53163083 10.5500936 0.397161
61 0.00936497 3.28237591 10.9126593 0.53163083 10.5500936 0.401613
62 0.00021472 3.2862821 10.9126593 0.53185055 10.5500936 0.413023
63 0.00021466 3.2862821 10.9126593 0.53185055 10.5500936 0.417373
64 0.00021466 3.2862821 10.9126593 0.53185055 10.5500936 0.420234
65 0.00021466 3.2862821 10.9126593 0.53185055 10.5500936 0.423192
66 0.00021466 3.2862821 10.9126593 0.53185055 10.5500936 0.425861
67 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.428755
68 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.432383
69 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.435128
70 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.437824
71 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.440708
72 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.443369
73 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.446489
74 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.449249
75 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.457019
76 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.459886
77 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.463658
78 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.466158
79 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.46882
80 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.471979
81 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.474522
82 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.47827
83 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.482176
84 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.485636
85 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.488288
86 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.492265
87 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.508716
88 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.511758
89 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.51563
90 0.00010224 3.2862821 10.9126593 0.53185055 10.5502156 0.518659
91 2.1625E-05 3.28631262 10.9126746 0.53185055 10.5502156 0.521856
92 2.1625E-05 3.28631262 10.9126746 0.53185055 10.5502156 0.524423
93 2.1625E-05 3.28631262 10.9126746 0.53185055 10.5502156 0.527497
a (Tamaño w t P
Iteración Error de grieta) (Ancho) (Espesor) (Esfuerzo) Tiempo
94 2.1625E-05 3.28631262 10.9126746 0.53185055 10.5502156 0.530386
95 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.533372
96 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.543667
97 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.551575
98 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.554326
99 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.557051
100 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.560518
101 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.564641
102 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.568003
103 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.571159
104 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.574665
105 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.577514
106 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.580478
107 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.583173
108 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.58616
109 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.589374
110 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.59205
111 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.595021
112 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.606972
113 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.610293
114 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.612982
115 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.615667
116 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.618945
117 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.621567
118 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.624252
119 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.627099
120 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.631705
121 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.635517
122 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.639325
123 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.642782
124 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.656403
125 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.659298
126 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.662539
127 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.66598
128 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.668901
129 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.671875
130 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.67456
131 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.677065
132 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.680209
a (Tamaño w t P
Iteración Error de grieta) (Ancho) (Espesor) (Esfuerzo) Tiempo
133 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.68377
134 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.68694
135 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.689818
136 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.692569
137 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.697562
138 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.700673
139 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.704309
140 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.706957
141 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.711318
142 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.714613
143 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.719116
144 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.721823
145 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.724492
146 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.727297
147 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.73293
148 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.736783
149 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.74011
150 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.743559
151 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.747039
152 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.752371
153 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.762935
154 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.766591
155 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.769323
156 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.772321
157 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.780972
158 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.783762
159 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.787181
160 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.802021
161 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.81265
162 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.815735
163 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.818432
164 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.831742
165 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.853111
166 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.857514
167 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.862657
168 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.866004
169 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.868483
170 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.871906
171 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.885215
a (Tamaño w t P
Iteración Error de grieta) (Ancho) (Espesor) (Esfuerzo) Tiempo
172 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.891798
173 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.894505
174 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.897079
175 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.899502
176 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.903005
177 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.920292
178 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.927514
179 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.930086
180 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.93359
181 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.946984
182 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.949967
183 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.952905
184 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.967839
185 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.970387
186 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.975707
187 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.978962
188 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.981974
189 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.98563
190 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 0.988875
191 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 1.00041
192 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 1.003028
193 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 1.005978
194 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 1.010931
195 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 1.013518
196 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 1.016282
197 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 1.019167
198 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 1.023056
199 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 1.026036
200 9.4205E-07 3.28631214 10.9126593 0.53185055 10.5502156 1.028826