Nuevas estrategias para el entrenamiento de redes neuronales que propagan números difusos
Fecha
2011-10Autor
Villarreal López, Edwin
Duarte, Oscar
Arango, Daniel Alejandro
Metadatos
Mostrar el registro completo del ítemResumen
Se presenta la arquitectura básica de una red neuronal feedfordward con la capacidad de propagar números difusos. Se exponen brevemente las principales tendencias en el entrenamiento de este tipo de sistemas y con base en ellas se proponen nuevas estrategias. La primera de ellas se basa en la retropropagación del error cuadrático medio en todos los -cortes para pesos crisp. La segunda hace uso de un algoritmo genético con codificación real para redes con pesos crisp. La tercera consiste en la retropropagación del error en el valor promedio y la ambigüedad en todos los -cortes para pesos difusos, y por último se tiene una basada en la retropropagación de una medida difusa del error para redes con pesos difusos. Luego se describen algunos experimentos realizados permitiendo identificar para qué conjuntos de datos particulares resulta útil cada una de las estrategias.