Mostrar el registro sencillo del ítem
Nuevas estrategias para el entrenamiento de redes neuronales que propagan números difusos
dc.contributor.author | Villarreal López, Edwin | |
dc.contributor.author | Duarte, Oscar | |
dc.contributor.author | Arango, Daniel Alejandro | |
dc.date.accessioned | 2017-06-23T17:56:45Z | |
dc.date.available | 2017-06-23T17:56:45Z | |
dc.date.issued | 2011-10 | |
dc.identifier.uri | http://hdl.handle.net/20.500.11818/905 | |
dc.description | Presentación que se llevó a cabo durante el III Congreso Internacional de Computación y Telecomunicaciones COMTEL 2011 del 19 al 21 de octubre de 2011 en Lima, Perú. COMTEL, es un certamen organizado por la Facultad de Ingeniería de Sistemas, Cómputo y Telecomunicaciones de la Universidad Inca Garcilaso de la Vega, que congrega a profesionales, investigadores y estudiantes de diversos países con el fin de difundir e intercambiar conocimientos, mostrar experiencias académicas-científicas y soluciones para empresas en las áreas de Computación, Telecomunicaciones y disciplinas afines. | es_PE |
dc.description.abstract | Se presenta la arquitectura básica de una red neuronal feedfordward con la capacidad de propagar números difusos. Se exponen brevemente las principales tendencias en el entrenamiento de este tipo de sistemas y con base en ellas se proponen nuevas estrategias. La primera de ellas se basa en la retropropagación del error cuadrático medio en todos los -cortes para pesos crisp. La segunda hace uso de un algoritmo genético con codificación real para redes con pesos crisp. La tercera consiste en la retropropagación del error en el valor promedio y la ambigüedad en todos los -cortes para pesos difusos, y por último se tiene una basada en la retropropagación de una medida difusa del error para redes con pesos difusos. Luego se describen algunos experimentos realizados permitiendo identificar para qué conjuntos de datos particulares resulta útil cada una de las estrategias. | es_PE |
dc.language.iso | spa | es_PE |
dc.publisher | Universidad Inca Garcilaso de la Vega | es_PE |
dc.rights | info:eu-repo/semantics/openAccess | es_PE |
dc.source | Universidad Inca Garcilaso de la Vega | es_PE |
dc.source | Repositorio Institucional - UIGV | es_PE |
dc.subject | Ingeniería de Sistemas | es_PE |
dc.subject | Computación | es_PE |
dc.subject | Ingeniería de programas informáticos | es_PE |
dc.subject | Red neuronal | es_PE |
dc.subject | Algoritmos | es_PE |
dc.subject | Retropropagación | es_PE |
dc.subject | Computer sciences | es_PE |
dc.subject | Software engineering | es_PE |
dc.subject | Neural network | es_PE |
dc.subject | Algorithms | es_PE |
dc.subject | Backpropagation | es_PE |
dc.title | Nuevas estrategias para el entrenamiento de redes neuronales que propagan números difusos | es_PE |
dc.type | info:eu-repo/semantics/conferenceObject | es_PE |