Q3159224 (Q3159224): Difference between revisions

From EU Knowledge Graph
Jump to navigation Jump to search
(‎Changed an Item: Edited by the infer coords bot - inferring coordinates from location)
(‎Changed an Item: Edited by the materialized bot - inferring region from the coordinates)
Property / contained in NUTS
 
Property / contained in NUTS: Barcelona Province / rank
 
Normal rank

Revision as of 17:08, 10 October 2021

Project Q3159224 in Spain
Language Label Description Also known as
English
No label defined
Project Q3159224 in Spain

    Statements

    0 references
    19,723.0 Euro
    0 references
    39,446.0 Euro
    0 references
    50.0 percent
    0 references
    30 December 2016
    0 references
    29 December 2019
    0 references
    CENTRO DE VISION POR COMPUTADOR
    0 references

    41°29'27.71"N, 2°8'15.00"E
    0 references
    08266
    0 references
    EL APRENDIZAJE PROFUNDO ('DEEP LEARNING') SE HA CONVERTIDO EN LA TECNICA POR EXCELENCIA EN EL AMBITO DEL APRENDIZAJE AUTOMATICO APLICADO A LA VISION POR COMPUTADOR. TOMANDO COMO REFERENCIA SU EXITO EN LA CLASIFICACION DE IMAGENES, EL APRENDIZAJE PROFUNDO HA SUPERADO (EN TERMINOS DE RENDIMIENTO) A OTRAS TECNICAS DEL MISMO AMBITO Y ESTA SIENDO UTILIZADA HOY EN DIA POR LA MAYORIA DE LAS APLICACIONES EN VISION POR COMPUTADOR, INCLUYENDO LA DETECCION DE 'SALIENCY', LA DETECCION DE OBJETOS, EL SEGUIMIENTO VISUAL, EL PROCESAMIENTO DE IMAGENES Y LA AUTOMATIZACION DEL PROCESO DE DESCRIPCION DEL CONTENIDO DE LA IMAGEN. EL EXITO LOGRADO POR LAS REDES NEURONALES PROFUNDAS SE DEBE A LA EXISTENCIA DE BASES DE DATOS MUY AMPLIAS Y AL DESARROLLO DE NUEVOS GPUS NECESARIOS PARA EL PROCESAMIENTO DE DICHAS BASES._x000D_ _x000D_ EL APRENDIZAJE MULTITAREA (MTL - POR SUS SIGLAS EN INGLES) ES UNA TECNICA MUY BIEN ESTUDIADA POR LA COMUNIDAD CIENTIFICA DE APRENDIZAJE AUTOMATICO. ESTA TECNICA CONTEMPLA VARIAS TAREAS DE UNA MANERA CONJUNTA CON EL OBJETIVO DE APROVECHAR LAS SIMILITUDES QUE COMPARTEN. COMO CONSECUENCIA, SE PUEDE CONSEGUIR UNA MEJORA DEL RENDIMIENTO QUE SI SE CONSIDERARA CADA TAREA POR SEPARADO. SU APLICACION ES APTA PARA CUALQUIER PROBLEMA DONDE HAY UN NUMERO DE TAREAS RELACIONADAS QUE APRENDER Y/O CUANDO HAY UN CONJUNTO DE DATOS PEQUEÑO PARA PODER APRENDER UNA TAREA EN PARTICULAR. EL MTL FUE INSPIRADO POR LA CAPACIDAD DEL SER HUMANO EN MEJORAR EL PROCESO DE APRENDIZAJE DE UNA TAREA SI ESTA SE REALIZA DE MANERA CONJUNTA CON OTRAS TAREAS QUE TIENEN RELACION, A DIFERENCIA DE CUANDO LA MISMA TAREA SE APRENDE DE MANERA INDIVIDUAL._x000D_ _x000D_ EL OBJETIVO DE ESTA MEMORIA ES PROPONER Y ESTUDIAR UN MARCO TEORICO COMUN QUE INCLUYA LOS DOS CONCEPTOS: ¿DEEP LEARNING¿ Y EL MTL. LA INICIATIVA DE ESTE PROYECTO SE APOYA EN LA EXISTENCIA DE UNOS RESULTADOS INICIALES PROMETEDORES EN ESTA DIRECCION. NUESTRA HIPOTESIS DE TRABAJO ES: LAS REDES NEURONALES PROFUNDAS PUEDEN BENEFICIARSE DE LA ESTRATEGIA DE APRENDIZAJE MULTITAREA, ES DECIR, LAS REDES ENTRENADAS CON VARIAS TAREAS AUMENTAN SU RENDIMIENTO EN COMPARACION CON LAS REDES ENTRENADAS CON UNA SOLA TAREA. ADEMAS, EL APRENDIZAJE MULTITAREA PUEDE SER MUY UTIL CUANDO EL CONJUNTO DE DATOS PARA UNA TAREA NO SEA SUFICIENTEMENTE GRANDE. EN ESTE CASO SE COMPENSA LA AUSENCIA DE DATOS EN UNA TAREA CON LOS DATOS DE LAS OTRAS TAREAS RESTANTES. POR ESTA RAZON, NOS PLANTEAMOS ESTUDIAR EN DETALLE EL ¿DEEP MULTITASK LEARNING¿ (DMTL) COMO PARTE DE ESTE PROYECTO. NOS PROPONEMOS DEFINIR UN MARCO GENERAL PARA EL DISEÑO DE LAS ARQUITECTURAS DMTL Y UNAS ESTRATEGIAS OPTIMAS PARA SU ENTRENAMIENTO. ADEMAS, SE ESTUDIARA EL EFECTO DE CONJUNTOS DE DATOS DESCOMPENSADOS PARA APRENDER LAS REDES DMTL. EN CONCRETO, SE APLICARAN LAS REDES DMTL A VARIAS APLICACIONES INCLUYENDO DETECCION DE OBJETOS, CLASIFICACION DE ESCENAS, DETECCION DE LA 'SALIENCY', AUTOMATIZACION DEL PROCESO DE DESCRIPCION DEL CONTENIDO DE LA IMAGEN Y SEGUIMIENTO VISUAL (TEMAS DE INVESTIGACION EN LOS QUE EL GRUPO LAMP YA ESTA INVOLUCRADO PERO QUE SE CONSIDERARAN AHORA DESDE EL PUNTO DE VISTA DE UNA SOLA TAREA). (Spanish)
    0 references
    Cerdanyola del Vallès
    0 references

    Identifiers

    TIN2016-79717-R
    0 references