Nuevos métodos para redes neuronales seguras: investigación de Würzburg y Munich
Nuevos métodos para redes neuronales seguras: investigación de Würzburg y Munich
Los científicos de la Universidad de Würzburg y la Universidad Técnica de Munich se comprometen a mejorar la robustez de las redes neuronales. Esto se realiza como parte de un proyecto financiado por la Fundación de Investigación Alemana (DFG). En vista de las aplicaciones cotidianas del aprendizaje automático en vehículos autónomos, análisis de imágenes médicas y chatbots interactivos, la necesidad es cada vez más urgente para asegurar estos sistemas contra ataques específicos.
Comprender los peligros de los ataques dirigidos
Las redes neuronales que se utilizan para diferentes aplicaciones a menudo muestran un punto débil: pueden malinterpretarse mediante manipulaciones específicas desde el exterior. Un ejemplo ilustra claramente esto: una imagen de un violín puede ser reconocida incorrectamente por el software mediante cambios mínimos en el área de píxeles como leones marinos. Tales errores no solo son vergonzosos, sino que pueden tener consecuencias catastróficas en situaciones críticas, como el tráfico vial o en el diagnóstico médico.
Red de investigación y apoyo financiero
El DFG fue aprobado un nuevo proyecto de investigación con un presupuesto de 565,000 euros, de los cuales más de 250,000 euros fluyen a la Universidad Julius Maximilians en Würzburg. Este proyecto, que se conoce bajo el título "Geomar: Métodos geométricos para la robustez adversa", se investigará en los próximos tres años. Los dos científicos comprometidos, el profesor Leon Bungert y el Dr. Leo Schwinn están persiguiendo el objetivo de hacer que las redes neuronales sean más sólidas contra los ataques enemigos.
robustez como la clave para la fiabilidad
En este contexto, la robustez significa que los sistemas deben soportar errores aleatorios y específicos. Si bien los sistemas modernos ya tienen una resistencia considerable a los errores aleatorios, a menudo carece de ataques específicos. El enfoque de investigación está destinado a preparar redes neuronales con la formación defectuosa y manipulada en la capacitación. Esto está destinado a evitar que los errores causen problemas graves.
Métodos geométricos para la toma de decisiones
Un elemento central del proyecto es el uso de métodos geométricos. Cuando la clasificación de imágenes, por ejemplo, en la distinción entre perros y gatos, la red neuronal debe establecer un límite de decisión. Estos límites no solo son cruciales para la precisión del sistema, sino también el punto principal de actividad para las manipulaciones. Al comprender estos límites, se pueden desarrollar nuevos modelos matemáticos que ayuden a aumentar la robustez de las redes.
Desarrolle un método de entrenamiento a medida
Para entrenar de manera óptima las redes neuronales, Bungert y Schwinn están buscando un enfoque innovador: en lugar de usar una sola red, capacite a dos redes diferentes simultáneamente. Una de estas redes simula los posibles ataques de un "atacante". Este método espera que el sistema se vuelva más resistente e imaginativo que un atacante humano. El objetivo no es solo aumentar la robustez, sino también mejorar la eficiencia del proceso de capacitación.
Conclusión y Outlook
El proyecto "geomar" podría proporcionar resultados innovadores que no solo aumentan la confiabilidad de los sistemas de aprendizaje automático, sino que también promueven su uso práctico en áreas críticas de seguridad. A largo plazo, los resultados de la investigación podrían conducir a la tecnología del aprendizaje mecánico para usarse de manera más segura y efectiva en nuestra vida diaria. El enfoque en la robustez y la confiabilidad de estos sistemas es de gran importancia, especialmente en un mundo en el que las tecnologías autónomas están cada vez más en primer plano.
contactar
Prof. Dr. Leon Bungert, Profesor de Matemáticas III (Matemáticas del aprendizaje automático), Tel: +49 931 31-82849, correo electrónico: leon.ununft@uni-wuerzburg.de
Sitio web de Leon Bungerts
- nag
Kommentare (0)