Introducción
En este mundo moderno e innovador, las personas son lo suficientemente capaces de obtener lo que ven. El papel de la inteligencia artificial sería a la vez sencillo en ese caso. La inteligencia artificial es una de las tecnologías basadas en datos más famosas que surgen a un ritmo rápido y se adaptan a todo el mundo. No sorprendería decir que el tamaño del mercado de la inteligencia artificial está creciendo dramáticamente y remodelará las dimensiones de los avances tecnológicos en el futuro próximo. En 2019, el tamaño del mercado de la inteligencia artificial se estimó en 27,23 mil millones de dólares . Esta cifra proyecta que el tamaño del mercado valorará la IA en $ 266,92 mil millones para 2027.
Consideremos el sistema de prevención de colisiones en automóviles autónomos. Un sistema de inteligencia artificial puede asignar directamente una entrada a una acción apropiada si la entrada visual a las cámaras a bordo es totalmente confiable, es decir, girar a la izquierda, a la derecha o seguir recto continuamente para esquivar a los excursionistas que las cámaras notan en la carretera. Pero, ¿qué pasa si la cámara se manipula o cambia ligeramente las imágenes en unos pocos píxeles? El automóvil puede tomar acciones potencialmente innecesarias y peligrosas si comienza a confiar ciegamente en las entradas del adversario.
Los investigadores del MIT desarrollaron con éxito un algoritmo de aprendizaje profundo nuevo e innovador que está especialmente diseñado para ayudar a las máquinas a navegar en este mundo imperfecto mediante el desarrollo de un «escepticismo» saludable de las entradas y las mediciones que recopilan. El equipo fusionó redes neuronales profundas con algoritmos de aprendizaje por refuerzo; ambos se utilizan por separado para el entrenamiento de las computadoras en la reproducción de videojuegos, como en el ajedrez y el Go.
Para el desarrollo de un enfoque, utilizaron Robustez Adversarial Certificada para Aprendizaje de Refuerzo Profundo, abreviado como CARRL. El enfoque fue probado por investigadores en varios escenarios, incluido el juego de videojuegos y la prueba simulada para evitar colisiones. Se concluye a partir de pruebas y análisis que CARRL se desempeña mejor para ganar juegos de pong y evitar colisiones sobre las técnicas estándar de aprendizaje automático, incluso en el caso de entradas adversas.
Realidades alcanzables
Los investigadores han intentado la implementación de defensas para hacer que los sistemas de inteligencia artificial sean vigorosos contra las entradas adversas. Las redes neutrales están tradicionalmente capacitadas para confederar ciertas acciones y etiquetas con insumos dados. Consideremos una red neuronal que se alimenta de una gran cantidad de imágenes etiquetadas como perros junto con la imagen etiquetada como perros calientes; Las redes deben etiquetar con precisión una nueva imagen como un perro.
Se podrían probar técnicas similares de aprendizaje supervisado con numerosas versiones de imágenes ligeramente alteradas en sistemas robustos de IA. Si la red aterriza en la misma etiqueta, por ejemplo, perro para cada imagen, existe una alta probabilidad de que la imagen sea quizás de un perro, incluso si está alterada o no y la red es lo suficientemente poderosa como para lidiar con la influencia adversaria. De manera similar, los mecanismos robustos de IA mejoran las operaciones de autenticación biométrica facial realizadas con la ayuda de las funciones de extracción de datos de reconocimiento óptico de caracteres ( OCR ).
Recompensa espléndida
El aprendizaje por refuerzo se ha aplicado a determinadas situaciones en las que las entradas se consideran verdaderas. El equipo consideró desarrollar el aprendizaje por refuerzo, que es básicamente otra forma de aprendizaje automático, y no tiene la necesidad de una asociación de entradas etiquetadas con salidas, sino que se enfoca en reforzar acciones particulares en respuesta a entradas particulares sobre la base de la recompensa resultante.
Un mundo adverso
Durante las pruebas en el videojuego Pong, los investigadores inauguraron una entrada hostil que empujó la pelota un poco más hacia abajo de lo que realmente estaba. A medida que aumentaba la influencia del adversario; concluyeron que CARRL ganó más juegos en comparación con otras técnicas tradicionales.
El método fue poderoso exactamente de la misma manera durante las pruebas de prevención de colisiones. El equipo simuló un agente naranja y azul que se esforzaba por cambiar de posición sin chocar. CARL condujo al agente naranja alrededor del otro agente cuando el equipo interrumpió el examen del agente naranja de la posición del agente azul, tomando una acomodación más amplia ya que un adversario se estaba volviendo más robusto y la posición del agente azul se volvió más insegura.
Conclusión
El aprendizaje automático ha avanzado radicalmente en las últimas décadas. Los algoritmos de aprendizaje automático ahora están logrando y reemplazando el rendimiento a nivel humano para las mejoras operativas en las organizaciones, incluida la verificación de identidad, la autenticación biométrica, el reconocimiento óptico de caracteres, la nube y el juego Go. Aún así, se suele observar que los algoritmos de aprendizaje automático que superan el rendimiento humano en escenarios naturales fallan cuando un adversario puede alterar sus datos de entrada incluso sutilmente.
Los investigadores están prosperando para crear algoritmos innovadores de aprendizaje profundo para esquivar las entradas adversas. Es sumamente importante brindar garantías de robustez o protección contra manipulaciones adversas, ya que el aprendizaje automático se utiliza en más contextos donde los adversarios hostiles tienen un incentivo para interferir con una operación del sistema de aprendizaje automático dado.