En un desarrollo que podría arruinar la trama de numerosas películas de ciencia ficción sobre un apocalipsis de la inteligencia artificial, los científicos han creado una red neuronal que es lo suficientemente inteligente como para saber cuándo no se debe confiar en ella.
🛑 Trikooba depende únicamente de tu apoyo para seguir adelante con su labor. Si te lo puedes permitir, sería de gran ayuda que consideraras hacer una aportación económica, por pequeña que sea, para poder seguir sustentando el proyecto 👇
- DONAR -
Con cada año que pasa, los sistemas de inteligencia artificial conocidos como redes neuronales de aprendizaje profundo se utilizan cada vez más en áreas que podrían tener un impacto masivo en la salud y la seguridad, como el transporte y la medicina.
Los sistemas están diseñados para ayudar en la toma de decisiones y se especializan en sopesar conjuntos de datos complejos que los humanos simplemente no tienen la capacidad de analizar.
Pero, ¿cómo sabemos que su juicio es correcto? Para manejar este problema, la nueva red puede dar lecturas de su nivel de confianza junto con sus predicciones.

Los científicos detrás del desarrollo dicen que podría salvar vidas, ya que el nivel de confianza de un sistema puede ser la diferencia entre un vehículo autónomo que decide «está todo claro para avanzar a través de la intersección» y concluye «probablemente esté claro, así que deténgase por si acaso».
Esta característica de autoconciencia de la confiabilidad se ha denominado “regresión probatoria profunda” y basa su nivel de confianza en la calidad de los datos disponibles con los que tiene que trabajar.
La función mejora las salvaguardias anteriores al realizar su análisis sin demandas informáticas excesivas.
Los científicos probaron su red entrenándola para juzgar las profundidades en diferentes partes de una imagen, similar a cómo un automóvil autónomo podría calcular la proximidad a un peatón u otro vehículo.
El sistema se comparó bien con las configuraciones existentes, al mismo tiempo que tenía la capacidad de estimar su propia incertidumbre. Los momentos en que la red estaba menos segura eran, de hecho, los momentos en que se equivocaba en las profundidades.
«Esta idea es importante y aplicable en general», explicó una de las investigadoras, la profesora Daniela Rus del Instituto de Tecnología de Massachusetts (MIT).
“Se puede utilizar para evaluar productos que se basan en modelos aprendidos. Al estimar la incertidumbre de un modelo aprendido, también aprendemos cuánto error esperar del modelo y qué datos faltantes podrían mejorar el modelo «.