La inteligencia artificial ahora puede decirnos cuándo deja de ser confiable

Publicado el
La inteligencia artificial ahora puede decirnos cuándo deja de ser confiable

La inteligencia artificial mejora a un ritmo galopante. Las redes neuronales de aprendizaje profundo se utilizan cada vez más para tomar decisiones vitales para la salud y la seguridad del ser humano. Los ejemplos más claros los vemos en los vehículos autónomos y el diagnóstico médico.

Si bien estos sistemas de inteligencia artificial son buenos para reconocer patrones en conjuntos grandes de datos y ayudarnos a tomar decisiones, ¿cómo sabemos que son confiables? Un equipo de investigadores del MIT se hizo la misma pregunta. Así, desarrollaron una forma rápida en la que una red neuronal no solo arroje una predicción, sino que informe qué tan confiable puede ser.

«Necesitamos la capacidad no solo de tener modelos de alto rendimiento, sino también de comprender cuándo no podemos confiar en esos modelos», dice el científico informático Alexander Amini  del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL).

Este avance podría salvar vidas, ya que el aprendizaje profundo se está implementando en el mundo real hoy. Conocer el nivel de certeza de una red puede hacer la diferencia entre un vehículo autónomo que determina que «es seguro pasar por la intersección» y otro que dice que «es probable que sea seguro, mejor deténgase por si acaso».

Amini presentará la investigación en la conferencia NeurIPS en diciembre. Por el momento, se encuentra disponible en este enlace del MIT.  

Incertidumbre  y regresión evidencial profunda

El aprendizaje profundo ha demostrado tener un rendimiento notable. Hoy en día están en nuestra vida cotidiana: motores de búsqueda, redes sociales y reconocimiento facial, entre otros.

«Hemos tenido grandes éxitos con el aprendizaje profundo», dice Amini. «Las redes neuronales son realmente buenas para saber la respuesta correcta el 99 por ciento de las veces». Sin embargo, el 99 por ciento no es suficiente cuando hay vidas en juego. «Realmente nos preocupamos por ese 1 por ciento de las veces y cómo podemos detectar esas situaciones de manera confiable y eficiente».

Para solucionar este problema, los investigadores idearon una forma de estimar la incertidumbre. Diseñaron la red con una producción masiva, produciendo no solo una decisión sino también una nueva distribución probabilística que recoge evidencia en apoyo de esa decisión.

Con esto, obtenemos información sobre si la incertidumbre proviene de los datos de entrada o si podemos resolverla ajustando la red neuronal.

“Estamos empezando a ver muchos más de estos modelos [de redes neuronales] saliendo del laboratorio de investigación hacia el mundo real, en situaciones que están tocando a los humanos con consecuencias potencialmente mortales”, dice Amini. «Cualquier usuario del método, ya sea un médico o una persona en el asiento del pasajero de un vehículo, debe ser consciente de cualquier riesgo o incertidumbre asociados con esa decisión».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *