Controlando el sesgo con técnicas de explicabilidad
Abstract
Las redes neuronales artificales poseen diversas aplicaciones en el campo de visión por
computadora, como puede ser en agricultura, vehículos autónomos, reconocimiento facial,
imágenes médicas y manufactura. En los últimos años se presenciaron grandes avances en
estos algoritmos (He et al., 2015; Krizhevsky et al., 2012; LeCun et al., 1998), los que
continúan ampliando el uso de esta tecnología.
La motivación de este trabajo surge con la inclinación de modelos de redes neuronales
a aprender sesgos presentes en el conjunto de datos de entrenamiento (Li y Vasconcelos,
2019). Buscaremos como contrarestar esta inclinación y aprender a predecir correctamente
evitando este sesgo.
En términos prácticos, se utilizaron métodos existentes para obtener información sobre
los motivos de predicción en un modelo de visión por computadora. Se redujo el sesgo
penalizando las activaciones incorrectas. Con esto se logró obtener un modelo que brinda
activaciones más enfocadas en los objetos a detectar (visto mediante algoritmos que deducen
la causa de la activación), que puede ser más robusto y performante, aun cuando se le
presenten imágenes en situaciones atípicas. Esto resultó en una mejora de la metrica utilizada
en este trabajo de 2.38 puntos sobre el conjunto de datos de validacion, y 2.69 puntos de
mejora en los datos de testeo. Artificial neural networks have various applications in the field of computer vision, such as
in agriculture, autonomous vehicles, facial recognition, medical imaging, and manufacturing.
In recent years, there have been significant advances in these algorithms (He et al., 2015;
Krizhevsky et al., 2012; LeCun et al., 1998), which continue to expand the use of this
technology.
The motivation for this work arises from the tendency of neural network models to learn
biases present in the training data set (Li y Vasconcelos, 2019). We will seek to counteract
this tendency and learn to predict correctly while avoiding this bias.
In practical terms, existing methods were used to obtain information on the reasons
for prediction in a computer vision model. The bias was reduced by penalizing incorrect
activations. This achieved a model that provides more focused activations on the objects
to be detected (as seen through algorithms that deduce the cause of activation), which can
be more robust and perform better even when presented with images in atypical situations.
This resulted in an improvement of 2.38 points in the validation data set and a 2.69-point
improvement in the testing data set, based on the metric used in this work.
The following license files are associated with this item: