InicioOpiniónPeligro ligero (II)

Peligro ligero (II)

Siguiendo la conversación pasada sobre la tecnología de reconocimiento facial (TRF) basado en Inteligencia Artificial (IA) se asoma que -desde un punto de vista moral- su uso, por parte de las fuerzas del orden público, plantea aspectos de responsabilidad y parcialidad. La profesora Safiya Noble, del Centro de Investigación Crítica de Internet, ha puesto de relieve cómo los algoritmos de IA pueden perpetuar los prejuicios raciales y de género, dando lugar a resultados discriminatorios. Así mismo, el acceso a las TRF por delincuentes para atacar a personas concretas, amplía la posibilidad de discriminación algorítmica y de elaboración de perfiles injustos que se convierten en una realidad preocupante. Además, la falta de marcos reguladores y de supervisión en el despliegue del software de la TRF agrava estos dilemas éticos, dejando margen para su aplicación indebida y manipulación.

En el contexto de la delincuencia, estas implicaciones van más allá de la vigilancia y se extienden a aspectos de toma de decisiones y responsabilidad. El sueco Nick Bostrom, fundador del Instituto del Futuro de la Humanidad, ha explorado el concepto de agencia moral en la era de la IA, planteando preocupaciones sobre la delegación del juicio en sistemas autónomos. Si los criminales aprovechasen las TRF para identificar y explotar las vulnerabilidades de víctimas potenciales, el cambio de agencia del ser humano a la máquina difuminaría las líneas de culpabilidad y rendición de cuentas; lo que plantea complejos problemas en relación a la responsabilidad en los delitos mediados por la tecnología.

El potencial de abuso de las TRF por parte de los transgresores subraya la necesidad de sólidos marcos éticos y mecanismos de gobernanza que garanticen el desarrollo y despliegue responsables de los sistemas de IA. Basándose en teorías como el utilitarismo y la deontología, las y los decisores y tecnólogos pueden orientar el diseño y la aplicación de las TRF para minimizar los daños y defender los principios de justicia e imparcialidad. Es imperativo que las consideraciones de privacidad, transparencia y responsabilidad ocupen un lugar central en los debates sobre la IA y su aplicación en la ley para mitigar el riesgo de consecuencias no deseadas.

En resumen, la captura de Daniela Klette, en Alemania, muestra no solo el poder accesible fácilmente por muchos sino los posibles escollos de la TRF para localizar a otras personas sin récord criminal. Adoptando un enfoque ético, basado en principios filosóficos y morales, podemos navegar por el complejo terreno de la IA y garantizar que sus beneficios se equilibren con consideraciones de justicia y derechos humanos.

*El autor es Presidente del Observatorio Nacional de Ciencia, Tecnología e Innovación (Oncti)

@betancourt_phd

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Artículo anterior
Artículo siguiente