El profesor de la Universidad de Seattle Onur Bakiner impartió en Medellín diversos talleres y conferencias sobre el uso de nuevas herramientas tecnológicas en ámbitos como la democracia, los derechos humanos, la investigación, la sostenibilidad y la construcción de paz. Hacemos Memoria conversó con el experto sobre cuál es su visión respecto a cómo se debería utilizar la inteligencia artificial en los procesos de paz. 

Por Fabián Uribe Betancur 
Foto: Schwartz Reisman Institute

Onur Bakiner, profesor asociado de Ciencias Políticas de la Universidad de Seattle, dirigió la conferencia Una aproximación democrática radical a la inteligencia artificial, desarrollada el 18 de marzo en el teatro Gabriel Obregón Botero de la Universidad de Medellín. El experto fue invitado por el Instituto Colombo Alemán para la Paz, Capaz, y sus instituciones aliadas. Durante el encuentro se abordaron temas como la desinformación, el uso de los datos abiertos, la regulación legal y las soluciones técnicas en el contexto de la inteligencia artificial, así como su aplicación en las ciencias sociales. 

Hacemos Memoria conversó con el experto sobre cómo sería la aplicación de la inteligencia artificial, abreviada como IA, en las ciencias sociales y en los procesos de construcción de paz, memoria y resolución de conflictos armados, especialmente en el caso colombiano. Entre sus ideas para llevar a cabo este tipo de iniciativas, está la participación de personal capacitado para evitar el sesgo y la discriminación en los datos utilizados por la IA.  

El profesor Bakiner ha centrado sus investigaciones y trabajos académicos en temas relacionados con la justicia transicional, los derechos humanos, la política judicial, la tecnología y la sociedad, particularmente en América Latina y el Medio Oriente. 

Diálogo con el profesor Onur Bakiner en El Carmen de Viboral. Participaron docentes y estudiantes de la Universidad de Antioquia, miembros del Instituto de Cultura de El Carmen de Viboral, líderes sociales, líderes de organizaciones de víctimas, integrantes del Colectivo Antorcha, de la Oficina de Atención a Víctimas de la Alcaldía y del Consejo Municipal de Paz. Foto: Instituto de Cultura El Carmen de Viboral.

En la actualidad, investiga los impactos de las tecnologías de inteligencia artificial en los derechos humanos. Su libro Comisiones de la verdad: memoria, poder y legitimidad fue galardonado en 2017 con el Premio al Mejor Libro por la Sección de Derechos Humanos de la Asociación Americana de Ciencias Políticas. 

¿Cómo se puede asociar la IA con las ciencias sociales? 

Hay diversos ejes: uno es la crítica de la inteligencia artificial, es decir, entender mejor los riesgos y los daños que puede ocasionar la IA a través de investigaciones de ciencias sociales y de humanidades; el otro eje es usar la IA como una herramienta para analizar datos de gran cantidad. La IA puede ser útil para comprobar el valor de los datos, pues es un sistema que puede clasificar diferentes tipos de información. Entonces puede entender mucho mejor y más rápido que los seres humanos algunas inconsistencias en los datos. 

¿Y cómo se haría la verificación de los datos al utilizar IA en las ciencias sociales? 

La intervención humana es clave para asegurar que los resultados sean correctos y útiles. En sí misma, la IA no entiende, no tiene ese entendimiento, es solo un mecanismo de arreglar, clasificar y proveer datos. Por eso, uno de los desafíos para la IA es el sesgo y discriminación que pueden tener algunos datos, digamos en cuanto a género o raza. Entonces los resultados de los algoritmos también pueden duplicar ese sesgo y esa discriminación. Además, hay ciertos problemas con la falta de privacidad con el uso de datos, porque para procesar datos se necesitan datos de las personas y a veces se hacen sin su consentimiento.  

Usted explica que es necesaria la intervención humana para evitar sesgos o discriminación en los datos. ¿Cómo debería ser la selección de este personal que trabaje con IA?  

Pienso que va a surgir una profesión de investigadores independientes que van a hacer ese tipo de prueba, para evitar el sesgo y la discriminación en los datos. Las empresas tienen personas, pero sus empleados tienen sus propios intereses o el interés de la empresa. Ahora, por ejemplo, con algunas leyes de la Unión Europea, dicen que las empresas deben entregar sus datos a investigadores independientes para que ellos realicen las pruebas de calidad y la auditoría de estos productos.   

¿Cómo podría utilizarse la IA en los procesos de memoria, construcción de paz y resolución de conflictos armados, por ejemplo, en el caso colombiano? 

En la actualidad existe una gran cantidad de información sobre este tema, y la inteligencia artificial puede ser de gran utilidad. Por ejemplo, con todos los archivos de la Comisión de la Verdad, es posible facilitar que cualquier persona pueda acceder y procesar este contenido por sí misma, mediante técnicas de procesamiento y clasificación de datos. 

¿Cómo se pueden evitar el sesgo y la discriminación en estos procesos de construcción social para no caer en la revictimización de las personas afectadas por el conflicto armado? 

Es importante consultar a los expertos en la materia. La inteligencia artificial, en sí misma, no comprende el contexto, por lo tanto, es necesario recurrir a expertos en conflicto armado, ciencias sociales o periodistas para que expliquen en qué consiste ese dato y qué tipos de sesgos o discriminaciones pueden surgir.