¿Dónde estaremos nosotros, los Pueblos Indígenas del mundo, en la era de la Inteligencia Artificial? ¿Cuál será nuestra situación a medida que la Inteligencia Artificial se convierta en una realidad cotidiana para aquellos de nosotros, los "otros", que hemos sido dejados fuera de las habitaciones, las historias y los recuerdos? Históricamente oprimidos y políticamente privados de sus derechos, los Pueblos Indígenas han servido como sujetos de prueba durante siglos de silenciarlos y deshumanizarlos sistémicamente.
La condición humana actual se centra e impulsa por los datos en un continuo interminable de consumo, cosecha, vida y generación a través de bucle tras bucle de huellas digitales en plataformas destinadas a competir con el sueño. Para los Pueblos Indígenas, nuestras identidades están predestinadas y politizadas, definidas por nuestra resistencia como nuestra existencia a través de los siglos y etapas de la colonización y el imperialismo hasta el presente, la "era de la IA", que exacerbará las desigualdades y la violencia existentes.
Muchos de nosotros hemos comenzado a desentrañar hasta qué punto la IA determinará la condición humana y hemos llegado a la incómoda verdad de que la IA es un puente hacia horrores indescriptibles si su gobernanza no prioriza las realidades vividas por quienes están en los márgenes. El desarrollo per se, siempre ha sido una mala frase para nosotros, los Indígenas, que hemos soportado las cargas de los llamados "desarrollos" de los Estados colonizadores en nuestras tierras ancestrales. Dados sus antecedentes, difícilmente podemos esperar que los Estados y las empresas regulen la IA a través de una gobernanza que tenga como objetivo ser verdaderamente ética y centrada en los principios rectores de las empresas y los derechos humanos.
Nina Sangma (a la izquierda) en el Foro de Gobernanza de Internet 2024 en Kioto, Japón.
La cruda verdad es que los valores fundamentales que protegen los derechos humanos son contrarios a los valores de las empresas para las que “todo sigue igual”. Si la democracia fuera rentable, los abogados y defensores de los derechos humanos no estarían sentados en mesas de participación de múltiples partes interesadas exigiendo la rendición de cuentas de las grandes empresas tecnológicas y los creadores de IA. La disonancia cognitiva es tangible en espacios donde la presencia de algunos de nosotros que venimos del Sur Global y representamos perspectivas Indígenas a menudo deja estos espacios sintiéndonos como si hubiéramos sido palmeados en la cabeza, condescendientes por los capitanes de la industria.
Una declaración publicada el año pasado sobre las amenazas existenciales que plantea la IA y firmada por cientos de expertos en IA, asesores políticos, activistas climáticos y académicos subraya sus temores bien fundados de que nos estamos precipitando hacia un futuro que puede que ya no necesite a los humanos y a la humanidad, y que se necesitan intervenciones colectivas y marcos de rendición de cuentas de diversos grupos de la sociedad civil para garantizar una fuerte regulación gubernamental y un marco regulatorio global.
Eloisa Mesina, Secretaria General de Katribu Youth, y Nina Sangma en la Conferencia Asia-Pacífico sobre Libertad en Internet en Bangkok, Tailandia.
La IA no puede, ni debe, ser vista de forma aislada. Las tecnologías anteriores han sido el puente hacia la IA y continuarán con los prejuicios y sesgos incrustados en la tecnología existente. Una de las mayores preocupaciones es el uso de tecnología de vigilancia como Pegasus, que se está utilizando para subvertir los derechos democráticos de los ciudadanos y la libertad de expresión, incluida la persecución de periodistas para frenar la libertad de prensa y el derecho de los ciudadanos a la información bajo el pretexto de la seguridad nacional. Esto, junto con leyes draconianas como la Ley de Poderes Especiales de las Fuerzas Armadas de la India, otorga poderes ilimitados al Ejército en las llamadas "áreas perturbadas" para mantener el statu quo. Estas áreas coinciden con tierras Indígenas donde hay una población Indígena, como en el noreste de la India.
Makepeace Sitlhou, periodista indígena independiente y becario Fulbright, informa desde la zona de amortiguamiento de Manipur, India. Foto cortesía de Makepeace Sitlhou.
Históricamente, la mano dura del Estado ha servido como un terreno fértil para probar estrategias de adopción para ejercer control sobre otras áreas de la India, siempre con el objetivo siniestro que coincide y apunta a la desposesión de los Pueblos Indígenas de las tierras ricas en recursos para crear valor para unas pocas corporaciones y sus beneficiarios. El uso y la justificación de la tecnología de vigilancia se basan en la creación de la necesidad de protección contra los "antinacionales" o los "terroristas", términos que se utilizan comúnmente para etiquetar y difamar a cualquier persona que critique al gobierno. Tanto el gobierno de Duterte como el de Marcos Jr. han seguido poniendo en peligro a los activistas Indígenas mediante la práctica del “red tagging” para sugerir vínculos con los comunistas en Filipinas.
La violencia en línea suele preceder a las tácticas tácticas fuera de línea, lo que dio lugar a ataques mortales contra nueve líderes indígenas que fueron asesinados a tiros en diciembre 2020 por protestar contra los proyectos de represas del gobierno filipino. Hace casi una década, en un encuentro igualmente escalofriante en junio de 2012, 17 adivasis acusados falsamente de ser "maoístas" fueron asesinados en ejecuciones extrajudiciales en el estado de Chattisgarh, India, una zona rica en minerales que ha atraído a empresas mineras y ha llevado al desalojo forzoso de miles de adivasis. Más recientemente, el uso del reconocimiento facial y la tecnología de drones se está adoptando en el estado de Manipur, en el noreste de la India, para sofocar en el Estado los disturbios civiles en curso.
Nina Sangma (izquierda) con Pyrou Chung, directora de la Iniciativa de Desarrollo Abierto del East West Management Institute y la periodista y poeta independiente adivasi Jacinta Kerketta en RightsCon 2023 en Costa Rica.
La cuestión de a quién y cómo se identifica el gobierno como persona de interés dependerá de a quién las tecnologías marquen como sospechosas. ¿Qué bases de datos existentes aprovechará y cómo están equipadas estas bases de datos para perfilar correctamente a los ciudadanos, dadas las fallas inherentes en el reconocimiento de patrones y los sesgos algorítmicos en sus conjuntos de entrenamiento? ¿No hay algunas identidades más propensas a ser marcadas como sospechosas en función de sus historias políticas, religiones y registros de resistencia a la opresión del Estado? ¿Y a favor de quién se desplegarán estas tecnologías para justificar la ocupación y ganar guerras y elecciones? En las economías políticas digitalizadas, los incentivos para usar la tecnología para el bien para priorizar el bienestar de los ciudadanos son bajos en comparación con la creación de riqueza para unos pocos que dependen de mantener el statu quo a través de sistemas de opresión en curso.
El papel de las campañas de desinformación en la victoria electoral es un resultado que todos los gobiernos conocen, tanto en el lado gobernante como en el de la oposición. Estamos en una guerra de narrativas donde el campo de batalla está en línea, en las redes sociales y las aplicaciones de mensajería, en la propaganda diaria de los medios corporativos y el discurso de odio dirigido a las minorías, académicos y críticos, y la subversión de la historia con textos nacionalistas y la toma de control de las instituciones públicas. Sin duda, la IA demostrará ser una forma rentable de difundir el discurso de odio y la desinformación, no sólo en términos de eficacia, sino también de basarse en las cantidades existentes de discurso de odio y distorsión de los hechos para producir grandes cantidades de información no verificada.
Lo que eso significa es que nosotros, los usuarios, estamos condenados para siempre a estar atrapados en un bucle de verificación de contenido y recomendación de contenido basado en lo que consumimos en línea, lo que lleva a una mayor polarización que nunca. Un pensamiento especialmente horripilante son los niveles industriales de violencia de género facilitados por la tecnología que se desatarán. Pensemos en la pornografía de venganza que utiliza deep fakes generados por IA, cuyos componentes básicos se encuentran en las campañas de desinformación existentes dirigidas contra las mujeres para socavar su credibilidad profesional y su reputación. El odio en línea hacia las mujeres es casi siempre de naturaleza sexualmente violenta. El simple hecho de expresar una opinión como mujer es suficiente para justificar el acoso y una serie de abusos viles, desde amenazas de violación hasta llamamientos al asesinato y falsedades profundas, cuya articulación será desgarradoramente innovadora con herramientas de IA generativa como ChatGPT y Dall E.
En el reporte de UNESCO de la UNESCO "The Chilling: Tendencias globales en la violencia en línea contra mujeres periodistas", un asombroso 86 por ciento de las mujeres periodistas Indígenas informaron haber sufrido violencia en línea. La tormenta de violencia de género facilitada por la tecnología aumenta durante los conflictos y para las mujeres periodistas que informan desde zonas de conflicto.
Un espantoso espejo de la realidad actual donde los cuerpos de las mujeres se convierten en un campo de batalla y la violación es una herramienta política se está presenciando en la violencia étnica en curso en Manipur. La tendencia al aumento de los ataques por parte de los troles es algo que la periodista indígena Makepeace Sitlhou (Kuki) ha experimentado de primera mano en Twitter como resultado de su galardonado reportaje sobre el terreno desde regiones volátiles. Sin inmutarse por estos ataques en línea, las cosas dieron un giro preocupante cuando Sitlhou fue nombrado en un Primer Informe por presuntamente “...declaraciones engañosas para desestabilizar a un gobierno elegido democráticamente, perturbar la armonía comunal creando enemistad entre las comunidades y difamar al gobierno estatal y a una comunidad en particular".
Cuando se le preguntó si era alta la probabilidad de ataques en línea prepararían el camino para la violencia en persona y si los deep fakes podrían usarse como una táctica en línea, Sithlou estuvo de acuerdo y dijo: "El troleo concertado condujo a un caso policial real presentado en mi contra por mis tweets". Cuando se le preguntó si esto podría significar que el uso de deep fakes generados por IA era una posibilidad, respondió: "Por la forma en que les está sucediendo a otros periodistas, es más probable que sea inevitable".
En un giro notable de los acontecimientos, el Tribunal Supremo llevó a cabo un proceso penal contra Sithlou después de que Kapil Sibal, un abogado de alto perfil, compareciera en su nombre. Su situación subraya la necesidad de acceso a ayuda legal, un privilegio que no tienen muchos periodistas Indígenas. Sitlhou comentó: "Tuve la suerte de tener fácil acceso a buenos abogados de la Corte Suprema porque estoy bien conectado con la gente de Delhi. Pero en el caso de los periodistas de base, deben estar en contacto regular con sus editores y sindicatos de periodistas y mantenerlos informados sobre las amenazas que están recibiendo".
Mia Magdalena Fokno después de presentar un caso contra su trol, Renan Padawi.
Otra historia de triunfo personal sobre la injusticia sistémica y la importancia de llevar adelante el litigio es la de la periodista Indígena y verificadora de hechos Mia Magadelna Fokno (Kankanaey), que ganó un caso de misoginia cibernetica contra un trol en Filipinas. Mia subrayó la necesidad de construir espacios seguros en línea y el acceso a la asistencia legal, diciendo: "El acceso a espacios seguros y servicios legales es crucial para las mujeres Indígenas, especialmente las periodistas, que enfrentan ataques en línea. La victoria judicial contra el acoso sexual en línea por motivos de género es un triunfo significativo para los derechos de las mujeres. Este fallo envía un fuerte mensaje contra el uso de la tecnología para aterrorizar e intimidar a las víctimas a través de amenazas, comentarios sexuales no deseados y la invasión de la privacidad. Este caso histórico...subraya la importancia de los recursos legales en la lucha contra el acoso en línea. Esta victoria es un paso hacia la creación de entornos físicos y en línea más seguros para todos, en particular para las mujeres Indígenas y las periodistas, que a menudo son objeto de ataques. Dejemos que este caso inspire a quienes han sufrido acoso sexual a buscar justicia y apoyarse mutuamente para fomentar espacios seguros para todos".
Los testimonios y los relatos de primera mano de reporteros Indígenas son fundamentales para desafiar el discurso dominante y sus sesgos narrativos deshumanizantes contra los Pueblos Indígenas, lo que ha preparado el escenario para genocidios culturales y materiales, algo de lo que los Pueblos Indígenas están demasiado al tanto, ya que han sido reducidos a tropas para adaptarse a la propaganda insidiosa durante siglos. La tecnología en manos de comunidades sobrerrepresentadas difunde estas narrativas y metáforas dañinas a una escala y velocidad alarmantes, particularmente en los territorios Indígenas, que a menudo son zonas fuertemente militarizadas.
Mia Magdalena Fokno después de presentar una demanda contra su trol, Renan Padawi.
"Como verificador de datos con sede en la ciudad de Baguio, Filipinas, reconozco la evolución del panorama del periodismo en la era de la IA", dijo Fokno. La aparición de sofisticadas herramientas de IA ha amplificado la propagación de la desinformación, lo que presenta desafíos únicos que requieren habilidades especializadas para abordarlos. Los periodistas, especialmente los que se ocupan de las comunidades Indígenas y las cuestiones de derechos humanos, necesitan una formación específica para discernir y combatir eficazmente la desinformación generada por la IA. Esta capacitación es vital para mantener la integridad de la información, una piedra angular de nuestra democracia y preservación cultural, particularmente en áreas como el norte de Luzón, donde las narrativas locales y las voces Indígenas son fundamentales. La necesidad de que los verificadores de datos se adapten y evolucionen con estos avances tecnológicos es más crucial que nunca".
Una inmersión más profunda en los grandes modelos de lenguaje revela la falacia de las grandes tecnológicas y la IA. Los grandes modelos lingüísticos (modelos de aprendizaje automático que pueden comprender y generar texto en lenguaje humano) están diseñados no solo para responder a la lingua franca, sino también a las creencias, sesgos y culturas más arraigados, dejando fuera a cualquiera que no esté adecuadamente representado en estos conjuntos de datos y, por lo tanto, solo será representativo de aquellos que tengan acceso a las redes sociales, capital económico, cultural y alfabetización y presencia digital.
Una imagen que publiqué recientemente en Facebook de Taylor Swift de pie junto a alguien que llevaba un símbolo de la esvástica nazi en su camiseta fue eliminada porque iba en contra de las normas de la comunidad y dio lugar a restricciones de perfil. Al solicitar una revisión de la imagen, Facebook me envió una notificación en la que indicaba que podía apelar su decisión ante la junta supervisora, un grupo de expertos reclutados para generar transparencia en la forma en que se modera el contenido. Pero ¿qué tan factible es eso, dado el gran volumen de casos que se generan diariamente? Y lo que es más importante, ¿qué tipo de casos entre los miles, sino millones, que están marcados llegan a la mesa de revisión final? Si los bots no pueden diferenciar el problema a nivel de origen o leer la intención detrás de compartir una imagen problemática, ¿se puede esperar que piensen críticamente como muchos creen que la IA será capaz de hacer?
Dada esta falta de matices existentes, la IA, en pocas palabras, perpetuará los estándares occidentales o neocoloniales de belleza y prejuicios con un contexto localizado limitado. La falta de datos significa la falta de personas. Con ChatGPT, por ejemplo, existe una posibilidad real de pérdida en la traducción entre lo que solicita el usuario y lo que entiende el aprendizaje automático y los resultados que genera. El robo intelectual del arte, los motivos y las técnicas Indígenas para la apropiación de la cultura y la identidad indígenas por parte de las comunidades dominantes significa que los sitios web de comercio electrónico y las tiendas de alta costura estarán repletas de conocimientos Indígenas robados.
Ilustración de Tufan Chakma. Derecha: Tufan Chakma con su arte y su familia.
Con la llegada de Dall E, que puede crear arte a partir de indicaciones de texto, los artistas Indígenas como Tufan Chakma son aún más vulnerables a la infracción de los derechos de autor, algo a lo que no es ajeno. "Me enfrenté a eso demasiadas veces", menciona. "La acción que tomé en contra fue escribir una publicación en Facebook. También me puse en contacto con aquellos que habían utilizado mi obra de arte sin mi permiso". La única protección que recibe es la de sus seguidores en línea que señalan el mal uso de sus obras de arte. Agregó que el plagio ocurre con las obras de arte digitales porque es un negocio lucrativo para convertir en productos comerciales como camisetas y otras mercancías.
Arte por Tufan Chakma. Cortesía de Tufan Chakma.
Aparte de la pérdida de ingresos potenciales, el impacto más profundo del plagio en el artista, según Chakma, es que "el plagio puede desmotivar a cualquiera que esté creando arte para comprometerse críticamente con la sociedad". La obra de Chakma es política y crea conciencia a través de la expresión artística sobre la difícil situación de las comunidades Indígenas de Bangladesh. ¿Puede la IA generar arte que diga la verdad al poder a la manera de un artista que, como Chakma, busca cambiar el mundo para mejor? ¿Será capaz la IA de entender las dinámicas de poder y generar arte que vea la injusticia y los prejuicios históricos?
La identidad Indígena está codificada en nuestra vestimenta tejida con motivos llenos de significado, intrínsecos a nuestros códigos morales, valores fundamentales y nuestra relación con la naturaleza y el cosmos, un vínculo tangible con nuestros antepasados. Iniciativas como el marco IKDS y el Navegador Indígena reconocen la necesidad de que los Pueblos Indígenas posean y administren los datos que recopilamos y nos refuercen como sus legítimos propietarios para gobernarnos a nosotros mismos, nuestras tierras, territorios y recursos. Rojieka Mahin, Coordinadora de la Unidad de Relaciones Locales e Internacionales de PACOS Trust, dijo: "Es esencial reconocer el impacto (de la Soberanía de Datos de Conocimiento Indígena) en todos los Pueblos Indígenas, en particular en las mujeres y los jóvenes Indígenas. IKDS encarna un compromiso con el aprendizaje, la inclusión y la mejora de la gobernanza del conocimiento Indígena y la soberanía de los datos. Este enfoque no solo mantendrá informada a nuestra comunidad, sino que también los empoderará para compartir sus experiencias con otros, subrayando la importancia de establecer protocolos comunitarios dentro de sus aldeas. Además, mejorará el aprecio de la comunidad por su conocimiento Indígena, especialmente cuando se trata de transmitirlo a la generación más joven".
En última instancia, las grandes empresas tecnológicas son la colonización en código sofisticado. Teléfonos inteligentes, hogares inteligentes, ciudades inteligentes: la atención se centra en la eficiencia y la productividad. Pero dada la prisa por hacer más, corremos el peligro de perder nuestra humanidad. La realidad es que pronto seremos superados por la IA si no estamos atentos.
Nina Sangma (Garo) es defensora de los derechos Indígenas y coordinadora del Programa de Comunicaciones del Pacto de los Pueblos Indígenas de Asia.