

Inteligencia Artificial, bajo la lupa
Por EFRAÍN TZUc
TIPS
4 de marzo de 2026
La Inteligencia Artificial Generativa se ha colado en cada aspecto de nuestras vidas: usamos Chat GPT para pedirle recomendaciones de recetas de comidas al tiempo que gobiernos como el de Estados Unidos utilizan Grandes Modelos de Lenguaje con fines bélicos. Estas tecnologías —y la industria que las promueve— desembolsan millones de dólares para hacerse de los recursos en donde instalar sus masivos centros de datos y detener regulaciones que perjudican sus negocios. El reto para el periodismo investigativo es inmenso: ¿cómo hacemos rendir cuentas a los gigantes tecnológicos? ¿cómo explicamos a nuestras audiencias sobre los sesgos, el funcionamiento y los impactos de estas complejas —y populares— tecnologías?
Estas y más preguntas se pusieron sobre la mesa en la Conferencia Global de Periodismo de Investigación —auspiciada por la Red Global de Periodismo de Investigación (GIJN, por sus siglas en inglés)— que se llevó a cabo en Kuala Lumpur, la capital de Malasia, el pasado mes de noviembre. Uno de los ejes temáticos estelares e ineludibles fue los impactos que la Inteligencia Artificial Generativa (IAG) tiene en el mundo y cómo el periodismo investigativo está poniéndolos bajo la lupa.
Hablar de IAG es hablar de una de las industrias con mayor crecimiento en el mundo. Los costos de que los modelos que han lanzado al público las empresas tecnológicas, como Chat GPT, Gemini, Calude o Copilot, sean tan ampliamente accesibles son enormes: daño ambiental por la construcción de masivos centros de datos, nuevas formas de violencia digital, problemas de salud mental en jóvenes, campañas de desinformación que, incluso, han influenciado elecciones presidenciales, entre otros.
“En última instancia [la IAG], supone un gran beneficio para un grupo muy pequeño de personas en la cima de la sociedad”, aseguró la periodista de investigación Karen Hao, autora del libro “Imperio de la IA”, en un diálogo con Gina Chua, directora de Tow-Knight Center de la Universidad de la Ciudad de New York, durante la conferencia global.
Hao y otros periodistas de investigación como José Luis Peñarredonda (El CLIP), Athandiwe Saba (Code for Africa), Jasper Jackson (Transformer), Christo Buschek (periodista freelance), Lam Thuy Vo (Documented) y Gabriel Geiger (Lighthouse Reports) presentaron a una audiencia de cientos de sus colegas de más de 130 países cómo investigar a la industria tecnológica de la IAG y sus efectos en el medio ambiente, las comunidades y la democracia misma.
Cubrir este tema, coincidieron los especialistas en diversos paneles, talleres y conferencias, requiere entender la cadena de valor de esta industria, cómo funcionan las tecnologías que comprenden la Inteligencia Artificial Generativa y cuáles son sus impactos.
En el panel “La paradoja de la IA: herramienta de las redacciones y objetivo de investigación”, la periodista sudafricana, Athandiwe Saba, de Code for Africa, advirtió que los y las periodistas no estamos haciendo las conexiones entre la IAG y sus efectos en contextos específicos. Saba tomó como ejemplo el caso de Johannesburgo y Cape Town, ciudades en su país que atraviesas escasez de agua y problemas para el suministro de energía eléctrica, pero en las que se están construyendo enormes centros de datos:
“No estamos preguntando por qué Microsoft quiere invertir 100 millones de rands (aproximadamente, 6.2 millones de dólares) en Sudáfrica. ¿Cómo se ve el lobbying? ¿Qué significa para una persona ordinaria que queremos que lea la historia y, entonces, tome mejores decisiones sobre sus representantes en el parlamento”.
La Inteligencia Artificial Generativa como una cadena de valor
En el panel “Agrietando la caja negra: investigando algoritmos”, los ponentes conversaron en torno a cinco perspectivas relacionadas con los algoritmos detrás de los Grandes Modelos de Lenguaje: el trabajo, la propiedad intelectual, la vigilancia, los sesgos de los algoritmos que pueden generar discriminación y la calidad de los datos que alimentan a estas tecnologías.
Por ejemplo, el periodista Jasper Jackson, editor en jefe de la publicación especializada en temas de IA, Transformer, y anterior editor de tecnología del Buró de Periodismo de Investigación, una organización basada en Londres, expuso sobre un trabajo del Buró en el que se reveló cómo una serie de empresas participaban de la comercialización o contratación de personas para la revisión y etiquetado de imágenes o para enviar fotos suyas sin saber que estos trabajos servirían para el entrenamiento de una tecnología de identificación facial que fue integrada al sistema de videovigilancia que el gobierno ruso tiene en varias ciudades de ese país y con el que se ha intimidado o iniciado investigaciones contra opositores del Kremlin.


Captura de pantalla de la presentación del panel Cracking the black box: investigating algorithms en la Conferencia Global de Periodismo de Investigación 2025.
Otras investigaciones que se han enfocado en la perspectiva de los trabajadores han revelado como OpenAI subcontrató a una empresa tencológica estadounidense que terminó pagando no más de 2 dólares por hora a trabajadores en Kenia para revisar textos relacionados con abuso sexual infantil, asesinatos, suicidios, tortura, etc., con el fin de entrenar a su modelo de IA, ChatGPT y evitar que estos contenidos lleguen a los usuarios.
En el mismo panel, Gabriel Geiger, de Lighthouse Reports, una organización sin fines de lucro que ha colaborado en proyectos periodísticos con redacciones en varios países, presentó una investigación en alianza con el periodico sueco Svenska Dagbladet sobre algoritmos utilizados por la Agencia de Seguro Social de Suecia que pretendía predecir si una persona cometería fraude. Para la investigación, los periodistas obtuvieron una base de datos con más de 6 mil casos de personas que serían investigadas con el algoritmo y lograron concluir este discriminaba a mujeres, personas migrantes, con bajos ingresos o sin educación universitaria.
Investigaciones similares son el reportaje pionero de ProPublica, una organización estadounidense de periodismo investigativo, que reveló los sesgos contra las personas afroestadounidenses de un algoritmo diseñado para predecir la posibilidad de que una persona con antecedentes delictivos cometa nuevamente algún crimen.
En años recientes, otras redacciones como The Markup, Bloomberg, Proofnews y Civio han investigado sesgos raciales y de género, entre otros, de algoritmos incorporados en Grandes Modelos de Lenguaje que tienen que ver con créditos hipotecarios, información relacionada a reglas en procesos electorales (como, por ejemplo, si se puede votar por mensaje de texto o acudir a las urnas con propaganda partidista), reclutamiento laboral y elegibilidad para ayudas sociales.
En la región, el Centro de Investigación Periodística de Latinoamérica (CLIP), publicó el especial “La mano invisible de las Big Tech” en el que indagó sobre los impactos de la construcción de centros de datos masivos en Brasil, Chile y México, y el lobby de la empresas tecnológicas para evitar regulaciones sobre desinformación, compensación a medios de comunicación por utilizar su contenido y protección de la salud mental de niños y niñas.
“El asunto de los centros de datos me parece que es muy como ‘la historia Americana’. En términos generales, es más o menos la misma historia de las compañías bananeras de principios del siglo XX y las compañías de caucho antes de eso, que era una gran compañía extranjera que incursionaba en el territorio, sacaba todos los recursos y dejaba poco a la gente que vivía ahí”, explicó José Luis Peñarredonda, uno de los periodistas que participaron en la investigación de El CLIP.
¿Cómo empezar a investigar a la industria de la IAG y sus efectos?
Para el colombiano Peñarredonda, investigar a la industria detrás de los principales Grandes Modelos de Lenguaje no es tan diferente a investigar otros productos tecnológicos. En el panel, “La paradoja de la IA: herramienta de las redacciones y objetivo de investigación” —que compartió con las periodistas Karen Hao y Athandiwe Saba—, el periodista de El CLIP sugirió indagar en los impactos de estas tecnologías y en las narrativas que buscan posicionar.
“Las cuestiones que deberían preguntar sobre la IA son las que deberían preguntar sobre otra industria tecnológica y sobre cualquier otro producto tecnológico: ¿cómo se manejan los datos? Si viene la policía, ¿qué pasa? Cuestiones como esas. ¿Es suficientemente privada? ¿Es suficientemente segura?”, expuso Peñarredonda.
En el mismo espacio, la autora Karen Hao comentó que, cuando ella empezó a investigar sobre la IAG, le fue útil leer artículos científicos y ver videos de Youtube para entender el vocabulario e identificar qué debía indagar después.


Karen Hao, periodista y autora, expuso que las personas que dirigen los “imperios de IA” toman decisiones que afectan a millones de personas sin ningún tipo de gobernanza o responsabilidad. Fotografía: Efraín Tzuc
“Había muchas cosas en YouTube. Es, de verdad, un gran lugar para aprender. Hay muchos investigadores de IA influencers que dedican horas a desmenuzar temas que son relevantes para sus investigaciones”. Hao compartió que revisar este tipo de materiales le ayudó a sentirse menos intimidada a investigar el tema.
Además, la periodista resaltó que es posible empezar a investigar la IAG desde cualquier ángulo temático: el medio ambiente, la salud o la educación; no tendría que ser a partir del conocimiento técnico de cómo funcionan estos modelos.
“Esto va a ser muy, muy crucial para agregar al repositorio de reporteo de todos estos diferentes tipos de historias que necesitamos para cubrir la IA como un fenómeno desde un ángulo de 360 grados”, aseguró Hao.
El Centro Pulitzer, una organización basada en Washington, Estados Unidos que busca que historias complejas sean relevantes y promuevan la acción del público, creó la serie Spotlight AI, un curso para que los periodistas se introduzcan en la cobertura de la Inteligencia Artificial Generativa: cómo funciona, cómo es la industria que la impulsa y los impactos que genera. El curso fue diseñado por periodistas pioneros en esta cobertura como la propia Karen Hao, Lam Thuy Vo y Gabriel Geiger, entre otros.
“Si buscas en Google ‘Pulitzer Center AI Spotlight series’, puedes ver todos los videos que hemos preparado. No necesitas nada más que eso. Hay un módulo de prácticamente 30 minutos que te da todo el conocimiento técnico que necesitas [...] tendrás la confianza de saber que puedes ser un reportero de AI”, aseguró Hao.
Para conocer más sobre las conferencias, conversaciones, paneles y talleres de la 14 edición de la Conferencia Global de Periodismo de Investigación, puedes revisar las presentaciones y hojas de tips aquí. Si quieres conocer más sobre el panel “Agrietando la caja negra: investigando algoritmos”, en el que participaron Jasper Jackson, Gabriel Geiger, Lam Thuy Vo Y Karol Ilagan, esta última, jefa del departamento de periodismo de la Universidad de Filipinas en Diliman, puedes leer esta historia.
Fotografía de portada: En la 14 Conferencia Global de Periodismo de Investigación, la primera en Asia, se abordó una paradoja para el periodismo en el mundo: ¿cómo investigamos una tecnología, la IA, que está siendo una de las principales herramientas para nuestra labor. Imagen tomada de la página de Facebook de la Red Global de Periodismo de Investigación.


Súmate a la comunidad de Quinto Elemento Lab
Suscríbete a nuestro newsletter
Donantes
Open Society Foundations
Ford Foundation
William and Flora Hewlett Foundation
The Reva and David Logan Foundation
Fondation CHANEL
The GroundTruth Project
Silicon Valley Community Foundation
Google LLC
Heinrich-Böl-Stiftung Foundation
Brot für die Welt
Christensen Fund
El Paso Community Foundation
El Quinto Elemento, Laboratorio de Investigación e Innovación Periodística A.C. es una organización sin fines de lucro.
Dirección postal
Medellín 33
Colonia Roma Norte
CDMX, C.P. 06700

