COMPROMISO EDUCATIVO Y SOCIAL

BLOG FUNDACIÓN PERE TARRÉS

Inteligencia artificial en el tercer sector: entre la oportunidad y la responsabilidad colectiva

Inteligencia artificial en el tercer sector: entre la oportunidad y la responsabilidad colectiva

Ares Cruz
Técnica de proyectos en Consultoría y Estudios
Ver todos los artículos

19.01.26

Lo que las entidades sociales estamos aprendiendo mientras exploramos un nuevo territorio tecnológico.

La inteligencia artificial (IA) ha pasado, en pocos años, de ser un concepto lejano a convertirse en una herramienta presente en todas las capas de nuestra vida cotidiana: la educación, la salud, las empresas y, cada vez más, el tercer sector. Sin embargo, su aterrizaje en las entidades sociales es todavía reciente, gradual y cargado de matices. La jornada “La IA aplicada a las entidades sociales”, del pasado 26 de noviembre, ofreció una fotografía precisa del momento actual: un sector movido por la curiosidad y la voluntad de avanzar, pero también por las preguntas legítimas, los dilemas éticos y la necesidad de un acompañamiento profesionalizado.

Durante la jornada se presentaron los primeros resultados de una encuesta en 47 entidades sociales. El diagnóstico está claro: la mayoría de las organizaciones se encuentran todavía en fase exploratoria. Ya utilizan asistentes virtuales, herramientas de automatización administrativa o sistemas de clasificación documental, pero la IA todavía no se ha integrado de forma sistemática en una estrategia institucional que aborde temas como los siguientes:

  • La gestión documental, mediante la clasificación automática, la indexación de archivos o la generación de resúmenes operativos.
  • El análisis de datos, con usos orientados a la identificación de patrones, la explotación básica de indicadores y el apoyo a la toma de decisiones.
  • La comunicación con personas usuarias, especialmente en respuestas automatizadas, derivaciones iniciales o mejoras en la accesibilidad lingüística.

Esta fase exploratoria es comprensible, pero también reveladora. Cuando la incorporación de la IA depende principalmente de iniciativas individuales o de usos puntuales, aparecen desigualdades internas, carencia de criterio compartido y riesgos difíciles de detectar. En un sector que trabaja con personas en situación de vulnerabilidad, esta fragmentación no es menor: puede derivarse en prácticas incoherentes, dependencias tecnológicas o decisiones poco alineadas con la misión social de las entidades.

El interés creciente por la IA convive con preocupaciones compartidas: el cumplimiento del RGPD, la calidad y trazabilidad de los datos, la falta de formación interna o el temor a que la tecnología sustituya el acompañamiento humano. Estas inquietudes apuntan a una idea clave: el potencial de la IA no es automático.

Sin criterios claros, protocolos internos y capacidad crítica, lo que podría mejorar procesos puede acabar generando una falsa sensación de eficiencia o introduciendo nuevos riesgos. La cuestión central no es qué herramientas se utilizan, sino en qué condiciones y con qué marco de responsabilidad. 

La mesa de expertos, con Xavier González Rodrigo y Francina Solé-Mauri, profundizó en una pregunta clave: ¿cómo debe incorporarse la IA en entidades que trabajan con derechos, vulnerabilidad y servicios esenciales?

Sus aportaciones hicieron hincapié en la doble cara de la IA: las oportunidades técnicas y los imperativos éticos. Los algoritmos no son neutrales y pueden reproducir desigualdades, ya sea a través del sesgo de los datos, del denominado “colonialismo de datos” o de dinámicas de excesiva vigilancia. Esta advertencia tiene consecuencias directas para el tercer sector: no es aceptable una adopción acrítica de sistemas opacos en contextos en los que el error puede tener un impacto directo sobre las personas.

Asumir esta complejidad implica dotarse de gobernanza real, formación adecuada y mecanismos de supervisión que vayan más allá del cumplimiento normativo. El éxito no está en la potencia técnica de las herramientas, sino en el equilibrio entre eficiencia, protección de derechos y dignidad humana.

La mesa de entidades, con la participación de Educo, UNICEF España, FATEC y Oxfam Intermón, permitió aterrizar el debate en experiencias concretas. Pese a las diferencias de tamaño, estructura o misión, todas coincidieron en tres ideas fundamentales: la necesidad de disponer de políticas claras de uso responsable, la importancia de la formación interna y la conveniencia de adoptar una mirada crítica y prudente.

Este consenso no es anecdótico. Apunta a una convicción compartida: la IA no soluciona desigualdades estructurales, pero puede contribuir a mejorar procesos, liberar tiempo y llegar mejor a colectivos vulnerables si se utiliza de forma rigurosa, ética y alineada con la misión social.

Más allá de los datos y experiencias, la jornada dejó un mensaje de fondo: la IA no puede abordarse como una moda ni como una amenaza: es un reto colectivo que exige conversación, criterio y corresponsabilidad. Requiere de una conversación colectiva y constante sobre límites, impactos y oportunidades. La inteligencia artificial, usada con criterios claros, puede liberar tiempo y mejorar procesos, pero nunca sustituirá el vínculo humano, la escucha o el juicio profesional.

Hoy, el sector social está en un momento decisivo. Tiene la oportunidad de definir cómo quiere que la tecnología contribuya a su misión: no desde la improvisación, sino desde la ética, la gobernanza y la responsabilidad. Y tiene también el reto de garantizar que la adopción tecnológica no profundice desigualdades, sino que contribuya a reducirlas y sea una herramienta al servicio de la inclusión.

En definitiva, la verdadera innovación no está en los algoritmos, sino en la capacidad del sector de decidir cómo quiere relacionarse con la tecnología, sosteniendo espacios de reflexión, formación y aprendizaje compartido y sin renunciar a su esencia: la defensa de derechos, la dignidad de las personas y una acción social comprometida con la inclusión y la justicia social.

Comparte el artículo

Etiquetas