Especialmente si eres una entidad no lucrativa. La inteligencia artificial ya no es algo lejano ni reservado solo a empresas. Está en el dÃa a dÃa de muchas organizaciones sociales. La usamos para escribir, ordenar ideas, resumir documentos o ganar tiempo cuando faltan recursos, algo bastante habitual. Esto, en sà mismo, no es un problema. Lo complicado empieza cuando olvidamos que la IA no piensa, no entiende contextos y no tiene criterio ético.
La IA aprende de datos generados por personas y organizaciones y, si no se aplican filtros humanos conscientes, tiende a amplificar desigualdades ya existentes en lugar de corregirlas. En el ámbito social esto tiene consecuencias claras. Migrantes representados de forma sistemática como amenaza o carga. Personas beneficiarias infantilizadas. Infancias convertidas en imágenes estereotipadas que simplifican realidades complejas. Cuando una IA reproduce estos enfoques, no lo hace por azar. Los reproduce porque forman parte de los discursos que circulan de manera habitual y que asumimos sin someterlos a revisión crÃtica. Al aceptar sin cuestionar los resultados que nos devuelve una IA, contribuimos a consolidar esos mismos sesgos.
Como señala Ariadna Font, experta en IA y defensora de la IA responsable, "los usuarios somos responsables de evitar que la IA perpetúe sesgos y estereotipos". Por eso conviene insistir en algo básico: La responsabilidad final no es tecnológica, es humana. Ningún algoritmo decide cómo contamos una historia, a quién damos voz o qué dejamos fuera. La IA puede ser una ayuda para pensar, pero no deberÃa sustituir el proceso de reflexión. Cuando lo hace, el riesgo no es solo comunicativo, es social.
En el trabajo cotidiano de una entidad hay tareas donde la IA es claramente útil, pero hay lÃmites claros que no deberÃan cruzarse. No se puede delegar en un robot la definición del enfoque de una campaña, los mensajes clave, los posicionamientos públicos o la validación de datos sensibles. Tampoco la forma en que se representa a las personas con las que se trabaja. Eso exige criterio, experiencia y responsabilidad.
Existen ejemplos de buen uso que lo demuestran. Iniciativas como AI for Impact en Suecia aplica la IA a retos concretos junto a organizaciones como UNICEF Suecia o Cruz Roja, siempre con supervisión humana. Rainforest Connection utiliza algoritmos para detectar deforestación ilegal y proteger ecosistemas. Son proyectos con propósito, no soluciones automáticas.
La cuestión no es si usar o no inteligencia artificial en nuestras organizaciones. La cuestión es cómo, para qué y desde qué valores. Porque la tecnologÃa no corrige desigualdades por sà sola. Somos las personas quienes decidimos si las cuestiona o las perpetúa.