
A 25 años de su creación, Wikipedia atraviesa una de las etapas más complejas de su historia. En un entorno marcado por la desinformación, la polarización digital y el avance acelerado de la inteligencia artificial generativa, la enciclopedia libre refuerza su modelo humano y colaborativo para sostener su relevancia y credibilidad.
Durante sus primeros años, Wikipedia enfrentó un escepticismo similar al que hoy rodea a las herramientas de IA: se le acusaba de falta de rigor y de ser poco confiable para el ámbito académico. Con el paso del tiempo, la plataforma consolidó un sistema editorial basado en neutralidad, verificación y transparencia.
El papel de Wikipedia en la era de la IA
De acuerdo con Constanza Sciubba, líder de la estrategia contra la desinformación en la Fundación Wikimedia, Wikipedia no busca competir como fuente primaria ni como espacio de opinión.
Su función es la de una fuente terciaria: recopilar, ordenar y referenciar información proveniente de medios y estudios confiables, bajo normas estrictas de neutralidad y trazabilidad. Cada afirmación debe estar respaldada por fuentes externas verificables y reconocidas.
Un modelo basado en la comunidad
El sistema descansa sobre una red global de más de 250,000 voluntarios que editan, corrigen y debaten el contenido. Cada cambio queda registrado públicamente, lo que permite auditar en tiempo real la evolución de cualquier artículo.
Las llamadas páginas de discusión son clave en este proceso. En ellas, los editores debaten hasta alcanzar consensos sobre temas controvertidos, lo que permite a los lectores conocer no solo el resultado final, sino también el razonamiento editorial detrás de cada decisión.
En México, entre enero de 2024 y noviembre de 2025, Wikipedia registró más de 200 millones de visitas mensuales en promedio, con más de 2,300 colaboradores activos al mes, según datos de la Fundación Wikimedia.
La IA como aliada, no como sustituto
Frente al auge de los modelos de lenguaje generativo, Wikipedia ha optado por integrar herramientas automatizadas sin renunciar al control humano. Bots y sistemas de detección ayudan a identificar lenguaje abusivo, vandalismo o referencias a fuentes no confiables.
Sin embargo, la validación final siempre recae en una persona. Mantener a los humanos “en el ciclo” es una regla central para evitar errores automatizados, sesgos algorítmicos o la propagación de información falsa.
El reto financiero y la sostenibilidad
La defensa del modelo humano también tiene un costo. Wikipedia opera como una organización sin fines de lucro que rechaza la publicidad y el uso comercial de datos personales, financiándose principalmente mediante donativos.
Aunque el número de donaciones ha crecido, el monto promedio ha disminuido. En el ejercicio fiscal 2024-2025, la Fundación Wikimedia recaudó más de 184 millones de dólares con aportaciones promedio de 10 dólares, muy por debajo de los niveles registrados en sus primeros años.
A esto se suma que los editores voluntarios no reciben compensación económica, pese a que su labor implica riesgos como acoso digital. Su permanencia depende, en gran medida, del compromiso cívico y la confianza en el valor del conocimiento abierto.
FUENTE: https://revistacirculorojo.com/
Debe estar conectado para enviar un comentario.