En el mes de septiembre de 2012 deberƔn presentar el software desarrollado en Roma.

Se presentaron 21 equipos, pero sólo tres lograron llegar a la segunda etapa del concurso. Uno se llevó el primer premio. El sistema ganador fue presentado por investigadores de San Luis, EspaƱa y MĆ©xico que colaboran en el marco del proyecto Web Information Quality – Evaluation Initiative (WIQ-EI). En el mes de septiembre de 2012 deberĆ”n presentar el software desarrollado en Roma.

ĀæQuiĆ©n alguna vez no buscó algo de historia, geografĆ­a o literatura en la web? ĀæO quizĆ”s el significado de alguna palabra? ĀæO la explicación de un suceso? ĀæQuiĆ©n alguna vez no recurrió a la información de internet o bien a datos provenientes de Wikipedia? Muchos de quienes estamos leyendo esta nota lo hemos hecho e incluso confiado en que lo que nos estĆ” diciendo ā€œla enciclopediaā€ es lo correcto.

Lo cierto es que si bien Wikipedia es una enciclopedia en línea que es generada por los usuarios y todos podemos contribuir aportando nuestros saberes, existen profesionales de distintas Ôreas de las nuevas tecnologías de la información y la comunicación que buscan día a día mejorar la calidad de la información que ésta contiene.

Uno se pregunta cómo se hace para controlar todo ese conjunto de datos que circulan por la red y particularmente por Wikipedia. Según los expertos en el tema, el mayor problema radica en que al no tener la suficiente capacidad para controlar lo que los usuarios generan, se sube a Wikipedia material que no cumple con formatos establecidos y que alguno hasta llega a ser incompleto o incorrecto.

Frente a estas fallas surge la necesidad de generar sistemas que detecten estas falencias automƔticamente, para que las personas que trabajan en el mantenimiento de Wikipedia tengan listados completos de errores y se concentren directamente sobre los mismos con el fin de resolverlos.

Investigadores del Departamento de InformÔtica de la Facultad de Ciencias Físico MatemÔticas y Naturales de la Universidad Nacional de San Luis, forman parte del proyecto europeo Web Information Quality-Evaluation Initiative (WIQ-EI) integrado por universidades europeas y latinoamericanas que han comenzado a trabajar en el desarrollo de algoritmos y métodos inteligentes para medir la calidad de la información en contenidos web semi-estructurados o totalmente desestructurados. Es un equipo que ya lleva un año y medio de trabajo.

Edgardo Ferretti y Marcelo Errecalde de San Luis, junto a Manuel Montes y Gómez del Departamento de Ciencias Computacionales del Instituto Nacional de AstrofĆ­sica, Ɠptica y Electrónica de MĆ©xico; Paolo Rosso del Departamento de Sistemas InformĆ”ticos y Computación de la Universidad PolitĆ©cnica de Valencia, EspaƱa, y Donato HernĆ”ndez Fusilier y Rafael GuzmĆ”n Cabrera de la División de IngenierĆ­a Campus Irapuato-Salamanca de la Universidad de Guanajuato, MĆ©xico, participaron de un concurso organizado por Bauhaus UniversitƤt Weimar (universidad alemana) y obtuvieron el primer premio, siendo su trabajo el ganador frente a una competencia que comenzó con 21 competidores y que sólo llegaron a la segunda etapa tres equipos quienes disputaron el galardón mayor.

El sistema desarrollado estÔ categorizado como de aprendizaje no supervisado. Es un software que clasifica y detecta pÔginas que puedan tener una cierta falla de calidad (entendida como el no cumplimiento de estÔndares establecidos para poder contribuir con material en Wikipedia) de las que no tienen. El sistema predice automÔticamente si una pÔgina tiene falla o no, lo que posibilita un mejor desempeño de los editores estables de Wikipedia lo que conlleva finalmente brindar información de mejor calidad a los usuarios.

Este sistema implementado es una propuesta que no estĆ” operativo actualmente en la web, que los
investigadores presentaron en el concurso ā€œQuality Flaw Prediction in Wikipediaā€ (concurso internacional de calidad de información en Wikipedia) organizado en el contexto del Conference and Labs of the Evaluation Forum (CLEF), en el marco del laboratorio PAN – Uncovering Plagiarism, Authorship, and Social Software Misuse.

ā€œTenemos proyección a futuro, ese es nuestro objetivoā€, comentaron los profesionales apuntando a que esperan que en el futuro este software pueda estar operativo como un bot (software automĆ”tico que realiza alguna tarea de mantenimiento) de Wikipedia y logre etiquetar las fallas que detecte y a su vez determinar quĆ© falla se ha encontrado para que luego el editor encargado puede corregirlas.

ā€œDesde su creación en enero del 2001 hasta la actualidad, Wikipedia es motivo de continua investigación en diferentes disciplinas acadĆ©micas. En particular, en el contexto de la calidad de información en Wikipedia la mayorĆ­a de la investigación realizada aborda la discriminación de featured articles, es decir aquellos artĆ­culos que respetan los estĆ”ndares de calidad, de aquellos que no lo sonā€, comentaron.

Con todas las expectativas puestas en el mes de septiembre, fecha en que deberÔn viajar a Roma para presentar y defender el trabajo, el grupo multinacional continúa trabajando en el desarrollo de nuevas propuestas y mejoras de problemas que cotidianamente se presentan en el Red de redes.