Bibtex de la publication

@InProceedings{ CaHuBoCh2010.2,
author = {Cabanac, Guillaume and Hubert, Gilles and Boughanem, Mohand and Chrisment, Claude},
title = "{Impact du « biais des ex aequo » dans les évaluations de Recherche d'Information (regular paper)}",
booktitle = "{Conférence francophone en Recherche d'Information et Applications (CORIA), Sousse, Tunisie, 18/03/2010-20/03/2010}",
year = {2010},
month = {mars},
publisher = {Centre de Publications Universitaires},
address = {http://www.mes.tn/cpu/},
pages = {83--98},
language = {français},
URL = {http://www.irit.fr/publis/SIG/2010_CORIA_CHBC.pdf},
keywords = {SIGRI fr@ SIGEVI Recherche d'information, évaluation, expérimentation, biais expérimental, Information retrieval, measurement, experiment, uncontrolled parameter, SIGEVI},
note = {Taux de sélection : 22,9 % (17/74 soumissions).},
abstract = {Cet article considère la problématique de l'évaluation en Recherche d'Information, en particulier dans le cadre de Trec avec le programme trec_eval. Nous montrons que les systèmes de RI ne sont pas uniquement évalués en fonction de la pertinence des documents qu'ils restituent. En effet, dans le cas de documents ex aequo (trouvés avec le même score) leur nom est utilisé pour les départager. Nous assimilons cette façon de départager les \emph{ex aequo} à un biais expérimental qui influence les scores attribués aux systèmes, et argumentons en faveur d'une stratégie pour les départager plus équitablement. L'étude de 22 éditions de Trec révèle une différence significative entre la stratégie conventionnelle et inéquitable de trec_eval et les stratégies équitables proposées. Ces résultats expérimentaux suggèrent l'intégration des stratégies proposées dans trec_eval afin d'encourager la réalisation d'expérimentations plus équitables. We consider Information Retrieval evaluation in the Trec framework with the trec_eval program. It appears that IR systems obtain scores regarding not only the relevance of retrieved documents, but also according to document names in case of ties, i.e., documents retrieved with a same score. We consider this tie-breaking strategy as an uncontrolled parameter influencing measure scores, and argue the case for fairer tie-breaking strategies. A study of 22 Trec editions reveals significant difference between the conventional unfair trec_eval strategy and the fairer strategies that we propose. This experimental result advocates integrating these fairer strategies into trec_eval for conducting fairer experiments.}
}