Nombreux sont ceux qui saluent les données comme "le grand égalisateur". Après tout, comment les chiffres peuvent-ils être subjectifs ? Cependant, il y a du recul par rapport à cela. De plus en plus de personnes commencent à maitriser les données et comprennent qu'elles peuvent être déformées. Qu'est-ce qui semble le plus attrayant ? "La taille de mon entreprise a doublé" ou "J'ai embauché une personne supplémentaire" ? Pour quelqu'un qui démarre son entreprise, ces affirmations peuvent être tout aussi vraies l'une que l'autre, mais elles ne disent pas la même chose.
Parfois, l'erreur ne réside pas dans la représentation, mais dans les données. Des échantillons de petite taille ou des sondages erronés peuvent fausser les données. Le manque de curiosité complique encore les choses. Les gens prennent généralement les données à leur valeur nominale, ne cherchant presque jamais à connaître leur source, leur ancienneté ou la corrélation entre les variables.
Nous savons évidemment que les données biaisées posent des problèmes, mais de nombreuses personnes ne voient pas à quel point ce problème est répandu. En fait, il existe un énorme problème de données qui prive systématiquement de ses droits une grande partie de la population. C'est ce que l'on appelle les biais de genre. En règle générale, le pourcentage de femmes utilisé dans les échantillons de population ne donne pas une représentation fidèle des consommateurs. Dans le meilleur des cas, il s'agit d'une mauvaise intelligence économique. Au pire, cela met les femmes en danger.
Prenons l'exemple des automobiles. Elles sont conçues pour les hommes, et je ne parle pas d'esthétique. Les proportions, la forme, l'ergonomie et l'emplacement des éléments intérieurs sont conçus pour s'adapter au corps masculin. Pire encore, la recherche en matière de sécurité est basée sur les dimensions des hommes, ce qui fait que les femmes sont plus susceptibles d'être gravement blessées dans les accidents de voiture.
Il en va de même pour presque tous les produits sur le marché. Les smartphones sont conçus en fonction de la taille de la main d'un homme, qui est généralement plus grande. Cela peut sembler négligeable, mais cela a entraîné des microtraumatismes répétés chez certaines femmes (et d'autres populations, sans aucun doute). Lorsque nous ne veillons pas à ce que nos données soient exemptes de préjugés sexistes, nous nuisons activement à une grande partie de la population.
Bien que la tâche ne soit pas toujours aisée, la prévention des biais de genre dans les données est relativement simple - il n'y a donc aucune excuse pour ne pas essayer. En fait, il suffit de suivre deux étapes :
La première étape consiste à admettre que les données posent un problème. Les préjugés conscients et inconscients affectent tout le monde, et nos données ne font pas exception. Regardez l'internet. Tapez "personne cuisinant" dans un moteur de recherche et vous verrez que les images qui en résultent sont principalement des femmes. Ce n'est pas que l'algorithme de Google soit sexiste, c'est qu'il s'appuie sur ce que les gens téléchargent. Et comme les gens sont biaisés, ces images représentent principalement des femmes.
Les données sont biaisées et nous devons prendre la responsabilité de corriger le problème. Ne vous fiez pas aveuglément aux données. Cherchez plutôt à savoir comment les informations ont été collectées. Si les données ne sont pas représentées de manière équitable, remettez en question la recherche et envisagez d'acheter des produits auprès d'un concurrent.
Plus important encore, constituez vos équipes avec le plus grand soin, en particulier les équipes qui développent des modèles de recherche, collectent des données et tirent des enseignements de ces informations. Quelle est la diversité de votre équipe ? Ses membres reflètent-ils la population à laquelle les données seront appliquées ? Tout commence de l'intérieur. Comme pour les données elles-mêmes, vous voulez un bon mélange de personnes - et plus encore, un mélange des groupes démographiques qui utiliseront votre produit ou service.
Les caractéristiques mesurables d'un groupe seront faussées si l'échantillon de population n'est pas adéquat. Si vous développez un nouveau produit ou service, il est important de commencer par définir votre public cible. Qui sont-ils ? Qui est l'utilisateur visé ? Et surtout, demandez-vous si vos propres préjugés ne vous font pas négliger des segments potentiels du public.
Veillez ensuite à ce que votre échantillon de population soit bien représenté. Voilà comment éviter le biais de genre - et d'autres préjugés, d'ailleurs - dans les données. À partir de là, il s'agit de tenir compte de l'écart-type, de la marge d'erreur, etc. lors de l'élaboration et même du test de votre produit ou service.
Les biais de genre dans les données sont bien réels. Les exemples sont nombreux et les solutions tardent à venir. Il incombe à chacun d'œuvrer à la prévention des biais de genre - entre autres - dans les données qui sont saisies, analysées et utilisées pour prendre des décisions concernant des produits et des services. C'est aussi simple que cela.
Cet article a été initialement publié sur insideBIGDATA.