Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Daniel Broche

Manipulating search engines for profit become a serious problem (Brin & Page 2000)

Search engine regulation ?

 Est il possible et souhaitable de fixer des règles à l'activité des moteurs de recherche sur Internet ?

Je vais tâcher de dresser dans cette note un petit état des lieux des enjeux autour de cette question qui est loin d'être simple.

4 thèmes se croisent autour de l'activité de la recherche automatisée sur Internet (search engines):

  • Le respect de la vie privée: cookies, analyse comportementale, recroisement de données...
  • Le droit d'auteur: copie et stockage de contenus dans des caches pour réaliser des traitements
  • Dilemne entre diffamation et liberté d'expression: propagation de rumeurs et propos diffamants, censure...
  • Manipulation des résultats: Conflit d'intérêt entre référencement naturel et programmes publicitaires, modification humaine des résultats d'algorithmes...

Le fond du problème c'est qu'aucune d'entre elles n'est propre qu'aux moteurs de recherches. Mais en combinant les zones de flou de chaque sujet, l'activité de moteur de recherche commence à interpeller sérieuseent. Au vu de leur place centrale dans les usages actuels d'internet, il est peut être temps de commencer à y réfléchir activement.


Back to 2003

En Europe, dans un rapport sur directive liée au commerce electronique (adoptée en 2000), la commission européenne a proposé de ne pas fixer de cadre à l'activité des search engines car ils étaient un formidable levier de développement pour l'e-commerce trans-européen.
Le rapport en question précise qu'il faut continuer à observer et analyser cette activité et les décisions prises par chaque état membre au niveau réglementaire. Elle souligne en particulier les difficultés pratiques à ne pas entraver le droit d'expression si on bloque ou flitre les résultats.

"the Commission will, in accordance with Article 21, continue to monitor and rigorously analyse any new developments, including national legislation, case-law and administrative practices related to intermediary liability and will examine any future need to adapt the present framework in the light of these developments, for instance the need of additional limitations on liability for other activities such as the provision of hyperlinks and search engines."

"it is important to note that the reports and studies on the effectiveness of blocking and filtering applications appear to indicate that there is not yet any technology which could not be circumvented and provide full effectiveness in blocking or filtering illegal and harmful information whilst at the same time avoiding blocking entirely legal information resulting in violations of freedom of speech."


Vie privée

La question du respect de la vie privée a depuis mobilisé les institutions. Les moteurs de recherche ont pris l'habitude de tracer nos comportements de navigation sur internet via les cookies. Le phénomène ayant pris une certaine ampleur, les leaders du marché ont réagit. Google s'en est expliqué sur son blog et il est probable que tout cela évolue encore notablement. Mais ce problème n'est pas propre aux moteurs de recherche. De nombreux autres acteurs du web tracent et analysent les comportements avec beaucoup moins de déontologie que Google, Yahoo! ou MSN.

Les algorithmes moins responsables que les humains ?

L'émergence du web 2.0 s'est accompagnée de la montée en puissance des agrégateurs sociaux. Ils proposent des résultats organisés non pas par un algorithme mais par les internautes. Si le mode opératoire est différent, la forme des résultats est en revanche proche. C'est donc le monde à l'envers quand dans le cas Fuzz - Martinez, c'est l'agrégateur qui a été pris à partie et non Google qui est leader sur le marché français. Emmanuel Parody a expliqué à cette occasion en quoi le statut d'hébergeur devrait être revu. En effet les différents maillons de la chaîne n'ont pas tous le même rôle et les même obligations.

Les enjeux du réferencement naturel

Si un contenu est diffamant on peut le faire supprimer. Mais quid d'un résultat de recherche embarassant ou tout simplement faux ? Une proposition imaginée par certains aux US serait de créer une commission federale du search. Une sorte de CSA pour le référencement naturel. L'idée est intéressante à partir du moment ou les délibérations sont publiques pour prévenir tout conflit d'intérêt. Mais quid des intérêts qui dépassent les frontières ? Et qui nommerait les membres d'une telle commission ?

D'autres mécanismes légaux sont envisagés pour résoudre les conflits liés aux résultats naturels. Mais vu la vitesse du web et la lenteur reconnue de la justice, la voie judiciaire ressemble plus à une impasse en pratique.

Droit à l’oubli ?

Combien de temps les données me concernant doivent elles rester indexées dans Google ? Les énormes indexes que fabriquent les crawlers de Google & cie sont aussi problématiques pour les personnes privées que pour les média. Comment en sortir et comment ne pas y entrer ?

Pour les données commerciales et culturelles, cela fait partie d'un problème beaucoup plus vaste de droit d'auteur. Mais pour les données relatives à une personne, ne peut on pas envisager un droit à l'oubli ? Nos générations qui ont grandi avec le net ont en tête des histoires de types grillés en place publique. Le web serait il la seule place ou l'on ne peut pas racheter sa faute ? Ne me parlez pas d'embaucher un référenceur pour cacher les problèmes sous le tapis ou au fond de l'index...


Infaillibles et incorruptibles

Le récent bug de Google annonçant des failles de sécurité sur tous les sites avait pour origine une erreur humaine. Preuve est faite que le facteur humain peut enrayer la belle mécanique algorithmique.

Combien de temps devra t'on attendre avant de découvrir le premier cas de corruption dans le personnel en charge d'un search engine ?

Et finalement en l'absence de tout engagement du moteur sur ses résultats, que risquerait il ?

Net-neutralité

Une vraie crainte des moteurs de recherche est la fin de la net neutralité. C'est à dire que les FAI puissent faire payer les fournisseurs de service pour faire passer les contenus jusqu'à leurs abonnés.

Les FAI sont en effet fortement régulés tandis que les fournisseurs de service sont à l'abri des organismes telecom du fait de ce principe de net-neutrality.

En tant qu'e-marchand je suis bien content de la net-neutralité: Sans elle je devrais payer Darty pour accéder aux abonnés de la Dartybox ! Bref la suppression de la net-neutralité ne résoudrai certainement pas les questions précédentes.

L'innovation peut elle tout justifier ?

L'argument clef de tous les acteurs majeurs concernés par ces questions est que toute régulation sera un frein à l'innovation. Nous ne savons pas quels services seront utilisés demain: A quoi bon compliquer la vie de ceux qui fonctionnent aujourd'hui ?

De plus il n'est pas dans l'intérêt des moteurs de recherche de mal se comporter puisque cela nuirait à leur image et les rendrait moins populaires. Il vaut mieux laisser le marché s'auto-réguler. Comme avec la finance mondiale...

Une seule chose est certaine à mes yeux. Ce n'est pas en développant des offres alternatives à Google, Yahoo ! & MSN du type QUAERO que l'on résoudra ces questions de fond.

 

 

Quelques autres liens intéressants sur le sujet

Table ronde à l'ENST

Articles scientifiques

Décisions à contre courant en Irelande au sujet de la diffamation

Partager cet article
Repost0
Pour être informé des derniers articles, inscrivez vous :
Commenter cet article