Facebook Graph : des données personnelles moins obscures

Facebook défraie la chronique avec son nouveau service “Graph Search”. Cette version actuellement en béta n’est disponible qu’en anglais. Elle permet de faire des recherches sur les données de ses amis en langage quasi naturel. Beaucoup trouvent ce service extraordinaire. D’autres y voient un danger. C’est le cas de Woodrow Hartzog et Evan Selinger qui signent ensemble un article très intéressant : Obscurity: A Better Way to Think About Your Data Than ‘Privacy’. Je me propose ici de vous en faire un résumé.

Notion d’obscurité

Pour nos 2 auteurs, la notion d’obscurité est plus judicieuse que la notion de données privées. Pourquoi ? L’idée est simple : plus une donnée est difficile à obtenir plus elle est en sécurité. Cela ne veut pas dire qu’il est totalement impossible de la trouver. Mais elle nécessite des outils puissants et beaucoup de temps, ce qui décourage sa recherche.
Les auteurs ont bien conscience que ce terme n’a pas de fondement juridique et est très théorique.

Comment fonctionne Facebook Graph Search ?

Comment fonctionne Facebook Graph Search ?

Graph Search est un moteur de recherche qui exploite à fond les données des utilisateurs. Lors d’une démonstration qui a eu lieu de début janvier, Mark Zuckerberg a montré les possibilités de cet outil (alors en béta). Il est possible de demander, par exemple,  “les amis de nos amis qui vivent à new et sont célibataires”; “les photos de mes amis avant 2000”;
En théorie les possibilités sont infinies et elles doivent permettre de créer plus de liens entre les utilisateurs.

Les dangers

Le CEO de Facebook met en avant le respect des choix de confidentialité des utilisateurs. Le moteur de recherche ne propose que les données qu’ils ont choisies de partager, soit avec leurs amis, soit avec la communauté.
Ce que pointe du doigt Messieurs Hartzog et Selinger, c’est la facilité de recherche de l’information, diminuant de ce fait l’obscurité des données.

Ils mettent aussi en avant 2 dangers :

  • Le premier est tout simplement que l’invention échappe à ses auteurs. Facebook va ajouter de nouvelles possibilités à son moteur. Qui pourra alors certifier que toutes ces recherches ne seront pas intrusives ?
  • Le second danger est l’augmentation du cadre du harcèlement et la difficulté à en définir les contours qui vont devenir de plus en plus flous. Ce fait entraîne un sentiment de malaise (“creeped out”).

Afin d’illustrer ces dangers, l’article donne un exemple : la possibilité de classer un utilisateur politiquement. Comment ? En imaginant que, dans le futur, il soit possible de chercher dans les commentaires, ou dans le contenu des articles que l’utilisateur a marqué comme “j’aime”.  Cet utilisateur n’aura jamais publié d’article politique, n’aura jamais coché ou indiqué ses préférences politiques. Mais pour avoir aimé le post d’un ami qui en parlait, il pourrait alors se retrouver classer à droite ou à gauche par le Graph Search. Tout ça avec quelles conséquences pour cet utilisateur ?

Optimisme ?

Afin de cacher ces dangers, Facebook et un grand nombre de journalistes “évangélistes” font passer un message rassurant à l’usager : il est le seul maître à bord par rapport à l’exposition de ses propres données.
La seule lueur d’espoir réside dans le fait que Facebook va s’autocensurer, se mettre des limites, afin de garder un zone d’obscurité suffisante pour ne pas effrayer l’utilisateur, l’encouragent du même coup à continuer d’alimenter la “machine” en données personnelles.

Pour les auteurs, le concept d’obscurité devient une forme de protection. Il doit être pris en compte dans le débat sur les données personnelles pour déterminer le niveau nécéssaire pour le bien-être de tous.