Vous êtes ici : Accueil > La revue > Numéro 3 - Les Docto... > Les enjeux de l'ère ...

Les enjeux de l'ère numérique : une approche philosophique et informatique des dispositifs de visibilité contemporains

frPublié en ligne le 18 septembre 2015

Par Aurélien Faravelon

Résumé

Les outils numériques font partie intégrante de notre quotidien, soit sous la forme d’applications logicielles - notamment sur l’Internet et sur les téléphones mobiles - soit sous la forme d’appareils comme les smartphones. Ces outils changent en profondeur notre vie en modifiant nos pratiques - les réseaux sociaux nous permettent de documenter notre vie et de la partager avec un vaste auditoire tout en la conservant indéfiniment - et les cadres dans lesquels nous évoluons. Les notions comme celle de « vie privée » mais aussi de « travail » sont devenues problématiques à une époque où savoir qui nous observe et ce que l’on voit de nous est difficile à savoir et où chacun peut, au moyen de plateformes numériques, accomplir des activités rémunérées.

Cet article a pour ambition de participer à un diagnostic de l’ère numérique en identifiant ce qu’elle modifie et quels en sont les enjeux dans une perspective philosophique. Ceci accompli, nous complétons notre diagnostic par une approche informatique centrée sur la protection de la vie privée.

Abstract

Digital tools have grown customary. They have pervaded our everyday life, be them softwares and applications or devices such as smartphones. They have deeply disrupted notions such as privacy and work by providing new models of economy - such as the sharing economy - and social relations through social networks for instance. In this paper, we investigate the specifies of the digital eras and what it changes to our lives. As we do so, we also bring a practical answer to one stringent issue: privacy protection. Indeed, we propose a computer-based approach to the protection of privacy.

1. Introduction

1Qui peut aujourd’hui échapper à l’influence des géants de l’économie numérique que sont Apple, Facebook, ou encore Google ? Si leurs produits sont largement utilisés, leur essor s’accompagne aussi de nombreuses tensions. Les révélations d’Edward Snowden ne sont qu’un exemple de scandales récents autour de la surveillance, comme l’utilisation des données des utilisateurs des services de ces compagnies dans le cadre du programme américain PRISM (Green-wald MacAskill 2013 NSA Prism). Ces scandales, et les nombreux conflits autour de la protection de la vie privée ou, plus récemment du « droit à l’oubli » montrent que la « révolution numérique » ne se fait pas sans heurts1.

2Les analyses des outils numériques sont parfois partisanes et souvent polémiques. D’aucuns, comme Eric Schmidt, PDG de Google, n’hésitent ainsi pas à affirmer que celui qui n’a rien à cacher n’a rien à craindre de la visibilité de nos conduites rendue possible par le partage et l’enregistrement de nos traces2. La protection de la vie privée, par exemple, dissimulerait des informations inavouables et empêcherait le développement de services numériques innovants3. D’autres voient l’informatique, dès sa diffusion dans la seconde moitié du XXe siècle, comme aliénante et analysent ses effets comme délétères sur la politique4.

3Néanmoins, la compréhension de la « révolution numérique » est encore balbutiante. Cet article, sans prendre l’un ou l’autre des deux partis, pose un diagnostic : le numérique constitue une révolution car il bouleverse notre manière de vivre. Il influence les rapports entre individus, entreprises et États et permet de nouvelles formes de gouvernement des conduites. Il remet en cause la visibilité de nos pratiques et ses limites - et les notions connexes comme la surveillance, la vie privée ou l’intimité. Notre analyse conjugue un point de vue analytique et un point de vue pratique pour comprendre la révolution numérique. Nous cherchons à saisir les propriétés des rapports de pouvoir auxquels nous participons et dans lesquels nous sommes pris. Nous proposons ensuite un outil informatique à même d’influencer ces rapports de pouvoir.

4La Section II constitue une enquête philosophique sur les rapports entre techniques, visibilité et pouvoir. Nous nous demandons comment la technique participe à la constitution de notre subjectivité et étudions cette constitution dans le monde numérique. Nous mettons en évidence une « gouvernementalité algorithmique » de nos conduites et de rapports de pouvoir articulés autour de la collecte et du traitement des données. Ce faisant, nous identifions le contrôle de la diffusion des données comme un enjeu crucial du monde numérique.

5 La Section III propose une réponse pratique à cet enjeu. Elle est consacrée à une démarche informatique de configuration de la protection de la vie privée dans les compositions d’applications. Notre approche permet aux utilisateurs finaux de configurer le partage de données entre les applications qu’ils utilisent. Notre travail est fondé sur la sécurité dirigée par les modèles. Nous proposons une démarche en deux temps, une phase de conception - pour laquelle nous fournissons des langages sous la forme de métamodèles - et une phase d’exécution - pour laquelle nous offrons une architecture dédiée. Cette démarche est implémentée sous la forme de prototypes qui en démontrent la faisabilité et l’efficacité.

2. Enjeux du monde numérique

6 Les « outils numériques » - nous pensons ici aussi bien aux sites internet, comme les réseaux sociaux, qu’aux appareils, comme les téléphones qui enregistrent des images, des textes et plus généralement les données - sont des outils de communication et de représentation. Très tôt, les techniques liées aux images et à leur diffusion sont associées à la pensée de la visibilité, à son évaluation et à la résistance contre ses effets. Ainsi L. Warren et S. Brandeis déplorent-ils à la fin du XIXe siècle l’essor de la photographie instantanée et sa diffusion dans la presse (Waren Brandeis 1890 The right to privacy). Les deux juristes soulignent en effet qu’il est possible dès cette époque de rendre publics des faits « privés » au sens où ils se déroulent dans l’espace domestique. Les auteurs craignent ainsi la disparition de l’intimité et, avec elle, la perte d’une forme de liberté individuelle qui permet à chacun de se conduire chez lui comme il l’entend. En réaction à cette crainte, les deux juristes américains proposent de garantir un nouveau droit, le « droit d’être laissé tranquille », autrement nommé « droit à la vie privée » qui, bien qu’il doive être articulé avec le bien public afin de ne pas contrarier le jeu de la puissance publique, garantit à chacun un espace inaccessible aux autres. Alors que la visibilité est dénoncée par les auteurs comme un outil de contrôle social, la protection d’un espace d’opacité permet d’offrir à l’individu un espace de liberté et de repos. Warren et Brandeis opposent ainsi d’une part la vie privée, associée à l’intimité et l’autonomie, à la vie publique, dédiée à la production et à la politique, où chacun doit se soumettre à des normes de comportement.

7 Plus d’un siècle plus tard, la visibilité de nos conduites semble s’être une nouvelle fois élargie et démultipliée. Le droit à la vie privée, inscrit dans la Déclaration des Droits de l’Homme5, et les droits connexes, comme le droit à l’oubli, restent âprement discutés. Nous nous demandons toujours qui peut légitimement nous observer et ce que nous pouvons garder pour nous, d’autant plus que le nombre de nos observateurs a augmenté. Aux États, il faut ajouter les fournisseurs de services numériques, qui enregistrent les traces de l’activité des utilisateurs, et les communautés numériques. Croiser le chemin d’autres passants, travailler entouré de collègues ou encore participer à une manifestation publique sont autant de situations qui permettaient déjà à ceux qui nous observaient de connaître une partie de notre vie. Néanmoins, l’étendue de cette connaissance et la variété de ses destinataires possibles sont aujourd’hui sans précédents, d’où de nombreuses craintes. La littérature sur la surveillance en matière numérique est ainsi pléthorique. Les images issues de la philosophie - comme le « panoptique » - ou de la science-fiction - comme Big brother - sont dès lors régulièrement convoquées pour dénoncer le contrôle qu’exerceraient sur nous ceux qui peuvent nous regarder6. Nous analysons la pérennité de ces images dans le cadre numérique dans les paragraphes 1 et 2 de cette section.

8 Cependant, si on excepte le cas de l’espionnage, ne sommes-nous pas à l’origine de cette visibilité ? Nous nous exposons souvent de nous-mêmes au regard des autres et des fournisseurs de services numériques. Nous en tirons même des bénéfices, au rang desquels la reconnaissance de la part de notre communauté et la facilité d’utilisation de services de plus en plus personnalisés et potentiellement efficaces. Pourtant, petit à petit, ces services, et les algorithmes qui les sous-tendent nous gouvernent. Ils sélectionnent pour nous les musiques ou les documents susceptibles de nous correspondre. Ils fixent le prix de nos trajets automobiles7 et participent aux procédés de recrutement. On voit ainsi se dessiner une gouvernementalité8 à la fois analytique - elle récolte et traite des données - et algorithmique - les actions sont entreprises automatiquement dont nous cherchons ici à saisir les propriétés et les enjeux. Est-il encore possible d’être autonome dans cet environnement qui semble agir « de lui-même » ? Cette question fait l’objet du troisième paragraphe.

2.1. Visibilité, pouvoir et technique

9 Le « panoptique » est une prison imaginée au XVIIIe par Jérémy Bentham (Bentham 1977 Le panoptique), rendue célèbre notamment par l’analyse qu’en livre M. Foucault (Foucault 1993 Surveiller et punir). Il comprend deux éléments, une tour circulaire dans laquelle se trouvent les gardiens et un anneau qui encercle la tour et contient les cellules des prisonniers. De l’extérieur, les gardiens sont invisibles. Il est impossible de savoir s’il y a des gardiens dans la tour alors que les gardiens peuvent, eux, voir tout autour d’eux. Au contraire, chaque cellule est transparente et fait face à la tour : les gardiens peuvent ainsi, par le jeu du contre-jour observer l’activité des prisonniers. Au sein du panoptique, le rapport de visibilité entre les gardiens et les prisonniers comme les possibilités d’action de ces deux groupes sont asymétriques. Les prisonniers ne peuvent quitter leur cellule tandis que les gardiens, eux, peuvent observer les prisonniers et influencer leur comportement.

10 Le cœur de l’analyse foucaldienne (Foucault 1993 Surveiller et punir) porte sur les liens entre les rapports de pouvoir et la constitution des subjectivités. Elle souligne la portée politique de l’architecture et des appareils. Les rôles de gardien et de prisonnier sont des fonctions résultantes de l’architecture du panoptique et du but qui préside à sa construction. Néanmoins, ces fonctions sont aussi des formes de subjectivité. Elles s’impriment dans les individus puisqu’elles influencent leurs possibilités d’action. Ainsi le prisonnier doit-il toujours se comporter comme s’il était observé et se conformer à la norme de comportement qui a cours dans le panoptique9. Le tour de force foucaldien est de considérer la notion de « sujet » dans sa double acception d’agent - locuteur et acteur - et d’individu assujetti au pouvoir10 et de montrer que ces deux acceptions sont interdépendantes. Le prisonnier n’agit comme prisonnier que parce qu’il est assujetti à un dispositif de visibilité. Le gardien est lui aussi assujetti dans la mesure où ses prérogatives sont un effet de l’architecture du bâtiment. La technique est ainsi politique car elle participe à des rapports de force qui parcourent notre société et conditionnent nos capacités d’action.

11 Dans des travaux ultérieurs, Foucault souligne l’ambivalence de la technique qui peut à la fois être une « technique de gouvernement » - à même d’assujettir - et une « technique de soi » - à même de permettre de développer ses possibilités d’action (Foucault 1976 Histoire de la sexualité). L’écriture, par exemple, analysée dans Surveiller et punir comme le résultat d’un « dressage » est, dans L’Histoire de la sexualité un moyen de se prendre comme objet de transformation et ainsi de se libérer d'un ensemble de comportements.

12 Foucault n’a pas lui-même étudié le développement de l’informatique. Néanmoins, le parallèle avec le panoptique est séduisant. Nous sommes tous observés et la cible de techniques qui visent à nous influencer. Tel est le cas des techniques comme l’A/B testing - c’est-à-dire l’utilisation de variantes d’un site web pour parvenir au site le plus « efficace », c’est-à-dire le plus à même de provoquer l’action attendue de la part des utilisateurs [Willams Williams 2014 Online A/B tests & experiments].

13 Néanmoins, le parallèle entre le monde numérique et le panoptique est imparfait. L’une des originalités du monde numérique est de se reconfigurer et de s’adapter perpétuellement aux utilisateurs. Le monde numérique n’est pas, contrairement au panoptique, fermé sur lui-même. Chacun est pris dans des rapports de visibilité asymétriques - par rapport aux fournisseurs de services numériques par exemple - mais chacun peut aussi tour à tour être gardien des autres en cherchant à les observer et à les influencer (boyd Marwick 2011 Social Privacy) ou prisonnier de l’observation et des tentatives d’influence des autres. Pour ces raisons, plusieurs réflexions qui prennent le panoptique pour point de départ et l’étendent aux outils numériques. Ainsi en est-il de la « société de contrôle », de Gilles Deleuze (Deleuze 2003 Pourparlers) qui adapte l’image du panoptique à une société informatisée et qui peut mener une surveillance permanente de ses membres11. Ce dépassement de l’image du panoptique conduit à se demander quelles techniques d’observation ont cours dans le monde numérique, quels en sont les effets et quels rapports de pouvoir elles influencent.

2.2. Les rapports de pouvoir et de visibilité numériques

14 L’Internet et ses usages, comme le web, sont probablement la partie la plus visible de la part croissante du numérique dans nos vies. En 1969, le premier réseau de réseaux ne connectait que quatre ordinateurs dans quatre universités américaines12. Depuis, les ordinateurs, mais aussi d’autres objets - téléphones, frigidaires, etc. - sont connectés dans le monde entier. Les sites web et les applications mobiles sont devenus en Occident et dans les pays développés les relais privilégiés de la sociabilité et de la vie économique. L’utilisation de ces réseaux entraine deux types de changements. Le premier est quantitatif : il n’y a jamais eu autant de données récoltées et stockées. Le second est qualitatif : le traitement des données et leur utilisation dans des stratégies comme le marketing modifient nos pratiques. Nous analysons ici les conséquences de ces changements qui font des techniques numériques à la fois des techniques de gouvernement et des techniques de soi afin de diagnostiquer les propriétés de la gouvernementalité numérique.

2.1.1. L’espace numérique, un espace modulé

15 Utilisateurs de smartphones connectés à l’Internet, travailleurs équipés d’une connexion internet et d’une ligne téléphonique, possesseurs d’objets connectés comme une montre ou un téléphone, peu de gens sont aujourd’hui « déconnectés ». « Vie virtuelle » et « vie réelle » sont ainsi intimement liées. Il est difficile séparément une « vie hors ligne » et une « vie en ligne » pour les utilisateurs d’outils numériques qui sont connectés en permanence et participent à la vie sociale, politique et économique qui ne nous quittent jamais vraiment13.

16 Nous nommons « modulation » la substitution de transitions douces - entre les différentes aires sociales, politique, géographiques économiques, etc. - à des frontières bien identifiées entre ces espaces. Ces modulations modifient les rapports de pouvoir existants et en créent de nouveau. Nous identifions pour les besoins de l’analyse un ensemble de modulations locales - au niveau des vies individuelles et un ensemble de modulations macroscopiques qui portent, elles, sur les échelles géopolitiques et économiques.

2.1.1.1. Les modulations locales : socialiser et travailler

17 Alors qu’il analyse l’essor de la radio et de la télévision, M. McLuhan propose l’image du « village planétaire » pour désigner la connexion croissante des différentes parties du monde (McLuhan Fiore 1967 The medium is the message). Cette image est particulièrement actuelle alors que nous pouvons communiquer avec toute personne connectée et bénéficier, au travers des réseaux, des services de sociétés localisées n’importe où sur la planète. Cependant, contrairement à la radio ou la télévision, nous sommes face à des média interactifs et qui, en tant que tels, modifient notre rapport aux autres.

18 Facebook, par exemple, étend le sens de la notion « d’amitié » pour lui faire recouvrir un vaste ensemble de relations allant de l’amitié traditionnelle aux relations professionnelles et familiales. Ce faisant, le réseau social, mais cela est vrai de toutes les « plateformes sociales » nous pousse à nous demander une nouvelle fois ce qui est public ou privé. De plus, nous sommes potentiellement connectés en permanence à plusieurs situations sociales. Il est ainsi possible d’être à la fois au travail, sur un site de rencontre et en train de discuter avec sa famille et ses amis grâce à des applications et des sites dédiés. Les différents rôles sociaux que ces situations de communication impliquent se trouvent ainsi activés simultanément. De cette modulation sociale - nos différents rôles sociaux ne sont jamais complètement inactifs - découle la remise en question des rythmes, par exemple, de travail et de repos, et des frontières physiques, temporelles et sociale dans une certaine mesure. Alors que les situations de production traditionnelles - comme l’usine - reposent sur une rupture franche entre les espaces de production et les autres espaces, la possibilité d’accéder à distance à ces espaces les connecte. De cette remise en question naissent de nombreuses questions quant à la visibilité de nos pratiques et leur portée14 puisque les contextes d’élocution et les contextes dans lesquels les traces de conduites sont utilisées s’entrechoquent et nous échappent.

19 La frontière entre vie productive et loisirs est ainsi potentiellement remise en cause, et avec elle, les rôles qui y sont associés. Des sites comme airbnb, uber ou etsy transforment leurs utilisateurs en producteurs de services et de biens et leur permettent ainsi de créer une activité commerciale15. Loueur d’appartement, chauffeur, artisans, chacun peut investir un secteur économique. Ces sites remettent ainsi en question la distinction entre producteur et consommateur. Chacun peut tour à tour incarner les deux rôles et ce de manière plus ou moins permanente, d’où la remise en cause de l’organisation et du contrôle du travail et de ses fruits. Les utilisateurs d’airbn, par exemple, ont pu être condamnés par les services fiscaux de leur pays16.

20 Cette remise en cause est accompagnée de conflits entre les acteurs historiques de la vie économique et les sites. Les chauffeurs d’uber, par exemple, se sont trouvés en but avec les manifestations des chauffeurs de taxi. Néanmoins, les sites se trouvent aussi en conflit avec les travailleurs qu’ils fédèrent puisqu’ils proposent une forme de travail indépendant et dont le revenu n’est pas garanti. Cette organisation est éloignée de formes habituelles de travail comme le salariat17.

2.1.1.2. Les modulations macroscopiques : faire de la politique et gouverner

21 Le numérique bouleverse ainsi potentiellement toute l’organisation sociale et, avec elle, le rôle et la place des institutions. Ces conflits manifestent l’essor de nouveaux acteurs et de nouveaux modèles économiques fondés plutôt sur le marchandisation - de nos traces et plus généralement de nos données - que sur le paiement de l’accès aux services grâce à la divulgation de nos données. La plupart des services sont gratuits pour les utilisateurs. Le financement des services provient de l’utilisation des données collectées sur les utilisateurs et leur activité et des activités publicitaires. Par conséquent, plus que les données, c’est peut-être l’attention des utilisateurs et leur engagement qui sont les biens premiers de l’économie numérique dans la mesure où elles permettent de collecter des données18. Google maps, qui est un service de cartographie, mais aussi de calcul d’itinéraires, qui est facilement configurable et peut être utilisé par des développeurs d’application, concurrence-t-il les services, comme l’Institut nationale de l’information géographique et forestière (IGN) et engendre-t-il des conflits autour de la collecte des données19. Cette concurrence se retrouve dans de nombreux domaines. Ainsi, en France, le réseau sentinelles - un réseau de médecin généralistes - se donne-t-il pour mission de constituer une base de données afin de représenter la progression des maladies en France. Google, offre un service comparable, Google Flu, qui interroge la possibilité de faire de l’épidémiologie sans données collectées par des experts20.

22 Google maps tire notamment sa force du très grand nombre d’utilisateurs du moteur de recherche et du fait que ce dernier soit présent dans la plupart des pays du monde. L’existence de services qui ignorent les frontières géographiques nous met ainsi face la superposition de plusieurs territoires - numériques, géographiques, légaux ou politiques. Cette superposition entraîne des tensions et des conflits entre anciens et nouveaux acteurs dans de nombreux domaine comme la fiscalité, par exemple. Cette dernière nécessite l’identification des individus imposables et de leurs revenus. Cette identification est aujourd’hui rendue complexe par la localisation des sites Internet qui, pour une grande part sont hébergés aux États-Unis et les pratiques d’optimisation fiscales (Frenot 2014 Les données sociales). L’activité des utilisateurs et les revenus qu’elle génère échappent ainsi à la fiscalité et donne aux pays qui bénéficient de cette activité un poids prépondérant.

23 Les acteurs qui existaient déjà doivent ainsi trouver un mode de vie avec les nouveaux acteurs. La récente décision de la cour européenne en matière de déréférencement - c’est-à-dire l’obligation pour un moteur de recherche de ne plus présenter de liens vers une information - illustre le conflit entre territoires numériques et territoires légaux21. La décision vise Google et a pour but la mise en œuvre du « droit à l’oubli ». Néanmoins, elle souffre de deux difficultés. Tout d’abord, elle ne s’applique qu’aux versions européennes du moteur de recherche. Les utilisateurs peuvent ainsi se connecter à la version américaine du moteur de recherche pour afficher les résultats inaccessibles en Europe. Ensuite, elle a conduit à faire de Google l’un des opérateurs principaux de la mise en œuvre de l’oubli. C’est en effet la société qui se charge de collecter les demandes de référencement, de les évaluer et de les mettre en œuvre selon des critères laissés à sa discrétion. Par conséquent, les acteurs liés au numérique - parce qu’ils proposent des services par exemple - se trouvent en position de gouverner les conduites de leurs utilisateurs. Souvent, ce gouvernement est automatisé et rendu possible par la collecte de données et les algorithmes qui les manipulent.

2.1.2. Gouvernementalité numérique : surveillance et programmation22

24 Le terme de « surveillance » désigne traditionnellement l’observation de personnes considérées comme potentiellement dangereuses. Cette observation peut être préventive - il s’agit par exemple de surveiller quelqu’un qui peut commettre un crime. Elle peut aussi s’insérer dans une stratégie d’influence du comportement de celui sur lequel la surveillance porte - tel est le cas dans le panoptique par exemple. Néanmoins, l’essor des outils numériques - qu’il faut ici entendre aussi bien comme les sites internet que les appareils - smartphones, capteurs, etc. - qui peuvent mesurer notre activité, on démultiplié les formes possibles de surveillance23.

25 Cet essor entraîne des changements quantitatifs que nous avons déjà évoqués : le nombre de surveillants potentiels augmente, tout comme le nombre d’individus potentiellement surveillés. Il en est de même du gigantesque volume de données aujourd’hui disponible. À ce type de changements, il faut en ajouter un second, d’ordre qualitatif.

26 Tout d’abord, la surveillance tend à être automatisée et permanente : les sites enregistrent les clics des utilisateurs ainsi que leur communication, les téléphones la localisation, etc. L’automatisation rend possible l’augmentation du volume de données disponibles et du nombre d’individus surveillés. Ensuite, chacun est potentiellement surveillant et surveillé. Ainsi suis-je à la fois observé par la communauté de mes « amis » en ligne et observateur de leur vie. Cette dualité se retrouve à tous les niveaux de la société. Au niveau individuel, chacun peut se surveiller lui-même. Le mouvement du Quantified Self, encourage la diffusion de capteurs et d’outils de traitements de données pour parvenir à se transformer - par exemple pour être plus productif. Il trouve aujourd’hui un écho auprès du grand public au travers des objets connectés24. La surveillance prend une nouvelle dimension dans la relation avec les institutions. Les États surveillent leurs citoyens mais s’offrent aussi à leur regard. En matière numérique, le mouvement des Open Data désigne ainsi le fait pour un État de partager librement ses données. Même lorsque les États ne jouent pas ce jeu, les jeux de données disponibles permettent aux citoyens de les observer et les évaluer25.

27 Dès lors, la disponibilité des données semble remettre en question la possibilité de la préservation d’un espace intime ou privé. Alors que je marche dans la rue, les autres passants me voient me déplacer et peuvent tenter de deviner d’où je viens, où je vais et qui je suis à partir de ce qu’ils voient de moi. Néanmoins, ils ne voient qu’une partie de mon trajet. Lorsque je navigue sur l’Internet et que j’utilise, par exemple, un réseau social, la société qui le possède enregistre non seulement ce que je fais, mais aussi avec qui je parle, les autres sites que je visite, mes centres d’intérêt, etc. Facebook maintient ainsi, pour chacun de ses utilisateurs, un sociogramme nommé OpenGraph26 qui représente le graphe des relations sociales et des intérêts d’un utilisateur. Comme l’observation de Facebook excède le site et est continue, il est aussi possible de représenter l’évolution du sociogramme afin d’observer des tendances dans l’évolution du comportement d’un utilisateur27 et de comparer les utilisateurs entre eux afin de deviner leurs comportement possibles. Il devient ainsi possible, même si l’utilisateur ne divulgue pas toutes ses données, de deviner des informations qui le concernent, comme ses centres d’intérêt, en recoupant les données disponibles28. Les techniques, comme le « marketing des traces » se donne-ainsi pour mission de nous présenter les biens que nous sommes susceptibles d’acheter (Kessous 2013 L'attention au monde). Les outils de lecture de musique en ligne - comme Deezer, suggèrent, eux les morceaux que nous aimerons probablement. Les claviers - comme le Quicktype d’Apple29 - suggèrent les mots et les expressions que nous choisirons probablement après avoir étudié nos conversations passées. La gouvernementalité algorithmique est ainsi analytique (elle cherche à identifier les propriétés des individus) et prédictive. Les objets qui implémentent cette gouverne-mentalité nous définissent et, dans une certaine mesure, nous gouvernent.

28 Si ce gouvernement repose sur des normes - qui permettent de catégoriser les individus ou les actions - par opposition à d’autres types de normes comme la loi elles semblent immanentes aux données, et finalement, au monde qu’elles décrivent30. La recherche et l’emploi de ces normes engendrent des réactions variées allant du rejet et de la dénonciation, à l’utilisation de procédés, comme la fouille de données pour repérer ces normes.

291.1.3. Echappatoires numériques

30 Suis-je locuteur lorsque je rédige un message en quelques clics à partir d’expression choisies parmi les expressions que j’utilise habituellement ? Quelle est ma part d’activité lorsque je choisis une musique, ou un document, dans un ensemble d’objets qui ont déjà été sélectionnés en fonction de ce qu’un algorithme juge approprié pour moi ? Notre rapport aux objets numériques va plus loin que la simple délégation de tâches répétitives ou complexes. Parce qu’ils agissent sur nous - ils conditionnent ce que nous pouvons voir du monde lorsqu’ils trient les informations auxquelles nous pouvons accéder - et pour nous, ces objets nous gouvernent. Parce qu’ils permettent de nous observer et de nous prendre comme objet de transformation, ces objets nous permettent aussi de nous gouverner.

31 Néanmoins, la gouvernementalité algorithmique nous met face à deux modalités de récit des actions humaines. Le premier, algorithmique, est d’ordre programmatique et fait des actions la résultante d’une régularité31. La seconde, inspirée par exemple par l’éthique de la vertu, repose sur la notion d’intention et le récit des actions par l’individu qui tente de les articuler avec ses valeurs [Vallor 2010]. Il existe des régularités dans notre vie qui prennent par exemple la forme de rythmes. Néanmoins, le conflit entre les deux modes de récit est particulièrement sensible lorsque le second mode de récit prend le pas sur le premier, par exemple si le clavier de mon téléphone se met à composer automatiquement des phrases pour moi ou mon GPS à anticiper ma destination. Pourquoi, néanmoins, ne pas accepter un monde qui nous facilite la vie et maximise notre confort ?

32 Face à un monde qui répète les actions que j’ai déjà faites ou m’identifie comme un exemplaire d’une classe d’acteurs, il devient complexe de changer. Tout changement met à jour un modèle de comportement qui « instaure[nt] un ordre à l’égard duquel personne ne peut prendre distance. Rien n’est dès lors extérieur » [Levinas 1961]. C’est ignorer la nécessité, pour la définition de l’identité comme pour la vie morale, de contextes d’élocution et de termes qualitatifs plus que quantitatifs (Anscombe 2000 Intention). C’est ignorer aussi la nécessité, dans le rapport de force politique et scientifique, du conflit et de la rupture, mais aussi déplacer la responsabilité et les points d’actions politiques. Le foisonnement d’applications de santé, par exemple, qui collectent les données des utilisateurs et peuvent leur adresser des recommandations font de ces derniers les vecteurs des politiques de santé. Chacun est ainsi invité à entretenir un rapport d’observation et de critique de lui-même et moins de critique du mode de gouvernementalité.

33 Néanmoins, dans la mesure où cette gouvernementalité repose en partie sur l’observation de corrélations et moins sur la recherche de raisons de justifications, il devient nécessaire de comprendre pourquoi les normes sont telles qu’elles semblent être, puisqu’elles ont une efficacité politique et, le cas échéant, de remettre en question l’infrastructure de la gouvernementalité algorithmique, c’est-à-dire le code informatique, qui prescrit la récolte et le traitement des données.

3. Configurer les politiques de vie privée

34 Nous avons montré les limites du contrôle paru les utilisateurs d’outils numériques de leur visibilité. Ces limites proviennent du code informatique qui gouverne le monde numérique. Nous proposons désormais une approche de configuration des politiques de contrôle d’accès dans la communication entre applications informatiques. Cette approche est destinée aux utilisateurs finaux à qui elle permet un contrôle accru de l’accès à leurs données lorsqu’ils souhaitent partager leurs données entre les applications qu’ils utilisent. Notre contribution principale est une démarche de configuration de la vie privée dans les applications réalisées sous la forme de services. Cette démarche s’appuie sur l’ingénierie dirigée par les modèles.

3.1. Cas d’utilisation

35 La question suivante résume notre cas d’utilisation : « j’ai accepté de participer à un évènement sur un réseau social, est-il plus rapide de m’y rendre à pieds ou de m’y faire conduire ? ». Pour répondre à cette question, plusieurs applications que j’utilise, comme un réseau social et des applications qui calculent les itinéraires piétons et routiers et permettent de réserver une voiture doivent communiquer, c’est-à-dire partager mes données. Aujourd’hui, si je souhaite réaliser ce cas d’utilisation à partir des applications que j’utilise habituellement, je dois manuellement me connecter à chacune de ces applications et saisir les informations comme l’adresse à laquelle je souhaite me rendre32. Lorsqu’il est possible de connecter ces applications, je n’ai qu’un contrôle limité et prédéfini par les concepteurs d’applications sur mes données.

36 La réalisation de ce cas d’utilisation se heurte ainsi à plusieurs difficultés :

37• Les applications ne sont pas faites pour fonctionner ensemble. Il faut ainsi leur permettre d’échanger les données pertinentes.

38• Les applications sont réalisées dans des technologies différentes. Elles reposent sur des protocoles différents et ne peuvent ainsi pas nécessairement communiquer.

39• Les applications doivent partager des données sensibles comme l’identité de l’utilisateur, ou sa localisation. Le contrôle par l’utilisateur du partage de ses données est limité.

40 Ces limitations entraînent des vagues de protestations contre les services existants et empêchent le développement de nouveaux services. Nous proposons d’y répondre par une approche générique qui permette de prendre en compte la diversité des applications - il existe plusieurs applications qui peuvent réaliser la même fonctionnalité - tout en configurant le partage d’informations.

3.2. État de l'art

41 Trois domaines, que nous présentons ici, nourrissent notre contribution : l'approche orientée services, le contrôle d'accès et la sécurité dirigée par les modèles. L'approche orientée services constitue notre domaine d'application, le contrôle d'accès le moyen que nous proposons pour protéger la vie privée et la sécurité dirigée par les modèles le moyen de configurer le contrôle d'accès dans une application réalisée sous la forme d'une composition de services.

3.1.1. L'approche orientée services

42 La notion de service connaît de nombreuses implémentations qui rendent difficile de faire fonctionner ensemble des services de différents types. Afin de créer des applications complexes, il est nécessaire de composer les services qui offrent chacun des fonctionnalités spécifiques. Néanmoins, la difficulté principale réside dans l’hétérogénéité des services. Chaque type de service utilise des protocoles, de communication par exemple, spécifiques et correspond à un type d’utilisation. De plus, chaque type de service offre une prise en charge spécifique de la sécurité. Les web services, par exemple, qui sont largement utilisés dans les applications d’entreprise, reposent sur des protocoles de communication comme le Simple Object Access Protocol (SOAP)33 et des protocoles spécifiques pour la sécurité. Les applications grand public, sont quant à elles, le plus souvent réalisées sous la forme de services Representation State Transfer (REST, (Fielding Taylor 2012 Principled design of the modern Web architecture) qui s’appuient aussi sur des protocoles dédiés pour la sécurité.

43 Plusieurs travaux proposent ainsi d’utiliser des modèles pivots afin de rendre les différents types de services compatibles ou bien d’étendre les services existants afin de prendre en charge la sécurité [Budan 2013]. Ces travaux proposent d’ajouter au code de communication entre les services des lignes de codes dédiées à la sécurité et à la communication entre des services de types différents.

3.1.2. Le contrôle d'accès

44 Contrôler l'accès à une application signifie intercepter les requêtes qui portent sur ses ressources et ses données et n’effectuer que celles qui sont autorisées (Samarati 2000 Access Control : Policies, Models, and Mechanisms). Ainsi, seules les personnes autorisées accèdent aux ressources et aux données et ce d'une manière elle aussi autorisée. Le contrôle d'accès repose sur trois éléments :

45Le modèle de contrôle d'accès fournit le vocabulaire nécessaire pour spécifier le contrôle d'accès.

46La politique de contrôle d'accès spécifie les règles d'accès dans une application. Elle est rédigée en conformité avec un modèle de contrôle d’accès.

47L'architecture d'exécution du contrôle d'accès met en œuvre la politique de contrôle d'accès. Elle intercepte les requêtes d'accès aux données et aux ressources de l'application et n'autorise que les requêtes conformes à la politique de contrôle d'accès.

48 Le contrôle d’accès repose sur quatre entités de base, les objets (les ressources et les données d'une application), les sujets (les entités de l'application qui demandent l'accès aux objets, comme les utilisateurs), les actions (les modes d’accès des sujets aux objets) et les contraintes (les critères qui gouvernent l'accès aux objets). Chaque modèle de contrôle d'accès propose des relations différentes entre ces quatre entités et des contraintes spécifiques. Chaque architecture d'exécution stocke et traite ces entités d'une manière qui lui est propre.

49 Le choix du modèle de contrôle d'accès et de l'architecture d'exécution sont ainsi cruciaux afin de garantir l'efficacité du contrôle d'accès et son adaptation à un domaine d'application. Les modèles de contrôle d’accès basés sur les rôles (RBAC) et basés sur les attributs (ABAC) sont parmi les plus utilisés. Le Tableau 2 en reprend les propriétés principales.

Tableau 1. ABAC et RBAC deux modèles de contrôle d’accès

Image 10000000000001F4000001ADB1B37622.png

50 Le contrôle d'accès est aujourd'hui largement utilisé pour protéger la vie privée, notamment dans les applications web soit par la définition de langages spécifiques comme L’Enterprise Privacy Authorization Language (EPAL) soit par l'utilisation de protocoles et d'architectures dédiées34.

51 Oauth, par exemple, est un protocole qui permet de réguler les droits d'accès d'un client (un utilisateur ou un logiciel qui agit en son nom) à un ensemble de ressources35. Chaque client possède un jeton d'accès qui décrit ses droits. Le serveur de ressources, qui stocke et protège ces dernières, est chargé d'évaluer ce jeton et de ne donner accès qu'aux ressources autorisées. Le format de description des droits d'accès décrits par le jeton est libre. Les concepts d’ABAC, par exemple, sont souvent utilisés pour décrire les permissions. Aujourd'hui, Oauth est très largement utilisé dans le domaine des applications grands publics, comme les réseaux sociaux. Il permet aux utilisateurs de spécifier, par exemple, auxquelles de ses ressources des applications tierces ont accès.

52 Néanmoins le contrôle d’accès dans les applications web se heurte à deux difficultés principales. Du point de vue des concepteurs d’application, il est complexe à mettre en œuvre. Du point de vue des utilisateurs, il ne permet pas de configurer exactement les jetons d'accès à leurs données. Le plus souvent, les développeurs d’applications prédéfinissent les droits d’accès aux données des utilisateurs.

3.1.3. Sécurité dirigée par les modèles

53 L’approche orientée services est aujourd'hui largement utilisée pour réaliser des applications variées aussi bien dans la domotique que les applications grand public ou les applications d'entreprises. Ce large éventail d'applications a conduit au développement de nombreux types de services dont l'intégration est difficile. Ajouter des propriétés - comme le contrôle d’accès - à une composition de services de types différents est, aussi, une tâche complexe. La conception d’une application nécessite d’associer des experts aux compétences variées (en sécurité et en programmation orientée services) et de permettre aux utilisateurs de spécifier leur politique de vie privée dans un langage qui leur est compréhensible. Deux principes permettraient de réaliser cette collaboration, aujourd’hui limitée :

54• Il faut s’abstraire de l’hétérogénéité des services afin de faire communiquer des services de types différents.

55• Il faut permettre à des concepteurs et des utilisateurs finaux, aux compétences différentes, de configurer l’application.

56 La sécurité dirigée par les modèles (Basin 2006 Model driven security) propose de diviser la conception d’une application sécurisée en deux étapes. La première repose sur la représentation d’une application sous la forme de modèles, qui décrivent chacun un point de vue - par exemple l’enchaînement des fonctionnalités de l’application ou la politique de vie privée. Le vocabulaire et la grammaire utilisés pour construire les modèles sont décrits dans un métamodèle. Cette phase permet de s’abstraire des détails techniques et de présenter à plusieurs acteurs des vues sur l’application adaptées à leur expertise. La seconde phase repose sur la génération automatique de code, à partir des modèles, pour faire fonctionner l’application et la sécuriser.

57 La sécurité dirigée par les modèles permet le contrôle d’accès dans les processus métiers (Wolter 2007 XACML policies) ou dans les compositions de services (Yuan 2005 ABAC). Elle permet aussi de s’abstraire de l’hétérogénéité des services dans les applications persuasives et de prendre en compte la sécurité de transfert dans ces applications (Chollet Lalanda 2008 Security specification at process level). La sécurité dirigée par les modèles est ainsi un chemin prometteur pour configurer la protection de la vie privée (Faravelon 2012 Configuring Private Data Mana-gement).

3.3. Une démarche de configuration de la vie privée

58 Notre approche vise à simplifier la configuration du contrôle d’accès par les utilisateurs finaux dans la composition d’un ensemble d’applications. Notre approche, dont le principe est présenté sur la Figure 1, est une application de la sécurité dirigée par les modèles et des travaux que nous avons présentés. Elle s’appuie sur deux phases, l’une de conception, l’autre d’exécution.

Figure 1. Approche globale

Image 10000000000001F4000001B8DDF1B66C.png

59 La phase de conception permet au développeur d’application de spécifier les ressources que manipulent son application, les fonctionnalités qu’elle remplit et son implémentation. Elle permet aussi à l’utilisateur de préciser ses préférences de vie privée. Pour ce faire, nous fournissons un métamodèle organisé en une vue application et une vue politique de vie privée. Le métamodèle contient un ensemble de concepts qui ne sont pas techniques - dédiés aux utilisateurs sans expertise technique - et de concepts adaptés à l’expertise des développeurs d’applications.

60 La phase d’exécution permet la communication entre les applications, contrainte par les préférences de l’utilisateur. Nous fournissons à ce niveau une architecture d’exécution - c’est-à-dire de composition des applications et de mise en œuvre de la politique de vie privée. L’architecture génère le code des appels d’une application à l’autre et évalue la politique de vie privée.

61 Notre approche cherche à simplifier la composition des applications. Le passage du niveau conception au niveau exécution se fait ainsi par génération automatique du code d’appel des services et du code d’appel à l’évaluation de la politique de contrôle d’accès.

3.3.1. Niveau conception : un métamodèle divisé en deux vues

62 Le niveau conception permet aux concepteurs d’application de décrire leur application et aux utilisateurs finaux de spécifier leurs préférences de vie privée. Nous proposons un métamodèle divisé en deux vues - une vue pour chaque préoccupation - et adapté aux différences d’expertise des utilisateurs finaux et des développeurs d’application.

63 La Figure 2 présente notre métamodèle et les vues qui le composent.

Figure 2. Métamodèle

Image 10000000000001F4000000D43C3A1296.png

64 La vue application est constituée à partir de l’analyse de métamodèles existants36. Nous reprenons des concepts connus pour nous adapter aux approches déjà existantes et faciliter l’utilisation de notre approche. Notre analyse nous a conduits à sélectionner les concepts suivants :

65Une fonctionnalité est une action de haut niveau (i.e. sa description ne fait pas appel à des détails liés à son implémentation). « S’inscrire à un évènement » ou « réserver une voiture » sont des fonctionnalités. La notion de fonctionnalité correspond, par exemple, à la notion d’activité de BPMN ou de service abstrait de APEL.

66Une ressource est un objet consommé (la ressource est alors un input), modifié ou produit par une fonctionnalité (la ressource est alors un output). L’évènement auquel je participe, par exemple, est une ressource produite par un réseau social et consommée par la fonctionnalité de calcul d’itinéraire. Chaque ressource à un type. Une image ou un utilisateur sont des exemples de types de ressources.

67Une ressource est composée d’attributs - ses propriétés. Par exemple, l’adresse d’un évènement est un attribut d’un évènement. Chaque attribut à un type - par exemple entier ou chaîne de caractères.

68 Ces trois concepts ne contiennent pas de détails d’implémentation, ils peuvent ainsi être manipulés par des utilisateurs finaux. Afin de prendre en compte l’implémentation des fonctionnalités nous fournissons les concepts suivants :

69Un service est une fonctionnalité implémentée sous la forme de code informatique. Un service est une notion abstraite. Nous nous limitons ici au cas des services atomiques.

70• Il existe plusieurs types de services, qui ont chacun un modèle de ressources et des types. Une fonctionnalité peut être réalisée par plusieurs services.

71 Les développeurs manipulent le concept de services. Ils décrivent la manière dont leurs services implémentent les fonctionnalités.

72 La vue dédiée à la vie privée est, elle constituée à partir des concepts du contrôle d’accès issus d’ABAC. Elle reprend les concepts suivants :

73Une autorisation est une permission. Elle décrit quelles sont les contraintes qui l’activent.

74Une contrainte porte sur la valeur d’un attribut. Pour qu’une permission soit activée, les contraintes qui la définissent doivent être vérifiées.

75 La vue dédiée à la vie privée ne contient pas de détails techniques, ce qui permet aux utilisateurs finaux de spécifier leur politique de vie privée.

76 Application au cas d’utilisation

77 À l’issue de la phase de conception, nous possédons la description des applications, fournies par les concepteurs d’application, et la politique de vie privée d’un utilisateur. Le tableau 3 donne l’instanciation de notre métamodèle pour notre cas d’utilisation.

78 Le concepteur d’application est responsable de la description des fonctionnalités rendues par son application et des input et output. L’utilisateur rédige, lui, connecte les applications et rédige les autorisations. Nous avons sélectionné des applications existantes et utilisé leur description pour remplir le tableau.

Tableau 2. Instanciation de notre métamodèle pour le cas d’utilisation

Image 10000000000001F4000001045743E157.png

3.3.2. Niveau exécution

Figure 3. Niveau d’exécution

Image 10000000000001F40000018CE7648260.png

79 À l’issue de la phase de conception, nous possédons la description de la politique de vie privée de l’utilisateur et la description de l’implémentation des services. La phase d’exécution est chargée d’invoquer les applications en respectant la politique de vie privée de l’utilisateur. Pour cela, elle repose sur deux trois étapes :

80La génération du code de contrôle d’accès à partir des préférences de l’utilisateur. En effet, les utilisateurs finaux n’ont pas de compétences techniques. Cette étape garantit la maintenabilité du code qui est généré à partir de règles de génération connues et validées ainsi que la possibilité de reconfigurer facilement la politique de vie privée dans une application puisque le code de contrôle d’accès est indépendant du code de communication des services.

81La génération du code de communication entre les applications. En effet, dans la mesure où l’utilisateur relie les applications, le code de liaisons doit être généré à la volée et adapté à l’implémentation du service.

82L’exécution du contrôle d’accès. Cette étape permet de vérifier que la communication entre les applications est autorisée.

83 Notre implémentation, présentée sur la Figure 3, est inspirée par les travaux sur la sécurité dirigée par les modèles pour la génération de code adapté à une implémentation cible. Nous nous inspirons de l’implémentation d’ABAC proposée dans le cadre d’XACML et de l’implémentation d’oAuth pour la partie de notre architecture dédiée à l’exécution du contrôle d’accès.

84 Notre implémentation étend le rôle des plateformes de composition de services. Nous ajoutons à la plateforme un répertoire des applications disponibles et des services dédiés à l’exécution du contrôle d’accès. L’exécution de l’application se déroule donc sur la plateforme même si les applications sont stockées hors de la plateforme. Lorsqu’une application souhaite communiquer avec une autre, la plateforme détourne la requête vers un point de décision et de mise en œuvre chargé d’évaluer si la requête est conforme à la politique de vie privée. Cette évaluation repose sur la description de la politique de contrôle d’accès et la valeur des attributs stockés dans des sources d’information. Si la requête est autorisée, la plateforme adresse une requête adaptée à l’implémentation de l’application cible. Pour ce faire, elle génère un code d’appel à partir de la description de l’application.

3.3.3. Résultats et discussion

85 Notre approche est validée par la réalisation de deux outils. Le premier, un orchestrateur, est dédié aux concepteurs de composition de services. Il leur permet de décrire la politique de contrôle d’accès de leur composition (Faravelon Ceret 2014 Privacy conscious web apps). Le second, une application web, permet à un utilisateur final de connecter les applications qu’il utilise et de partager les ressources qu’elles manipulent (Faravelon 2012 Configuring Private Data Management). Ces outils permettent de démontrer la faisabilité de notre approche. Ils ont été utilisés sur des cas d’applications réels afin de démontrer qu’ils répondaient aux besoins des concepteurs et des utilisateurs finaux. L’utilisation de l’orchestrateur en particulier permet de montrer que l’évaluation d’une politique de vie privée ne ralentit pas trop l’exécution de la composition d’applications.

86 Deux points principaux nourrissent nos perspectives de travail. La réalisation de métamodèles et de modèles est une tâche complexe et qui n'est pas nécessairement réalisée par les développeurs d’applications. Cependant, dans le cas des applications web, la plupart du temps, les développeurs mettent à disposition une API dont la description fournit un modèle de l’application. Il reste ainsi à automatiser le traitement de ces descriptions.

87 Enfin, nos prototypes nécessitent de plus amples développements. Il s’agit désormais de trouver une implémentation à même de relier les applications tout en respectant l’interface de ces dernières. Le deep linking (ou « lien profond ») qui consiste à lier deux applications est une perspective intéressante.  

4. Conclusions

88 Notre réflexion a pris pour point de départ l’omniprésence des outils numériques dans notre vie et a cherché à en évaluer la portée, notamment politique et sociale. Face à l’importance des tactiques de capture de l’attention et de l’engagement des utilisateurs, qui permettent de récolter et de traiter leurs données, nous avons conclu à l’essor d’une gouvernementalité numérique. Cette gouvernementalité, fondée sur une large collecte de traces et l’utilisation de procédés souvent automatiques de classification et de statistiques, engendre de nouveaux rapports de pouvoir. Elle s’appuie notamment sur l’essor de nouveaux acteurs économiques et politiques - les entreprises tournées vers les données. Elle bouleverse aussi les rapports de pouvoir existants - par exemple entre producteurs et consommateurs de biens et de services - ainsi que les rapports de visibilité.

89 Cette forme de gouvernementalité, qui tire sa force de l’engagement des utilisateurs qui partagent leurs données afin de bénéficier de services gratuits, prône un rapport à la norme que nous avons interrogé. Immanente, la norme semble objective. Pour autant, elle balaie alors la possibilité d’argumentations politiques et morales. Il nous semble ainsi, contre un ensemble d’argumentation qui valorise la gouvernementalité algorithmique pour le confort qu’elle promet ou la valeur de la transparence, qu'il est nécessaire de pouvoir contrôler le flux de ses données.

90 Nous nous sommes attaqués à ce point dans une perspective informatique. Nous avons proposé une approche de configuration de la prise en compte de la vie privée dans les compositions d’applications. Cette approche, validée par des prototypes permet à un utilisateur de configurer le partage de ses informations et de ses ressources entre ses applications. Elle montre la possibilité de contrôler plus finement les flux de données à l’aide de technologies existantes37.

Bibliographie

Anscombe. G-E-M., 2000, Intention. Harvard University Press, 2000.

(Bentham 1977 Le panoptique) J. Bentham. Le Panoptique. P. Belfond, 1977.

Bernstein. E-S., 2012, The Transparency Paradox: A Role for Privacy in Organizational Learning and Operational Control Administrative Science Quarterly June 2012 57: 181-216.

Boyd. D., Marwick. A-E., 2011, Social Privacy in Networked Publics: Teens’ Attitudes, Practices, and Strategies. A Decade in Internet Time: Symposium on the Dynamics of the Internet and Society, September 2011. http://ssrn.com/abstract=1925128

Citton. Y., 2014, L’économie de l’attention. La découverte. 2014.

Deleuze. G., 2003, Pourparlers 1972-1990. Editions de minuit, 2003.

Ellul. J., 2004, Le système technicien. Cherche midi, 2004.

Flichy. P., 1997, Une histoire de la communication moderne. La Découverte, 1997.

Foucault. M., 1976, Histoire de la sexualité. La volonté de savoir. Gallimard, 1976.

Foucault. M., 2004, Sécurité, territoire, population. Paris, 2004.

Foucault. M., 1993, Surveiller et punir. Gallimard, 1993.

Frénot. S., Grumbach. S., 2014 Les données sociales, objets de toutes les convoitises, Herodote, 2014.

Ganascia. J-C., 2009, Voir et pouvoir : qui nous surveille ? Editions le Pommier, 2009.

Greenwald, G., MacAskill. E., 2013, NSA Prism program taps in to user data of Apple, Google and others. The Guardian, Friday 7 June 2013. http://www.theguardian.com/world/2013/jun/06/us-tech-giants-nsa-data

Kessous. E., 2013, L’attention au monde : Sociologie des données personnelles à l’ère numérique. Armand Colins, 2013.

(Krumm Horvitz 2007 Predestination) J. Krumm et E. Horvitz. Predestination : Where Do You Want to Go Today ? Computer, vol. 40, no. 4, pages 105–107, 2007.

McLuhan. M., Fiore. Q., 1967, The Medium is the Message : An Inventory of Effects. Bantam Books, 1967.

Morozov. E., 2013, To Save Everything, Click Here: The Folly of Technological Solutionism, PublicAffairs, 2013.

Orwell. G., 1961, 1984. Signet Classic, 1961.

Achara, J-P., Cunche, M., Roca. V., A. Francillon. A., 2014 : WifiLeaks: underes-timated privacy implications of the access_wifi_state android permission. WISEC 2014, pages 231-236, 2014.

Quessada. D., 2010, « De la sousveillance » La surveillance globale, un nouveau mode de gouvernementalité, Multitudes, vol. 1 n° 40, p. 54-59, 2010.

Rouvroy, A., T. Berns. T., 2013, Gouvernementa-lité algorithmique et perspectives d'émancipation, Réseaux, vol. 1, n° 177, p. 163-196, 2013.

Waren. S., L. Brandeis. L., 1890, The right to privacy. Har-vard Law Review, vol. 4, pages 193–220, 1890.

Williams. J-J., Williams. B-A., 2014, Online A/B tests & experiments: a practical but scientifically informed introduction. CHI Extended Abs-tracts 2014, pages 1047-1048, 2014.

Basin. D., Doser. J., Lodderstedt. T., 2006, Model driven security : From UML models to access control infrastructures. ACM Trans. Softw. Eng. Methodol., vol. 15, pages 39–91, 2006.

Budan. W., Rongheng. L., Junliang. C., 2013, Integrating RESTful Ser-vice into BPEL Business Process on Service Generation System. Proceedings of the IEEE Service Computing Conference, pages. 527-534, 2013.

Chollet. S., Lalanda. P., 2008, Security Specification at Process Level. IEEE Service Computing Conference, pages 165–172, 2008.

Dami. S., Estublier. J., Amiour. M., 1998, Apel : A Graphical Yet Executable For-malism for Process Modeling. Autom. Softw. Eng., vol. 5, no. 1, pages 61–96, 1998.

Faravelon. A., Céret. E., 2014, Privacy Conscious Web Apps Composition. IEEE RCIS 2014.

Faravelon. A., Chollet. S., Verdier. C., Front. A., 2012, Configuring Private Data Management as Access Restrictions: From Design to Enforce-ment. ICSOC 2012, pages 344-358, 2012.

Ferraiolo. D-F., Sandhu. R-S., Gavrila. S-I., Kuhn. D-R., Chandramouli. R., 2001, Proposed NIST standard for role-based access control. TISSEC, vol. 4, no. 3, pages 224-274, 2001

Fielding. R-T., Taylor. R-N., 2012, Principled design of the modern Web architecture. TOIT, vol. 2, no 2, pages 115-150, 2002.

Kulkarni. D., Tripathi. A., 2008, Context-aware role-based access control in pervasive computing systems, SACMAT ’08, pages 113–122, 2008.

Kumar. A, Karnik. N., Chafle. G, 2002 Context sensitivity in role-based access control. SIGOPS Oper. Syst. Rev., vol. 36, no. 3, pages 53–66, 2002.

Li. J., Karp. A-H., 2007, Access control for the services oriented architecture. SWS, pages 9–17, 2007.

OASIS. A brief introduction to XACML. http://docs.oasis-open.org/, 2003.

OASIS. XACML v3.0 Core and Hierarchical Role Based Access Con-trol (RBAC) Profile Version 1.0. http://docs.oasis-open.org/xacml/3.0/xacml-3.0-rbac-v1-spec-cs-01-en.pdf, 2010.

Samarati. P., De Capitani di Vimercati. S., 2000, Access Control : Policies, Models, and Mechanisms. FOSAD, pages 137–196, 2000.

Thion. R., Coulondre. S., 2005, Intégration du contexte spatio-temporel dans le contrôle d’accès basé sur les rôles. Revue des Sciences et Tech-nologies de l’Information, série Ingénierie des Systèmes d’Information, vol. 10, no. 4, pages 89–117, 2005.

Wolter. C., Schaad. A., Meinel. C., 2007, Deriving XACML policies from business process models. WISE’07, pages 142–153, 2007.

Yuan. E., Tong. J., 2005, Attributed Based Access Control (ABAC) for Web Ser-vices. ICWS ’05, pages 561–569, 2005. 

Notes

1 http://curia.europa.eu

2 Dans une interview à CNBC le 29 décembre 2009, Eric Schmidt a ainsi affirmé If you have something that you dont want anyone to know maybe you shouldnt be doing it in the Internet http://video.cnbc.com/gallery/?video=1372176413.

3 https://www.youtube.com/watch?v=A6e7wfDHzew

4 Dans les années 1970, J. Elul critique ainsi le « système technicien » (Ellul 2004 Le système technicien). Plus récemment, E. Morozov fait état d’un point de vue très critique sur les outils numériques [Morozov 2013].

5 La vie privée est garantie par l’article 12 de la Déclaration des droits de l’homme et du citoyen. Voir http://www.un.org/fr/documents/udhr/

6 Pour le panoptique, voir (Bentham 1977 Le panoptique). Pour Big Brother, voir (Orwell 1961 1984).

7 https://support.uber.com/hc/fr/articles/410886-Comment-calculez-vous-le-prix-de-ma-course-

8 Nous entendons ici la gouvernementalité comme le rapport aux conduites qui vise leur gouvernement, c’est-à-dire leur influence. Cette définition est inspirée par M. Foucault. Voir (Foucault 2004 Sécurité, territoire, population).

9 Des analyses empiriques appuient aujourd’hui les conclusions de Foucault. Dans [Bernestein 2012], l’auteur montre ainsi que la transparence au travail inhibe les employés.

10 Dans son Histoire de la communication moderne, Patrice Flichy établit ainsi un parallèle entre le fait que le XIXe siècle soit « l’âge d’or de la vie privée » et le développement des techniques de communication - comme le téléphone - et de transport - comme le tramway. Voir (Flichy 1997 Histoire de la communication moderne). Si on accepte cette thèse et qu’on la met en regard de la position de Warren et Brandeis, on peut ainsi penser que la notion de vie privée - dans son sens contemporain - ne naît pas uniquement comme une protection contre les effets de la technique mais, plus largement, en réponse à une modification des frontières entre les différentes espaces - de production, domestiques, politiques, etc.

11 Plus récemment, J.-G. Ganascia, par exemple, s’est lui aussi inspiré du panoptique pour analyser l'influence des outils numériques sur la visibilité de nos pratiques. Voir (Ganascia 2009 Voir et pouvoir).

12 L’Internet, qui est initialement un projet de la Defense Advanced Research Project Agency (DARPA) américain, tire partie d’un ensemble de projets et de techniques pré-existants. Bien sûr, l’ordinateur, dont la première version familiale naît en 1977, joue un rôle crucial. De même, le modulateur-démodulateur, créé dans les laboratoires Bell en 1958, est un élément essentiel du réseau. Les efforts de standardisation des communications entre machines aboutissent en 1977 à la création du Transport and Control Protocol/Internet Protocol (TCP/IP) qui permet d’unifier petit à petit la diversité des réseaux existants et des techniques de communication qu’ils utilisent. Alors que seulement 1000 ordinateurs sont connectés en 1984, ce sont 10 000 000 machines qui sont en réseau en 1996. Aujourd’hui, plusieurs milliards d’objets communicants sont connectés à l’Internet.

13 Un récent sondage conduit par iYogi montre que les outils numériques sont aujourd’hui un poste de dépense très important pour les ménages et qu’un ménage américain possède en moyenne 7 appareils connectés. http://www.iyogiinsights.com/research/63-people-prefer-to-stay-connected-than-warm.html

14 Jessy Irvin rapporte ainsi l’exemple d’une élève poursuivie pour une conversation jugée déplacée qu’elle entretenait avec un camarade de classe. Voir http://modelviewculture.com/pieces/grooming-students-for-a-lifetime-of-surveillance

15 airbnb.com est un site qui permet à ses utilisateurs de louer une chambre, un appartement ou une maison. uber.com est un site qui met en contact conducteurs et passagers potentiels. Enfin, etsy.com permet à chacun de vendre ce qu’il fabrique.

16 Voir http://www.lemonde.fr/economie/article/2014/08/21 et http://www.lemonde.fr/immobilier/article/2014/10/08/

17 Voir sur ce point http://www.businessinsider.com/uber-new-york-city-office-protests-2014-9.

18 L’expression « économie de l’attention » désigne le fait que nous faisons face aujourd’hui à des masses d’information dont l’importance dépasse nos capacités d’attention. L’attention est ainsi devenue un bien rare, d’où l’importance « d’attirer l’attention ». Voir, par exemple (Citton 2014 L'économie de l'attention).

19 Voir https://www.google.fr/maps et http://www.ign.fr/ ainsi que http://www.theguardian.com/media/2009/feb/19/google-wins-street-view-privacy-case

20 Voir https://websenti.u707.jussieu.fr/sentiweb/ et http://www.google.org/flutrends/. Declan Butler insiste sur la nécessité de trouver un moyen de coexistence entre ces deux modèles. Voir http://www.nature.com/news/when-google-got-flu-wrong-1.12413.

21 La décision peut être trouvée ici : http://curia.europa.eu/juris/liste.jsf?num=C-131/12.

22 A. Rouveroy diagnostique la mise en place d’une gouvernementalité algorithmique qui programme nos actions. Nous partageons ce constat. Voir (Rouvroy Berns 2013 Gouvernementalité algorithmique).

23 Cette démultiplication se lit notamment dans l’inflation du vocabulaire utilisé pour désigner la surveillance contemporaine. Ainsi D. Quessada parle-t-il de « sousveillance » pour désigner le fait que nous sommes toujours sous le regard des autres. Voir [Quessada 2010].

24 http://quantifiedself.com/

25 Le blog Les décodeurs se donne ainsi pour mission d’évaluer les discours politiques à l’aune des données publiquement accessibles : http://www.lemonde.fr/les-decodeurs/.

26 https://developers.facebook.com/docs/opengraph

27 Le projet Predestination de Microsoft fait ainsi un parallèle entre les habitudes de conduite, les périodes de l’année et les heures de a journée. Voir (Krumm Horvitz 2007 Predestination).

28 Dans (Achara 2014 WifiLeaks), les auteurs montrent ainsi qu’il est possible de deviner, à partir des réseaux WIFI qu’un utilisateur connaît, son domicile, sa profession et ses orientations politiques ou sexuelles

29 https://www.apple.com/ios/whats-new/quicktype/

30 Nanette Byrnes cite ainsi une patiente qui, à propos des données médicales, utilisées pour étudier la progression et les causes des maladies orpheline, affirme « qu’elles sont juste là, attendant d’être utilisée » (Traduction de l’auteur). Voir http://www.technologyreview.com/news/529011/can-technology-fix-medicine/

31 La distinction entre « intention » et « programmation » nous est inspirée par G.E. Anscombe. (Anscombe 2000 Intention)

32 Facebook, par exemple, permet de calculer un itinéraire mais uniquement à partir de Bing, pas à partir d’autres services comme Google ou Uber.

33 http://www.w3.org/2002/07/soap-translation/soap12-part0.html

34 http://www.w3.org/Submission/2003/SUBM-EPAL-20031110/

35 http://oauth.net/2/

36 Nous avons notamment étudié APEL (Dami 1998 Apel), BPMN (http://www.bpmn.org/) et BEPL (http://docs.oasis-open.org/wsbpel/2.0/OS/wsbpel-v2.0-OS.html).

37 http://applinks.org/ propose ainsi une application dédiée au deep-linking. Néanmoins, elle ne prend pas en compte la gestion de la vie privée.

Pour citer cet article

Aurélien Faravelon (2015). "Les enjeux de l'ère numérique : une approche philosophique et informatique des dispositifs de visibilité contemporains". - La revue | Numéro 3 - Les Doctorales 2013-2015 de l'innovation.

[En ligne] Publié en ligne le 18 septembre 2015.

URL : http://innovacs-innovatio.upmf-grenoble.fr/index.php?id=309

Consulté le 29/03/2017.

A propos des auteurs

Aurélien Faravelon

Thèse préparée au sein de l’Université de Grenoble

Équipe SIGMA - Laboratoire d’informatique de Grenoble

Groupe de recherches Philosophie, Langage et Cognition

Thèse encadrée par Christine Verdier (Université Grenoble 1 - Équipe SIGMA - Laboratoire d’informatique de Grenoble) et Philippe Saltel (Université Grenoble 2 - Groupe de recherches philosophie, langage et cognition).

Aurélien Faravelon est actuellement postdoc dans l’équipe INRIA DICE (Institut rhône-alpin des systèmes complexes (IXXI) / Centre of Innovation in Telecommunications and Integration of service (CITI). Il a soutenu un doctorat sur la vie privée après un cursus en informatique et en philosophie. Ses recherches actuelles portent sur l’intermédiation et l’économie des données.

Aurelien.Faravelon@insa-lyon.fr




Contacts

SFR INNOVACS

Université Grenoble Alpes

1221 avenue centrale - Domaine universitaire

38400 Saint-Martin d'Hères

sabrina.barbosa@univ-grenoble-alpes.fr

http://innovacs.univ-grenoble-alpes.fr/

Abonnez-vous

Recevez en temps réel les dernières mises à jour de notre site en vous abonnant à un ou à plusieurs de nos flux RSS :

Informations légales

ISSN électronique :

Dernière mise à jour : 23 février 2017

Edité avec Lodel.

Administration du site (accès réservé)