Comme prévu, "l'affaire" de l'iPhone que le FBI demande à Apple de cracker suite à la tuerie de San Bernardino prend des proportions internationales. Tous les "grands noms" et les grandes firmes de l'écosystème internet y vont de leur tribune. Et comme prévu, la majorité est clairement du côté de Tim Cook et de la sécurisation à tout prix de l'espace de notre "privacy" tel qu'il est en tout cas rassemblé dans les 700 millions d'iPhones en circulation dans le monde.
Du coup je me retrouve un peu tout seul, ne pouvant compter que sur le soutien de Bill Gates (qui s'est fortement fait secouer et a été obligé de nuancer ses propos initiaux devant l'emballement médiatique) et de … Donald Trump. #Ouch.
Pour autant je maintiens mon argumentaire et ma conviction. Mais je voudrais l'inscrire dans un contexte un peu plus large. Oui je considère qu'il est dangereux, à l'échelle de nos démocraties, et au regard de ce que sont aujourd'hui nos pratiques connectées et leur médiation dans et par nos smartphones, oui je considère qu'il est dangereux qu'une entreprise (Apple) décrète l'inviolabilité de ces espaces de stockage dans le cadre, j'insiste là-dessus, dans le cadre d'une enquête diligentée par un juge.
J'entends bien sûr l'ensemble des arguments, d'ailleurs souvent très censés, de ceux qui rappellent que céder à cette demande pour "un" iPhone dans le cadre "d'une" affaire, remettrait en cause le niveau de sécurité de l'ensemble des iPhones pour l'ensemble des clients en possédant un. J'entends bien sûr que la demande du FBI pourrait s'étendre à d'autres affaires, que le FBI a d'ailleurs déjà demandé à Apple de dévérouiller d'autres iPhones dans d'autres affaires. J'entends que la protection de la "vie privée" est aujourd'hui une question essentielle, et pas uniquement dans l'optique du storytelling d'une campagne marketing opportunément menée.
Mon argumentation tient en 3 points (pour faire simple) :
- point 1 : et si l'iPhone était celui non pas d'un terroriste mais d'un pédophile ?
Je pense que la réponse de Tim Cook aurait été différente (je suis en tout cas certain qu'elle n'aurait pas été ainsi délibérément médiatisée).
- point 2 : l'ensemble des clients d'une firme doivent-ils, comme autant de citoyens qu'ils demeurent avant tout, disposer d'un espace "privé" résistant à la demande de toute procédure diligentée par un juge dans le cadre d'affaires criminelles ?
A mon avis non.
- point 3 : est-ce à des "fabriquants" – Apple – ou à des fournisseurs de service – Google, Facebook et les autres – de défendre la vie privée ?
Oui. Mais parmi d'autres. Surtout pas "à eux seuls". Et pour des raisons – commerciales – d'image de marque et de logique de services. Mais est-ce à eux de décréter l'inviolabilité a priori et a posteriori d'un "espace" personnel ainsi devenu résistant à toute forme d'investigation judiciaire ? Je reste convaincu que la réponse est non. Pour plein de raisons mais notamment parce "qu'offrir des garanties de confidentialité" n'est pas la même chose que d'instituer de fait des espaces hors-la-loi, donc hors-la-cité, donc hors toute possibilité de contrôle démocratique (c'est à dire sous le contrôle d'un juge). Cette idée me fout autant en rogne que l'inviolabilité du "secret" bancaire. Et elle menace l'exercice démocratique de la même manière et dans les même proportions que ledit secret bancaire.
Effet de manche.
Alors bien sûr en ayant dit-cela, personne n'est malheureusement plus avancé et aucune solution "raisonnable" ne se profile à l'horizon. Parce qu'à l'image de tous les bons vieux films de procès américains, Tim Cook nous a fait le coup de "l'objection rejetée". Mais si, souvenez-vous. Un procès, un accusé et des jurés. Et soudain le méchant procureur sort un argument dont il sait qu'il sera retoqué par le juge sur demande de l'avocat du gentil accusé parce qu'il ne concerne pas l'affaire en train d'être jugée ou qu'il est complètement hors-sujet, mais dont il sait surtout qu'il fera mouche auprès du jury, jury qui, après avoir entendu cet argument, ne pourra pas simplement "l'effacer de son esprit" et en tiendra nécessairement compte au moment de formuler son verdict. Genre le type est jugé pour une bagarre dans un bar parce que quelqu'un l'avait provoqué et soudain l'avocat rappelle qu'il y a 15 ans il avait été impliqué dans une affaire de violentes émeutes syndicales. Rien à voir. Mais le mal est fait. Pour les jurés, il s'agit bien d'un type "au passé violent". Bref une technique classique d'influence.
L'argument de Tim Cook est un argument de généralisation abusive, ou, pour rester dans le domaine informatique, un argument de scalabilité. Rhétoriquement très habile mais logiquement bancal. Quand un juge demande à Tim Cook de dévérouiller un iPhone dans le cadre d'une affaire de terrorisme, Tim Cook répond : si nous dévérouillons celui-ci, n'importe qui pourra dévérouiller n'importe quel autre pour n'importe quelle raison. Sauf que c'est faux. Sauf que c'est déjà parfaitement possible. C'est du pipeau. Une seule personne, un seul dispositif est concerné mais Tim Cook nous dit "vous êtes tous concernés". Et une fois ce (faux) raisonnement acté, il peut alors enchaîner sur la phase 2 : après avoir joué sur notre "peur" de voir ainsi la justice venir fourrer le nez dans nos petites affaires rangées dans notre iPhone, il n'a plus qu'à décliner la "peur" que ce soit des terroristes ou des organisations ou des états malveillants qui s'infiltrent nuitamment dans nos petits secrets d'iPhone. Comme si les terroristes et/ou états et organisations malveillantes avaient besoin de ça, comme s'ils n'étaient pas déjà en pleine capacité de le faire sur une immensité de données et de comportements face auxquels ceux contenus dans notre iPhone relèvent de la portion congrue.
Mais l'argument fait mouche. Pour 3 raisons. Parce que nous sommes tous devenus des flippés-dépités de la "privacy". Parce que les états "démocratiques" ont sur le sujet, fait à peu près tout ce qu'il fallait pour s'assurer de perdre durablement toute crédibilité et toute confiance (des pathétiques pataugeages des différentes "chartes" des données personnelles jusqu'au scandale de la NSA). Et parce que les "grandes firmes" comme Apple (et d'autres) ont parfaitement sû se glisser dans ce gouffre béant d'incompétence, de malversations et d'atermoiements étatiques pour construire un argumentaire commercial visant à transférer sur leurs écosystèmes un capital confiance qu'elles ont ainsi tout loisir de continuer de mettre à mal dans le cadre des collaborations régulières qu'elles ont toujours entretenu avec des états démocratiques ou anti-démocratiques dans l'unique but de préserver, de conquérir ou d'étendre un marché.
L'équilibre de la terreur ou le terrorisme comme équilibre de la privacy.
Faute d'avoir pu et su poser convenablement, dans les temps et dans le cadre démocratique imparti, le débat sur la question de l'articulation entre la "privacy" (qui est un peu plus large que celui sur la "vie privée") et l'exercice de rendu public consubstantiel à nos démocraties, devant l'incurie des états et les enjeux financiers colossaux concernés, et devant la sordide actualité de la menace terroriste, nous nous retrouvons désormais dans une situation très inquiétante d'escalade. Par-delà les iPhones, Apple vient en effet d'annoncer qu'il comptait aller encore plus loin dans le chiffrement sur iCloud.
Nouvelle escalade pour un nouvel équilibre de la terreur. Terreur de la transparence. Indépendamment des solutions chiffrées déjà existantes et utilisées (aussi bien d'ailleurs par des terroristes que par des journalistes et des lanceurs d'alerte), c'est à terme chaque citoyen qui pourra disposer d'un niveau de cryptage tel qu'aucun terroriste / lanceur d'alerte / journaliste n'aurait imaginé un jour pouvoir disposer. Confrontés à cela les états n'auront d'autre choix que celui d'une surenchère dans le systématisme de la dissimulation d'une surveillance généralisée au moyen de techniques effectivement toujours plus "intrusives" afin de précisément pouvoir contourner des niveaux de cryptage individuels de plus en plus élevés. Et c'est lorsqu'il sera une nouvelle fois trop tard que nous mesurerons la justesse de la maxime de Benjamin Franklin :
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité, ne mérite ni l'une ni l'autre, et finit par perdre les deux."
Confusion totale.
Nous pensons qu'Apple oeuvre pour notre liberté en renforçant les niveaux de cryptage. L'argument de scalabilité de Tim Cook nous fait croire que la demande d'un juge dans le cadre d'une enquête terroriste pourrait de manière totalement paradoxale remettre en cause la sécurité de chacun d'entre nous. La confusion entre "sécurité" et "liberté" est ici totale. Comme est totale la confusion entre ceux à qui devrait légitimement incomber la responsabilité de protéger et de défendre et l'une et l'autre. J'allais écrire de ces deux "valeurs", mais non, la liberté est une valeur, la sécurité est un droit. Et le droit est au service des valeurs. Le droit est ce qui permet de défendre ces valeurs.
Le droit à la vie privée, oui. Le droit au secret, non.
Est-ce à une entreprise commerciale d'accorder à un ensemble de citoyens un droit au secret ? En bouclant cet article m'est revenu à l'esprit cette tribune de Serge Tisseron au sujet d'un autre droit, d'une autre liberté : le droit à l'oubli. Voici ce qu'il écrivait dans une entrevue à Libération :
"Pourtant, la possibilité d’effacer est-elle bien la solution ? Si une technologie simple permettait à chacun de faire disparaître d’Internet ce qui lui déplaît, le risque ne serait-il pas que chacun fasse encore moins attention à ce qu’il y met ? Le droit à l’oubli pourrait alors rapidement encourager l’oubli du droit"
Est-il nécessaire que j'aille au bout de la transposition ? D'accord. J'y vais.
La systématisation du secret est-elle bien la solution ? Si une technologie simple permet à chacun de définitivement dissimuler au regard de la justice ce qu'il souhaite au moment où il le souhaite, le risque n'est-il pas que chacun ait la tentation de tout dissimuler ? Le droit à la vie privée pourrait alors rapidement encourager la privatisation de l'ensemble des espaces de vie où doit pouvoir s'exercer le droit.
Il semble hélas que nous en soyons très exactement là.
===============================================
Ci-après un petit florilège des tribunes qui m'ont paru le plus "intéressantes" depuis ces derniers jours :
- Tim Cook qui en rajoute un couche en mode "ce que nous demande le FBI c'est l'équivalent du cancer". #EscaladeDeLaMétaphore et qui après s'être adressé à ses clients s'adresse désormais à ses employés et continue de communiquer sur le site de la marque.
- L'article absolument essentiel de Reflets.info : "Le choc des pipeaux" (vraiment si vous ne devez en lire qu'un seul, lisez celui-là)
- Cory Doctorow dans The Guardian.
- Yochai Benkler dans The Guardian aussi mais avec un argumentaire bien plus subtil que ne le laisse penser le titre de l'article : "We cannot trust our governement, so we must trust the technology."
- Evgeny Mzorov dans le Financial Times : "Apple is right, our smatphones must be secured"
La question ne se pose pas. Pour moi.
Smartphone = dépendance & traçage.
DE TOUTE FAÇON.
Donc, je n’ai pas de smartphone ni n’en aurai JAMAIS.
K.-G. D.
Sur l’argumentaire de Tim Cook, et de la « backdoor universelle » : l’article de Reflets dit « la firme [Apple] peut donc développer une version permettant d’attaquer les passcodes en force brute, et c’est très exactement ce qu’un tribunal, le DOJ et le FBI lui demandent de faire. »
Pour moi, le mot important dans la phrase ci-dessus, c’est « développer » (et non « Apple peut »). C’est-à-dire qu’actuellement, il n’est pas possible de cracker la chose : il faut effectuer du travail supplémentaire de développement pour le permettre. Je ne connais pas le droit, je ne suis pas sûr qu’un juge puisse l’imposer. Et est-ce même souhaitable que la justice puisse imposer du travail à une entreprise/un particulier ? (qui n’est, dans l’affaire, ni accusé, ni victime)
D’après les commentaires de Reflets, d’autres ont la même réaction que moi :
– il existe un vide juridique pour ces « logiciels ad hoc » (aux US, alors qu’en France ça a l’air d’être possible avec une acception large de certaines de nos récentes lois, cf Reflets)
– s’ils le font une fois, pour du terrorisme, ils seront contraint de le refaire plus tard pour d’autres affaires, progressivement de moins en moins sérieuses que le terrorisme. D’abord de la pédopornographie, puis de la fraude bancaire, puis des litiges commerciaux/familiaux.
Je vous suis sur « est-ce à [GAFAM] de décréter l’inviolabilité a priori et a posteriori d’un « espace » personnel ainsi devenu résistant à toute forme d’investigation judiciaire ? Je reste convaincu que la réponse est non. » Pour moi, la réponse est en effet que la discussion doit être collective. Et qu’elle n’est pas réglée. Mais pour cette affaire, je ne pense pas qu’Apple doive céder non plus, afin de ne pas non plus créer seule un précédent discutable…
Est-ce qu’on ne pourrait pas comparer l’iPhone avec une extension du corps et de l’esprit de son propriétaire. De même qu’on ne peut forcer une personne à témoigner contre elle même ou qu’on ne peut lire l’esprit d’une personne, on ne peut pas lire les données protégées d’iPhone. Cela ne me choque pas.
Bonjour,
Votre argumentaire tient la route, cependant il faut voir que le FBI sort ici son chapeau politique en voulant faire de cette affaire un cas d’école.
1) Avec ou sans ces données, le ou les suspects sont déjà coupables. On ne voit donc pas en quoi l’accès à ce Ichose pourrait changer radicalement la tenue de l’enquête ou éviter une condamnation.
2) Le FBI semble semble s’être lui-même tiré une balle dans le pied en rendant impossible l’accès à ce téléphone. Il n’a donc que lui à blâmer.
Conclusion: si les deux parties versent dans la mauvaise foi c’est parce que pour le FBI, ce téléphone n’a d’autre utilité que de servir de chiffon rouge.