PROJET AUTOBLOG


La Quadrature du Net

Site original : La Quadrature du Net

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

[TV5Monde] Reconnaissance faciale : quatre associations déposent un recours contre les futurs portiques de lycées du sud de la France

mercredi 27 février 2019 à 11:00

Deux lycées du sud de la France ont eu le feu vert de la Commission nationale de l’informatique et des libertés pour tester des portiques virtuels utilisant une technologie de reconnaissance faciale afin de filtrer les élèves. La quadrature du net associée à trois autres associations a déposé un recours pour demander l’annulation de la délibération du conseil régional à l’initiative de ce projet. Entretien avec Martin Drago, membre de LQDN et Didier Baichere, député LREM. […]

Martin Drago (membre de LQDN en charge du dossier reconnaissance faciale) et Didier Bachaire, député LREM (ayant posé une question au gouvernement sur la régulation des technologies de reconnaissance faciale), répondent chacun à nos questions au sujet de ces portiques et plus généralement de l’arrivée des « caméras intelligentes » dans les espaces publics. […]

https://information.tv5monde.com/info/reconnaissance-faciale-quatre-associations-deposent-un-recours-contre-les-futurs-portiques-de

[NDLRP] Le communiqué de La Quadrature du Net sur ce recours : Reconnaissance faciale : un recours pour faire barrage à la surveillance biométrique.

Soutenons notre internet, La Quadrature a besoin de vos dons.

Cybersécurité : nous attaquons la surveillance de masse

mardi 26 février 2019 à 13:57

Nous venons de saisir le Conseil d’État contre la loi de programmation militaire (LPM) 2019 au côté d’un fournisseur d’accès associatif, Franciliens.net, et de la Fédération des fournisseurs d’accès associatifs (FFDN) . Pour la première fois, le droit français a autorisé le gouvernement à analyser de façon automatisée le contenu de nos communications. Voilà comment nous nous y opposons.

La LPM 2019 est entrée en vigueur en France en juillet 2018. C’est un texte épars sur des questions de sécurité et notamment, à son article 34, de cybersécurité.

L’agence de cybersécurité du gouvernement (l’ANSSI – l’autorité nationale de sécurité des systèmes d’information) gagne de nouveaux pouvoirs de surveillance du Net. Elle peut ordonner à un hébergeur Web ou un FAI (fournisseur d’accès à Internet) de poser sur le réseau des sondes lui permettant d’analyser le trafic pour détecter des attaques informatiques – en théorie du moins car, en pratique, on n’en sait trop rien, tout cela se déroulant sans le contrôle d’un juge.

Ces sondes sont la suite directe des « boîtes noires » instituées par la loi renseignement de 2015, qui permettent aux services du gouvernement de surveiller les réseaux de télécommunication de façon automatique et parfaitement opaque afin de détecter des « menaces terroristes », toujours sans l’autorisation d’un juge. La différence majeure entre les boites noires de 2015 et de 2019 est que ces premières n’analysent en théorie que des données techniques (qui parle à qui, quand…) alors que celles de 2019 peuvent aussi analyser le contenu des communications. La tentation pour le gouvernement de détourner ces nouveaux outils à des fins de surveillance politique en est d’autant plus grande.

Pour aller plus en détails, vous pouvez relire notre analyse complète de la loi, publiée cet été.

Nos arguments

En terme de stratégie, nous avons demandé au Conseil d’État de dire que cette loi viole le droit européen (techniquement, nous n’avons pas directement attaqué la loi mais son « décret d’application », car il n’existe pas de procédure en France pour attaquer une loi ; en pratique, ça ne fait ici aucune différence puisque le Conseil d’État a le pouvoir d’annuler un décret au motif que la loi qu’il applique viole le droit européen, ce qui revient au même pour nous : c’est cette violation que nous voulons voir reconnue par un juge).

Sur le fond, vous pouvez lire ici la demande que nous avons envoyée. Elle est très simple et courte, car il ne s’agit que d’un premier document destiné à ouvrir la procédure (nous devions envoyer notre demande dans les deux mois suivant la publication du décret). Le détail de notre argumentation viendra dans un « mémoire complémentaire », mais les grandes lignes sont déjà là.

Des objectifs confus

Le texte est extrêmement confus quant à son objectif. Il semble vouloir protéger les internautes des cyberattaques et, dans le même temps, détecter ceux qui sont à l’origine de ces attaques, sans faire aucune distinction entre ces deux objectifs. Or, en droit, poursuivre l’un ou l’autre de ces objectifs change tout. Si c’est pour vous protéger, le droit doit au minimum vous laisser la possibilité de vous opposer à l’analyse de vos communications qui en résulte. Ici, la LPM ne vous laisse aucun pouvoir de la sorte : vous êtes protégé contre votre volonté.

Si l’objectif est de détecter les attaquants, évidemment, le droit n’a plus aucune raison de laisser à ceux-ci la possibilité de s’y opposer. Mais la loi doit toutefois leur garantir un certain nombre de droits, ne serait-ce que pour éviter que ces mesures ne soient dévoyées à des fins de surveillance politique.

Une surveillance indéfinie

D’abord, la nature et les conséquences de la surveillance doivent être compréhensibles à la lecture de la loi : ici, aucune définition ne limite la nature des données qui pourront être analysées par les sondes (le directeur de l’ANSSI annonce ainsi qu’il pourra s’agir de données techniques comme des données relatives au contenu des communications, ce qui décuplera les risques posés par ces mesures) ni quelles seront les « menaces » qui pourront être recherchées.

On ne sait pas non plus ce que seront ces « marqueurs techniques » utilisés par ces sondes pour rechercher ces menaces : cette notion de « marqueurs », invoquée par la loi, n’a aucune signification juridique ou technique.

Aucun contrôle indépendant

Ensuite, le droit européen impose de soumettre n’importe quelle mesure de surveillance au contrôle d’une autorité indépendante : ici, l’autorité indépendante désignée par la loi est l’ARCEP (l’autorité de régulation des postes et des communications électroniques).

Sauf que la LPM ne donne aucun pouvoir de contrôle à l’ARCEP : elle ne peut pas contrôler les sondes « sur place » (contrairement au contrôle que la CNIL peut faire dans une entreprise, par exemple). Elle ne peut pas davantage sanctionner l’ANSSI si elle constate que les sondes ont été dévoyées à des fins de surveillance politique.

Aucun moyen de se défendre

Enfin, les personnes surveillées doivent pouvoir contester les mesures illicites qu’elles ont subit. Le droit européen exige ceci de deux façon : en s’assurant que les personnes surveillées soient prévenues de la mesure une fois que la menace invoquée a disparue ; en leur permettant de saisir la justice ou une autorité compétente (ici l’ARCEP) pour contester la validité de la surveillance. Encore une fois, la LPM 2019 ne prévoit aucune de ces garanties.

Nous ouvrons ce nouveau front contre la surveillance de masse alors même que notre action contre la loi renseignement de 2015 vient tout juste d’être transmise devant les juges européens (voir notre article) et que le Parlement européen est sur le point de voter une nouvelle loi de surveillance-censure généralisée du Web dans les mains de la police et des GAFAM, abusant une fois de plus du prétexte terroriste.

Si vous pensez que nous avons bien fait d’ouvrir ce nouveau front, participez à tenir les autres fronts avec nous : jusqu’au 21 mars, appelez les députés européens pour leur demander de rejeter le règlement de censure terroriste.

[FranceCulture] Peut-on repartir de zéro sur les réseaux sociaux ?

mardi 26 février 2019 à 11:00

Chaque seconde, près de 6000 tweets sont postés sur Twitter. Ceux qui ne seront pas effacés deviendront vite obsolètes. Mais culture de l’instantané ne veut pas dire culture de l’oubli. Les vieux messages peuvent toujours ressurgir. Alors comment gérer la mémoire d’Internet ? […]

Intervenants :

https://www.franceculture.fr/emissions/du-grain-a-moudre/reseaux-sociaux-faut-il-revenir-sur-le-droit-a-loubli

[NRLDP : Soutenons notre internet, La Quadrature a besoin de vos dons.]

[NextINpact] Le Conseil constitutionnel censure l’ancien droit de communication des douanes

lundi 25 février 2019 à 11:00

Le Conseil constitutionnel a censuré vendredi l’ancien régime du droit de communication des données de connexion dont bénéficiaient les agents des douanes. Après avoir considéré que ce régime était conforme au bloc de constitutionnalité le 27 janvier 2012, la haute juridiction est finalement revenue sur son analyse en raison d’un « changement des circonstances ». […]

Dans cette QPC, notons l’intervention de la Quadrature du Net, et d’autres associations (Franciliens.net, FAImaison, Midway’s Network et Rézine), toutes représentées par Me Alexis Fitzjean Ó Cobhthaigh.

https://www.nextinpact.com/brief/le-conseil-constitutionnel-censure-l-ancien-droit-de-communication-des-douanes-7789.htm

[NDLRP] Le communiqué de La Quadrature : Le Conseil constitutionnel censure l’accès des douanes aux données de connexion.

Soutenons notre internet, La Quadrature a besoin de vos dons.

Vers l’automatisation de la censure politique

vendredi 22 février 2019 à 12:30

Pour vous opposer à l’automatisation de la censure imposée par le règlement terroriste, rendez-vous sur notre page de campagne et contactez les députés européens jusqu’au 21 mars.

Une tribune de Félix Tréguer, membre de La Quadrature du Net.

Nous sommes à un tournant de la longue histoire de la censure. Ce tournant, c’est celui de la censure privée et automatisée. Il acte une rupture radicale avec les garanties associées à la liberté d’expression que les luttes démocratiques du XIXème siècle nous avaient léguées en héritage.

L’héritage démocratique-libéral piétiné

La loi de 1881 sur la liberté de la presse – aujourd’hui interprétée à la lumière de la Convention européenne des droits de l’Homme – est certes pleine de lacunes, et on a trop souvent tendance à exagérer son libéralisme. Mais elle n’en demeure pas moins une boussole fondamentale pour la liberté d’expression, prévoyant par exemple des règles procédurales spéciales pour juger a posteriori des abus de cette liberté, et consacrant la compétence exclusive du juge judiciaire dans le cadre de procédures publiques.

Ces dernières années, cet héritage a été piétiné. Les protections associées à la liberté d’expression reculent partout : dans la rue, dans la presse mais aussi et surtout sur Internet. Si le phénomène est ancien, le contexte actuel de crise (anti)terroriste et la dérive autoritaire qu’oppose le pouvoir aux mouvements sociaux y contribuent grandement. Pour ne prendre qu’un sujet qui nous intéressera ici, rappelons par exemple qu’en 2014, le législateur a estimé que l’« apologie du terrorisme » sur Internet n’aurait à ce point rien à voir avec la liberté d’expression qu’elle pourrait faire l’objet d’une censure secrète du ministère de l’intérieur. Cette évolution aura d’ailleurs conduit fin 2016 à la censure de communiqués revendiquant des actes de destruction matérielle de véhicules policiers, en réponse à l’inculpation de personnes arrêtées en lien avec les manifestations contre la loi travail de 2016.

Par le même vote de 2014, le Parlement jugeait également l’apologie du terrorisme indigne de la loi de 1881 et de ses garanties, et bien plus à sa place dans le code pénal. En contournant les garanties procédurales attachées à la loi de 1881, cette évolution aura conduit aux comparutions immédiates et à des condamnations totalement disproportionnées de dizaines de provocateurs au lendemain des attentats de janvier 2015.

De l’expérimentation à la législation

Cette fuite en avant est en train d’atteindre un point de bascule. Depuis 2015, les gouvernements français, britannique, allemand et étasunien n’ont eu de cesse de mettre les multinationales de l’économie numérique sous pression pour les inviter à faire la police sur leurs plateformes. De visites ministérielles dans la Silicon Valley en sommets « États-plateformes » sur le terrorisme, Google, Facebook et consorts ont accepté ces collaborations visant à massifier la censure de la propagande terroriste dans un cadre extra-judiciaire.

Après de nombreuses expérimentations menées ces dernières années, notamment par  Europol ou encore le ministère de l’intérieur français, ces nouveaux agencements public-privé sont en passe d’être couronnés par l’adoption à marche forcée d’un règlement européen dédié à la lutte contre la propagande terroriste, présenté en septembre dernier par la Commission Juncker.

La France est directement à l’origine de ce texte. Le 12 avril dernier, le ministre de l’intérieur Gérard Collomb et son homologue allemand écrivaient à la Commission européenne pour l’intimer d’agir au plus vite pour présenter et faire adopter ce texte. Celle-ci a donc obtempéré, présentant son projet en catimini le 12 septembre – le jour où le Parlement européen adoptait le fameux article 13 de la directive copyright, dont les obligations en matière de censure automatique nourrissaient alors la controverse.

Dans sa version initiale, ce projet de règlement antiterroriste tient en quelques articles :

La censure automatique bientôt généralisée

De la lettre d’avril 2018 émanant des ministres de l’intérieur français et allemand, il ressort deux choses, depuis confirmées par les informations glanées ces dernières semaines dans différents ministères.

D’abord, la certitude que le règlement est un pied dans la porte, une manière bien coutumière d’imposer des mesures controversées en invoquant des justifications supposées imparables – ici la lutte (anti)terroriste. Comme l’expliquent les ministres de l’intérieur dans cette missive :

« Il conviendra par la suite d’étendre les règles fixées aux contenus à caractère pédopornographique et à ceux relevant des discours de haine l‘incitation à la discrimination et à la haine raciale, atteinte à la dignité de la personne humaine… ».

À terme, ce nouveau régime de censure a donc vocation à être généralisé. Il suffira de revoir les paramètres de ces outils de filtrage pour ajouter de nouvelles catégories de contenus.

Le deuxième enseignement de cette lettre des gouvernements français et allemand est que ces systèmes de censure automatique développés par les grandes plateformes devront être proposés à l’ensemble des acteurs visés par ce texte :

« Les grandes entreprises [devront] apporter un soutien logistique aux plus petites plateformes, tant les moyens de celles-ci sont par trop limités pour apporter une réponse efficace à notre injonction de retirer rapidement les contenus à caractère terroriste ».

Il est vrai que ces systèmes sont coûteux : Content-ID, l’outil mis en place par YouTube pour détecter de possibles atteintes au droit d’auteur dans les vidéos publiées par ses utilisateurs, aura à lui seul coûté près de 100 millions de dollars en développement…

Macron en soutien

Début novembre 2018, lors du Forum sur la gouvernance d’Internet qui se tenait dans les locaux de l’Unesco à Paris, Emmanuel Macron est revenu sur ce règlement, un texte qu’il a dit « soutenir pleinement », espérant « son adoption rapide avant les élections européennes ». Soit en à peu près 6 mois, délai exceptionnellement court pour un texte sécuritaire qui institue une censure extra-judiciaire pour l’ensemble des acteurs du Net opérant au sein de l’Union européenne.

Dans son discours, Macron confirme le bien-fondé des craintes soulevées par le règlement. Assurant que la « régulation des contenus illicites ou indésirables » est « la prochaine frontière », il s’empresse de distinguer « deux blocs » :

« Pas encore », donc bientôt ? Cette perspective a récemment été confirmée par Mounir Mahjoubi, secrétaire d’État au numérique : en annonçant le plan de lutte contre les contenus haineux sur Internet, le 14 février dernier, celui-ci évoquait sans réserve la perspective de soumettre les « discours de haine » à la censure automatique.

Quant à la référence aux contenus « indésirables », signifie-t-elle que que le chef de l’État entend encourager l’extension de ces systèmes de censure à des contenus licites mais réputés nuisibles par le pouvoir ? Un projet qui, parmi tant d’autres choses, contredit frontalement l’image d’un homme politique prétendant incarner l’« axe humaniste » européen dressé contre la fascisation du continent…

L’intelligence artificielle, Saint Graal des États

Durant les trois jours du Forum sur la gouvernance d’Internet, l’« intelligence artificielle » (ou IA) était sur toutes les bouches. C’est bien elle, en réalité, la nouvelle frontière censée transformer toutes les bureaucraties. C’est bien elle qui, selon l’expression entendue à maintes reprises durant cet événement, permettra à la surveillance et à la censure de « passer à l’échelle ».

Les progrès réalisés ces dernières années en « Machine Learning » et en traitement automatique des textes et des images fait en effet figure de Saint Graal pour les États. Fin 2017, un conseiller de Theresa May expliquait que si les États avaient besoin des multinationales américaines pour faire le sale boulot, c’est qu’après tout, « ces entreprises ont les meilleurs cerveaux du monde ».

Ces firmes, réunies depuis juin 2017 au sein d’un consortium baptisé « Global Internet Forum to Counter Terrorism », mettent en avant des résultats impressionnants (mais guère vérifiables) en matière d’automatisation de la détection des contenus terroristes : YouTube parle de 98% de contenus de ce type repérés automatiquement, tandis que Facebook explique que 99% des contenus liés à l’État islamique ou à Al-Qaïda sont retirés avant que quiconque ne les ait signalés.

Pour l’heure, ces outils de censure automatique n’opèrent souvent qu’un premier filtrage. L’essentiel des contenus censurés sont en réalité « modérés » par des prestataires établis en Inde, au Philippines ou au Maroc pour juger de la conformité de textes ou d’images aux conditions d’utilisation des plateformes. « En attendant les robots », ces petites mains de la censure qui travaillent dans des conditions déplorables se voient imposer des objectifs délirants de l’ordre de 2000 images par heure, soit une appréciation portée sur une image en moins de deux secondes. En 2017, Facebook annonçait porter ses équipes de modération de 3000 à 7500 personnes. Google envisageait dans le même temps de porter le nombre de modérateurs YouTube à plus de 10 000.

Ces chiffres rappellent que, malgré ses rapides progrès, la censure automatisée n’est encore que balbutiante. Mais compte tenu des milliards investis dans la recherche en IA et des pressions exercées par les États, sa généralisation est désormais à portée de main. Elle est bien en passe de fonder un nouveau régime de censure.

La fusion État-GAFAM : actualisation de logiques anciennes

Si l’on pense l’État non pas comme un bloc aux contours clairement identifiés (à la manière des juristes) mais davantage comme un ensemble de pratiques et une rationalité que Michel Foucault désignait comme la « gouvernementalité », alors il est clair que ce que ces évolutions donnent à voir, c’est l’incorporation de ces acteurs privés à l’État ; c’est la cooptation de leurs infrastructures et la diffusion de leurs savoir-faire dans le traitement et l’analyse de masses de données désormais cruciales dans les formes contemporaines de gouvernement. C’est donc une fusion qui s’opère sous nos yeux, bien plus qu’une concurrence entre les États et les GAFAM qui chercheraient à se substituer aux gouvernements.

Ces logiques de cooptation d’acteurs privés par l’État sont récurrentes dans l’histoire de la censure. À partir du XVIè siècle, alors que le développement de l’imprimerie joue un rôle clé dans la propagation de doctrines politiques et religieuses subversives, l’État moderne en gestation recourait déjà aux partenariats public-privé dans la surveillance et la censure des communications.

En France, le cardinal de Richelieu conclut au début du XVIè siècle une alliance avec les libraires parisiens qui réclament un monopole perpétuel sur l’édition des livres pour écraser la concurrence. Ils se voient octroyer des privilèges à durée quasiment illimitée en échange de la conduite d’une mission de surveillance des publications et la docte application des règlements en matière de censure. Cette politique, bientôt élargie à l’ensemble du royaume, permettra à une trentaine d’imprimeurs-libraires de maîtriser tant bien que mal la production et la distribution des livres. Cela n’étouffait évidemment pas totalement l’édition clandestine, mais permettait de maîtriser un tant soit peu les effets politiques de l’imprimerie, d’affermir l’absolutisme tout en remplissant les caisses de quelques hommes d’affaires.

Lors de leur apparition au tournant des années 1980, les réseaux informatiques – et Internet en particulier – se sont donnés à penser comme une technologie radicalement subversive des formes de contrôle des communications qui s’étaient institutionnalisées dans le giron de l’État moderne, et transposées aux différentes techniques de communication apparues depuis l’imprimerie. Ils allaient bientôt induire la massification des flux transfrontières d’information, l’anonymat relatif des communications numériques, l’appropriation de ces technologies par des groupes contestataires et marginalisés dans l’espace public traditionnel, et plus généralement la démocratisation de la capacité d’expression publique au delà du petit cercle des personnes ayant jusqu’alors accès aux médias traditionnels. Tout cela déstabilisait les modalités de contrôle de l’espace public et, plus encore, la souveraineté des États. Internet était perçu comme un espace dangereux. Il fallait donc réarmer la police de l’espace public ou, pour reprendre le vocable que Nicolas Sarkozy avait emprunté au parti communiste chinois, le « civiliser » (un terme encore repris récemment par Mounir Mahjoubi).

La solution est donc en passe d’être trouvée, et il aura fallu moins d’un quart de siècle. Aujourd’hui, au lieu d’une petite dizaines d’imprimeurs-libraires à l’échelle d’un pays, ce sont une poignée d’entreprises américaines qui sont cooptées par les bureaucraties d’État dédiées à la surveillance et à la censure. En dépit des discours lénifiants sur la « souveraineté numérique », les gouvernements préfèrent renforcer la position dominante de ces multinationales en obligeant l’ensemble des acteurs du numérique à leur acheter leurs systèmes de filtrage. Ceux qui ne pourront pas se le permettre ou qui refuseraient de se faire auxiliaires de censure – notamment ceux qui font encore vivre un Web indépendant, non-commercial, alternatif – seront poussés à mettre la clé sous la porte.

L’instrumentalisation de la lutte contre les discours de haine

On nous parle de lutter contre la propagande terroriste et les discours de haine. Mais il est désormais de plus en plus clair que cette lutte reposera sur des dispositifs de censure automatique qui resteront de véritables « boîtes noires », par définition secrètes, gérées par des partenariats public-privé opaques. Ces derniers consentiront peut être à mettre en scène une certaine transparence, un peu d’autorégulation et des aménagements présentés comme autant de garanties – à l’image de Facebook qui nous promet aujourd’hui de mettre sur pied une « cour suprême » pour recevoir des plaintes d’utilisateurs victimes de sa politique de « modération ». Mais ils ne présenteront jamais les garanties offertes par des juridictions traditionnelles. Et pour cause : ces dispositifs sont conçus pour s’en affranchir. La censure automatique des communications a cet avantage pour le pouvoir qu’elle est presque invisible, et donc pratiquement incontestable.

On nous parle de lutter contre les discours de haine via la censure d’Internet. Mais depuis plus de quarante ans que des incriminations existent pour réprimer les expressions incitant à la haine et aux discriminations, a-t-on vraiment fait des progrès en la matière ? De fait, l’intolérance se donne à voir au grand jour sur Internet, où elle s’abat sur des groupes structurellement discriminés. Pour autant, ces opprobres sont aussi quotidiennes dans les médias traditionnels, dans les cénacles politiques, et bien souvent dans les pratiques des institutions.

On nous parle de lutter contre les discours de haine. Mais il apparaît de plus en plus clairement que ce qui est aussi visé, c’est l’invisibilisation de tout discours associé de près ou de loin à des formes de violence politique qui risqueraient d’être perçues comme légitimes. C’est ce qu’illustre par exemple l’affaire déjà évoquée, lorsque fin 2016, au nom de la lutte contre le terrorisme, le ministère de l’intérieur enjoignait à deux sites participatifs de censurer un communiqué revendiquant l’incendie d’un hangar de gendarmerie, acte présenté par les auteurs comme une réponse à la répression policière (cette décision aura finalement été annulée début 2019 par la justice administrative, exceptionnellement saisie de cette affaire). Plus largement, c’est l’ensemble des discours politiques contestataires qui pourraient bientôt faire l’objet de cette censure secrète. La tentation du pouvoir est réelle, comme en témoigne les velléités récentes du ministère de l’intérieur de faire retirer un photomontage qui remplaçait le visage du général Pinochet et de ses sbires par ceux d’Emmanuel Macron, d’Édouard Philippe et de Christophe Castaner.

S’il était adopté, le règlement antiterroriste serait donc une pierre de plus dans la mise en place de ces nouveaux dispositifs dédiés à l’invisibilisation des expressions politiques contestataires. Rien qu’en s’en tenant à la catégorie de l’apologie du terrorisme, les outils de censure développés par les multinationales du numérique en lien avec les autorités trouveraient à s’appliquer à de nombreuses activités militantes : le sens du terme « terrorisme » est en effet tellement vague, ou lorsqu’une définition existe elle est tellement large, qu’il peut servir à justifier la censure de toute expression favorable à des actions politiques offensives ou violentes – y compris la destruction de biens matériels, le sabotage ou le blocage d’infrastructures.

Conjurer la re-féodalisation de l’espace public numérique

Si l’on se soucie de la liberté d’expression, si l’on se soucie de ménager un espace où le pouvoir pourra être critiqué, où nous pourrons débattre et nous organiser, où un peu de sens commun pourra se construire, ces nouvelles formes de censure doivent être tenues en échec.

Ce qu’il faut, c’est d’abord comprendre qu’une grande partie du problème lié aux discours haineux sur Internet tient à ce qu’est devenue l’économie politique de ce réseau. Le nœud du problème spécifique que pose Internet, c’est bien la manière dont les grandes entreprises du numérique conditionnent les régimes d’attention : les contenus attrape-clics, simplistes et sans nuance, jouant sur les émotions négatives ; les « bulles de filtres » qui nous enferment tout en donnant l’illusion de neutralité, et offrent un faux sentiment de sécurité en permettant aussi à des individus aux identités politiques radicalement adverses de venir nous agresser sur des plateformes ouvertes aux quatre vents.

Face aux « Fake News » et à la haine qui sévit aussi sur Internet, ceux qui prétendent nous gouverner se frottent les mains : le pourrissement de l’espace public numérique leur permet aujourd’hui de légitimer le retour de vieilles stratégies de contrôle. C’est tout le sens du discours de Macron au Forum sur la gouvernance d’Internet.

Ce n’est pourtant pas une fatalité. Ces dernières semaines, La Quadrature du Net a commencé à exposer des positions destinées à lutter par le droit contre ces infrastructures centralisées qui pervertissent le débat public, tout en favorisant l’éclosion d’îlots de communication communautaires et fédérés où pourront se redéployer les espaces d’expression, de conversation, et donc une partie du débat public. L’idée phare de ces propositions, c’est de casser le régime d’attention mis en place par les plateformes, fondé sur la collecte des données personnelles et la hiérarchisation des contenus à des fins commerciales, au sein d’infrastructures gigantesques pensées pour rendre les utilisateurs captifs.

L’objectif, c’est bien de promouvoir en lieu et place une nouvelle topologie de l’espace public numérique capable de protéger des lieux de discussion décentralisés mais pouvant être reliés les uns aux autres, laissant à chacun le choix de ses communautés et des limites données à la liberté d’expression, pour ainsi mieux maîtriser son degré d’exposition aux conflits qui traversent immanquablement l’espace public. L’espoir est d’ainsi réduire le risque de conflits interpersonnels non-souhaités. C’est de faire en sorte que la demande sociale de censure soit moins forte et que la censure préalable et automatique puisse ne plus apparaître comme la seule option valable ; que le principe d’une protection judiciaire de la liberté d’expression soit préservé.

L’urgence, c’est en tous cas de rompre l’alliance des appareils policiers et des grands marchands d’infrastructures numériques. C’est d’éviter que ne se consolident les fondements techniques et juridiques d’une société de contrôle nous enfermant imperceptiblement dans une cage de fer algorithmique.

Ce texte est adapté d’une intervention au colloque « Réglementer la liberté d’expression au nom du débat public », qui se tenait à l’Institut de Recherche Philosophiques de Lyon (IRPhiL) les 29 et 30 novembre 2018.

Error happened! 0 - Call to undefined function simplexml_load_string() In: /var/www/Projet-Autoblog/autoblogs/autoblog.php:364 http://www.couturat.fr/Projet-Autoblog/autoblogs/wwwlaquadraturenet_44e8acc42497346e638a15ab33c4994359e275c3/?7 #0 /var/www/Projet-Autoblog/autoblogs/autoblog.php(932): VroumVroum_Blog->update() #1 /var/www/Projet-Autoblog/autoblogs/wwwlaquadraturenet_44e8acc42497346e638a15ab33c4994359e275c3/index.php(1): require_once('/var/www/Projet...') #2 {main}