PROJET AUTOBLOG


La Quadrature du Net

Site original : La Quadrature du Net

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

[EN DIRECT] ! Soirée littéraire Sciences Fiction, Paris

mercredi 12 décembre 2018 à 19:00

Suivez en direct La soirée littéraire sur la Sciences Fiction, à la maison du libre et des communs, rue St Denis, Paris

<script src="https://radio.octopuce.fr/player1/hls.min.js">

<script> if(Hls.isSupported()) { var video = document.getElementById('video'); var hls = new Hls(); hls.loadSource('https://radio.octopuce.fr/ts1/stream.m3u8'); hls.attachMedia(video); hls.on(Hls.Events.MANIFEST_PARSED,function() { video.play(); }); }

Si vous n’avez pas de navigateur compatible HTML5, vous pouvez aussi voir directement le flux live en faisant pointer votre player habituel (tel VLC ou MPlayer) à l’adresse suivante :

https://radio.octopuce.fr/ts1/stream.m3u8

<style type="text/css"> video, img {
width: 95%  !important;
height: auto  !important;
}

Le Parlement européen appelle à la censure automatisée et privatisée du Web à des fins sécuritaires

mercredi 12 décembre 2018 à 17:04

Comme nous le redoutions lundi dernier, le Parlement européen vient d’adopter un rapport proposant, au prétexte de la lutte contre le terrorisme, de déléguer la censure du Web européen à Facebook et Google.

Pour rappel, ce rapport indique, parmi de nombreuses recommandations, qu’il serait nécessaire « de parvenir à la détection automatique et à la suppression systématique, rapide, permanente et complète des contenus terroristes en ligne » et d’empêcher « le rechargement de contenus déjà supprimés ». Le texte précise à ce titre qu’il se « félicite de la proposition législative de la Commission visant à empêcher la diffusion de contenus terroristes en ligne », « invite les co-législateurs à engager rapidement les travaux sur cette proposition » et « invite les États membres à mettre en place des mesures nationales si l’adoption de la législation en la matière est retardée » (§ 47).

Trois amendements auraient permis au Parlement européen de se démarquer de la volonté d’Emmanuel Macron et de la Commission européenne de soumettre l’ensemble du Web aux outils de censure automatisée développés par Google et Facebook, tel que nous le dénoncions avec 58 autres organisations.

Un premier amendement proposait que la censure des « contenus terroristes » ne se fasse pas de façon « automatique » ; cet amendement a été rejeté à 311 voix contre 269 (77 abstentions). Un deuxième amendement proposait que cette censure n’implique pas une activité de « détection » active des contenus, ni une suppression « systématique et rapide » ; il a été rejeté à 533 voix contre 119 (4 abstentions). Un troisième amendement proposait de ne pas imposer aux plateformes une obligation de « supprimer complètement » les contenus ; il a été rejeté à 534 voix contre 105 (14 abstentions).

La majorité des députés européens rejoint donc la volonté exprimée la semaine dernière par les gouvernements européens d’imposer une censure généralisée, privée et automatisée de l’Internet (lire notre article).

Le rapport adopté aujourd’hui ne prévoit que de simples « recommandations » : ce n’est qu’une sorte de déclaration de principe sans effet juridique. Toutefois, il laisse craindre que le Parlement ait déjà abandonné toute ambition de défendre nos libertés face aux arguments sécuritaires qui ont motivé la Commission européenne à proposer son règlement de censure anti-terroriste, que le Parlement européen examinera dans les semaines à venir.

Le vote d’aujourd’hui est d’autant plus inquiétant qu’il intervient à la suite d’une fusillade survenue hier à Strasbourg, dans la ville où siégeait le Parlement. Plutôt que de reporter ce vote1Nathalie Griesbeck (ALDE), présidente de la commission TERR, a expliqué avoir envisagé de reporter le vote suite à l’attaque d’hier mais avoir finalement considéré que cette occasion justifiait l’adoption du texte.<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5335_1").tooltip({ tip: "#footnote_plugin_tooltip_text_5335_1", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });, les députés ont préféré adopter immédiatement le texte. Certains ont même évoqué l’attaque d’hier pour justifier leur volonté sécuritaire2Parmi les députés ayant fait un lien entre l’attaque d’hier à Strasbourg et le rapport adopté aujourd’hui, nous pouvons citer : Monika Hohlmeier (EPP), co-rapporteure sur le texte, qui a déclaré après le vote : « Yesterday’s attack on the Christmas market in Strasbourg was an attack on European citizens and the common EU values and principles in the worst possible way. The incident has shown us again that we need to leave empty slogans and unrealistic measures behind and concentrate our activities on what really makes Europe safe. […] This means […] more prevention measures against radicalisation […] ». Frédérique Ries (ALDE), sur Twitter : « C’est un Parlement bouleversé par l’attaque du marché de Noël #strasbourg d’hier soir qui adopte les recommendations de la commission spéciale sur le #terrorisme. Du choc aux votes, l’UE doit se protéger contre cette haine si destructrice. », « Renforcement d’Europol, des mesures concrètes pour la lutte contre la #radicalisation et l’apologie du terrorisme, un système européen de surveillance de financement du #terrorisme figurent parmi les recommendations phares de ce rapport ». De son côté, Julian King, commissaire européen à la Sécurité de l’Union, commentait sur Twitter : « Solidarity this morning with all those affected by the odious attack in #Strasbourg. The work we’re doing to support the authorities to tackle radicalisation, help victims and reinforce security is as relevant as ever. »<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_5335_2").tooltip({ tip: "#footnote_plugin_tooltip_text_5335_2", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });, invoquant un « risque de terrorisme islamiste » alors que l’auteur des violences n’a pas encore été arrêté et que l’enquête en est à peine à ses débuts.

Comme d’habitude, malheureusement, le temps de l’apaisement et de la réflexion, et même du deuil, a été écarté pour avancer à marche forcée sur les voies sécuritaires et destructrices que nos dirigeants poursuivent depuis des années en prétendant défendre la démocratie contre le totalitarisme. Tout en faisant l’inverse.

Désormais, les débats au Parlement européen concerneront directement le règlement de censure antiterroriste. Vous pouvez lire notre dernière analyse plus complète sur ce texte, qui sera notre dossier principal dans les mois à venir.

References   [ + ]

1. Nathalie Griesbeck (ALDE), présidente de la commission TERR, a expliqué avoir envisagé de reporter le vote suite à l’attaque d’hier mais avoir finalement considéré que cette occasion justifiait l’adoption du texte.
2. Parmi les députés ayant fait un lien entre l’attaque d’hier à Strasbourg et le rapport adopté aujourd’hui, nous pouvons citer : Monika Hohlmeier (EPP), co-rapporteure sur le texte, qui a déclaré après le vote : « Yesterday’s attack on the Christmas market in Strasbourg was an attack on European citizens and the common EU values and principles in the worst possible way. The incident has shown us again that we need to leave empty slogans and unrealistic measures behind and concentrate our activities on what really makes Europe safe. […] This means […] more prevention measures against radicalisation […] ». Frédérique Ries (ALDE), sur Twitter : « C’est un Parlement bouleversé par l’attaque du marché de Noël #strasbourg d’hier soir qui adopte les recommendations de la commission spéciale sur le #terrorisme. Du choc aux votes, l’UE doit se protéger contre cette haine si destructrice. », « Renforcement d’Europol, des mesures concrètes pour la lutte contre la #radicalisation et l’apologie du terrorisme, un système européen de surveillance de financement du #terrorisme figurent parmi les recommendations phares de ce rapport ». De son côté, Julian King, commissaire européen à la Sécurité de l’Union, commentait sur Twitter : « Solidarity this morning with all those affected by the odious attack in #Strasbourg. The work we’re doing to support the authorities to tackle radicalisation, help victims and reinforce security is as relevant as ever. »
<script type="text/javascript"> function footnote_expand_reference_container() { jQuery("#footnote_references_container").show(); jQuery("#footnote_reference_container_collapse_button").text("-"); } function footnote_collapse_reference_container() { jQuery("#footnote_references_container").hide(); jQuery("#footnote_reference_container_collapse_button").text("+"); } function footnote_expand_collapse_reference_container() { if (jQuery("#footnote_references_container").is(":hidden")) { footnote_expand_reference_container(); } else { footnote_collapse_reference_container(); } } function footnote_moveToAnchor(p_str_TargetID) { footnote_expand_reference_container(); var l_obj_Target = jQuery("#" + p_str_TargetID); if(l_obj_Target.length) { jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight/2 }, 1000); } }

Le Parlement européen s’opposera-t-il à la censure sécuritaire ?

lundi 10 décembre 2018 à 15:26

Le 12 décembre, le Parlement européen votera le « rapport sur les observations et les recommandations de la commission spéciale sur le terrorisme ». S’il est adopté, ce texte, sans avoir l’effet d’une loi, recommandera l’adoption de mesures prévues dans le règlement de censure antiterroriste : la sous-traitance de la censure aux géants de l’Internet et le contournement des juges nationaux (lire notre dernière analyse).

La Quadrature du Net envoie aux députés du Parlement européen le message suivant, leur demandant de voter le rejet de ce rapport :

Chers députés du Parlement européen,

Le mercredi 12 décembre prochain, vous voterez le « rapport sur les observations et les recommandations de la commission spéciale sur le terrorisme ».

Ces recommandations prônent des mesures sécuritaires absurdes qui porteraient atteinte aux libertés fondamentales. De manière plus précise, ce rapport prône l’adoption des mêmes mesures que celles prévues dans le règlement de censure antiterroriste, qui sera débattu dans quelques semaines au Parlement : la remise en cause du chiffrement de bout en bout, la délégation de la censure aux géants de l’Internet et le pouvoir donné aux polices européennes de contourner les juges nationaux (points BD, BH, 47, 113 et 125). Pour l’ensemble de ces raisons, nous vous demandons de voter le rejet de ce rapport.

Utilisant le prétexte de la lutte contre la radicalisation en ligne, ces mesures suggérées par le rapport et inscrites dans le règlement de censure antiterroriste imposeront de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.

Alors que la Commission européenne et les gouvernements européens ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.

Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.

Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.

Quant aux acteurs associatifs et collaboratifs à but non lucratif, ils n’auront d’autres choix que de cesser leurs activités.

Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie (lire notre dernière analyse).

Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information.

Pour l’ensemble de ces raisons, La Quadrature du Net, avec 58 autres acteurs de cet écosystème et défenseurs des libertés fondamentales, avons déjà demandé à Emmanuel Macron de renoncer à son projet de règlement de censure antiterroriste.

Nous vous demandons donc de rejeter ce rapport pour mettre dès maintenant un frein à cette volonté absurde de déléguer la censure de l’Internet aux géants du Web et de permettre à toutes les polices de l’Union européenne de contourner les juges nationaux.

Les parlementaires qui refuseront de protéger les libertés fondamentales et l’écosystème numérique européen seront affichés publiquement.

Not Safe For (sex)Work

lundi 10 décembre 2018 à 13:32

Tribune de okhin

Les dirigeants de Tumblr ont publié le 3 Décembre 2018 un communiqué de presse annonçant une mise à jour de leurs conditions générales d’utilisation, signifiant qu’ils retirent tout contenu classifié comme adulte. Ils justifient leur décision par la décision unilatérale et sans appel d’Apple de supprimer l’application de leur AppStore. Décision motivée par le fait que Tumblr n’ait pas réussi à détecter des images de pédopornographie, en dépit des filtres automatisés déjà existant.

J’ai voulu rédiger quelque chose de construit, essayant de donner le contexte dans lequel cette suppression de contenu s’opère, hors de tout cadre légal (autre que celui des conditions générales d’utilisation d’Apple). J’ai voulu essayer de donner des arguments, de faire les liens entre sexualité, pornographie et identité de genre, mais au final ce n’est pas ce qui est important. Et énormément de monde — y compris sur Tumblr — a déjà écrit à ce sujet, et bien mieux que je ne pourrais le faire ici. Je vous invite d’ailleurs à aller lire ce que les premières concernées en disent comme, par exemple, cette Lettre d’amour à Tumblr écrite par Vex ou ce coup de gueule par Romy Alizée.

Voilà Tumblr qui supprime le contenu qui a fait son intérêt, sa spécificité, détruisant le travail fait par de nombreuses personnes minorisées, que ce soit par racisme, homophobie, misogynie, transphobie et/ou un mélange de tout cela. Ce travail permet à ces communautés d’exister, de vivre, de s’éduquer et d’échanger dans un cadre dans lequel elles ne sont pas mises en danger (notamment grâce au pseudonymat et au multi compte). Il permet aussi à de nombreuses personnes de travailler, qu’il s’agisse d’acteurs ou d’actrices cherchant à faire ce qu’elles ont envie hors des gros studios de porno hétéronormés, d’escort ou d’autres formes de travail sexuel. Il permet enfin de parler de sexualité, de permettre aux personnes en questionnement de se poser ces questions, d’essayer de comprendre comment se positionner dans ce monde, d’explorer leur corps, leur sexualité ou de poser des questions pratiques. Ou juste de se faire des amies qui partagent un bout de leurs galères quotidiennes… face à tout ce que Tumblr s’apprête à détruire, je me suis naïvement dit que cela ferait réagir, que le débat irait plus loin que la seule question du porno.

Mais la plupart des sites d’informations, quand ils en parlent, ne parlent pas de sexualité. Ou de travail sexuel. Le porno y est indiqué comme étant scanné pour lutter contre la pédopornographie. Reprenant donc les arguments de Christine Albanel en 2005, lors des débats HADOPI, ou ceux des associations familiales catholiques voulant défendre et protéger les enfants du grand méchant pornographe, celui-ci étant de toutes façons lié au puissant lobby LGBT d’après elles.
Pas de remise en contexte. Pas de liens effectués avec des actions similaires menées par Alphabet, Patreon, Kickstarter ou la plupart des plateformes de financement participatif qui, sous couvert de lutter contre la pornographie, empêchent des actrices de financer des soins dont elles ont besoin et qui n’ont aucun rapport avec leur travail, les mettant ainsi délibérément en danger.

Et quand, avec La Quadrature, on essaye de dire que l’on ne peut pas traiter les plateformes géantes telles que Tumblr de la même manière que les initiatives libres et distribuées, parce qu’elles effectuent de fait une sélection éditoriale et suppriment de l’espace public toute forme d’expression ne correspondant pas à leurs cibles commerciales ou à leur vision puritaine du monde — les deux étant apparemment compatibles, nous ne sommes pas à un paradoxe près — on nous dit que l’on veut abandonner les utilisateur·rice·s de ces plateformes.

Pourtant ce sont ces plateformes qui, non seulement invisibilisent et suppriment de l’espace public ces utilisateur·rice·s que nous « abandonnons », utilisant des systèmes arbitraires et ayant de nombreux faux positifs, tout en empêchant tout recours effectif contre la suppression de contenus, ou en coupant une source de revenus pour certaines activistes queer, féministe ou afroféministes. Ce sont ces plateformes qui nous imposent leur ordre moral hétérosexuel, patriarcal, blanc.
À en lire la presse, c’est juste un problème de filtrage d’Internet.

Et j’en ai marre. Je suis énervé. Je suis énervé de devoir justifier que j’existe, que mes ami·e·s existent, que nous avons le droit d’exister dans l’espace public. Je suis fatigué de devoir encore et toujours expliquer l’effet de réseau rendant socialement impossible la migration vers d’autres plateformes et donc l’importance de pouvoir socialiser sur ces plateformes pour des personnes souvent isolé·e·s dans un milieu hostile. Je suis fatigué que l’obligation de s’identifier, avec une seule identité, correspondant à votre état civil, ne soit pas débattue et que l’on se contente de vouloir distribuer. Je suis fatigué de lire « t’as qu’à aller sur mastodon » ou que c’est juste un effet de bord pour lutter contre la pédophilie, assimilant éducation sexuelle et pédophilie.

Après tout si, pour protéger les enfants, il est acceptable de taper un peu large et de supprimer toute forme de contenu parlant de sexualité, il devrait être acceptable de supprimer tout le contenu d’incitation à la haine raciale, au génocide, à l’appel aux meurtres de femmes et de queers, quitte à ce que tout contenu politique disparaisse ? Au delà du fait qu’il reste à prouver que la suppression de contenu est effectivement une méthode efficace de lutte contre la pédocriminalité organisée, ou du fait qu’on ne parle que des enfants victimes de ces crimes, et non de n’importe quelle personne victimes de violence sexuelle, s’il est acceptable de supprimer automatiquement tout contenu adulte pour lutter contre la pédophilie, alors il est acceptable de supprimer tout contenu politique pour lutter contre la haine de l’autre, non ?

C’est d’ailleurs ce qui se produit sur de nombreuses plateformes. Les comptes de personnes minorisées et militantes sont régulièrement fermés alors qu’elles sont victimes de harcèlement, les auteurs de ces harcèlement profitant d’une impunité de fait fournie par ces plateformes. Ces plateformes qui s’excusent régulièrement, promis, la prochaine fois, elles feront tout pour que leur communauté puisse s’exprimer sereinement. Quitte à récupérer sans aucune gène les luttes de ces personnes afin de se donner une image cool, respectable. Alphabet qui empêche les queers de monétiser leur contenu mais qui, dans le même temps, lors des marches des fiertés, affiche son soutien à la communauté LGBT en est l’exemple parfait.

Suppressions justifiées, une fois encore, non pas par des décisions de justice, mais par un principe de précaution. Suppressions effectuées en amont, par des filtres à l’upload, donnant à ces plateformes un rôle éditorial. Suppressions effectuées par des machines, entraînées à distinguer les tétons d’apparence féminine des autres. Suppressions qui, inévitablement, amènent à la disparition du corps des femmes de l’espace public. Suppressions qui, à cause des biais sexistes et racistes, se fera en utilisant une référence définissant ce qu’est une femme, ce qui est une représentation acceptable d’une femme en ligne, effaçant encore et toujours les femmes non blanches, ou ne correspondant pas au canon établi par ces filtres pseudo-intelligents.

On entend beaucoup de gens dire qu’il est inacceptable de supprimer du contenu incitant à la haine, du contenu posté par des personnes se définissant elles-mêmes comme des nazis. Je suis d’accord, parce que supprimer ce contenu est une tâche complexe, nécessitant entre autre des mises en contexte rigoureuses de propos tenus. C’est un travail nécessitant aussi une part d’archivage, et encore une fois, il n’est pas prouvé que la suppression du contenu seul ait un effet quelconque sur la diffusion des idées.

Les néo nazis, les réacs, les pro-BREXIT ou la Manif Pour Tous ont le droit aussi d’exister en ligne. Oui. Absolument. Notamment parce que cela facilite le travail de la police et de la justice. Mais ce que font les GAFAMs et les principaux sites de médias en ligne, n’est pas assimilable au simple fait d’exister. Ce que font les GAFAMs, c’est choisir quels contenus sont mis en avant, permettant même à chaque personne de les sponsoriser pour les diffuser vers un plus grand nombre de personnes. Ce que font les GAFAMs, ce n’est pas vivre et laisser vivre. C’est s’assurer que certains contenus soient vus par le plus grand nombre. C’est s’assurer que certains contenus ne soient jamais vus par personne. Ces entreprises, qui récupèrent petit à petit le contrôle sur l’ensemble des infrastructures, des contenus, des standards de communication, qui n’ont aucune légitimité pour décider du contenu qui a le droit d’exister, n’ont pas un simple rôle passif d’hébergement, mais un rôle actif d’éditorialisation du contenu.

Ces décisions de supprimer tel ou tel contenu, de classifier, d’empêcher certaines personnes de financer leurs projets ou de gagner un peu mieux leur vie, ces décisions sont politiques. Elles définissent le discours acceptable, elles définissent la seule culture devant exister, leur positions hégémonique empêchant toute existence hors de leur sphère d’influence. Ces décisions politiques doivent être considérées comme telles, et ces entreprises doivent etre responsables de leurs décisions, de même qu’un journal, et non ses auteurs individuels, est responsable du contenu qu’il publie.

Donc je suis énervé. Pas tellement contre Tumblr ou Apple au final, ils ne sont que le reflet de notre société. J’entends des « Apple protège ma vie privée ». Mais uniquement si vous ne parlez pas de cul, de sexualité, que vous ne travaillez pas autour de le sexualité, que vous n’êtes pas queer. Parce qu’à ce moment-là, vous n’existez plus.

Je vais donc le dire, encore une fois : le problème ce n’est pas le filtrage automatisé. Le problème ce n’est pas qu’aucun juge ne prenne plus de décisions, permettant au moins de contextualiser le contenu. Le problème c’est de considérer l’invisibilisation des minorités sexuelles, des femmes, des noirs, des musulmans, etc … du simple point de vue du filtrage et de la responsabilité des plateformes sans remettre tout cela dans un contexte politique.

Du coup, que faire ? est-ce qu’on a des choses à proposer ? En l’état des choses, pas vraiment. La solution de la distribution est un premier pas, mais ne résout pas le problème sous-jacent de la gestion d’un espace public commun. Au lieu de déléguer le pouvoir à une entreprise multinationale, on le délègue à une communauté de personnes. Effectivement, n’importe qui peut monter un service ActivityPub, mais tout le monde ne le fait pas. Et est-ce que vous pouvez vraiment faire confiance à des « amis » sur le fait qu’ils résisteront à toute forme de pression policière ? La réponse est non, même si ils sont les mieux intentionnés. Au mieux, ils suspendront le service, vous forçant à trouver une autre plateforme et recommençant encore une fois le même cycle.

D’autant qu’avoir un nom de domaine identifié, public, connoté, associé à une activité peut poser plus de problèmes qu’aller sur facebook et peut, dans malheureusement trop d’endroits, avoir des conséquences très concrètes sur notre sécurité. Et la plupart des alternatives nécessitent en plus une identification forte. Prenons le cas de Signal par exemple. Si je ne veux pas que quelqu’un puisse me joindre au-delà d’une conversation, je suis obligé de changer de numéro de téléphone. Et donc de devoir prévenir tous mes contacts avec qui je veux maintenir un contact que j’ai changé de numéro de téléphone.

Il n’y a pas, à ce jour, de plateformes logicielles et grand public permettant à des enfants, adolescents, jeunes adultes et adultes de se questionner sur leur orientation sexuelle sans être immédiatement détectés soit par leur FAI, soit par l’hébergeur de l’application — et donc Amazon, étant donné qu’une part de plus en plus grande d’applications et de systèmes de communications est hébergée chez eux. Il n’existe aucune plateforme ne nécessitant pas de compte ou d’informations pouvant identifier l’utilisateur·ice, aucune plateforme permettant d’effectuer des transactions bancaires entre deux personnes sans intermédiaire technique ou sans révéler l’identité des deux parties, il n’existe pas non plus d’applications sur lesquelles on peut envoyer des photos de nus et garantir que l’image ne soit pas facilement republiable en ligne.

Il y a du travail dans cette direction, mais on en est au stade de la recherche, encore loin d’avoir quelque chose de fonctionnel. Des applications telles que Briar, ou Cwtch, vont dans la bonne direction à mon sens, mais j’aimerais que les personnes qui développent les futures infrastructures de communications qui remplaceront les GAFAMs quand on aura fini par les mettre à terre, se posent la question de pouvoir répondre aux problèmes auxquels nous, membres de minorités, faisont face quotidiennement pour avoir simplement eu l’outrecuidance d’exister.

Une loi européenne pour censurer les mouvements sociaux sur Internet ?

vendredi 7 décembre 2018 à 14:38

Alors que la contestation nourrie par le mouvement des gilets jaunes grandit, alors qu’enflent les rumeurs d’une possible censure du mouvement par Facebook1Précision : nous n’avons actuellement connaissance d’aucun élément factuel indiquant que Facebook mettrait ou non en œuvre une censure visant spécifiquement les gilets jaunes. Cet article est une simple analyse juridique.<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_1650_1").tooltip({ tip: "#footnote_plugin_tooltip_text_1650_1", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });, livrons-nous à un peu de politique-fiction : comment la future loi de censure antiterroriste que la France cherche à imposer à l’Union européenne s’appliquerait-elle à des mouvement sociaux tels que celui des gilets jaunes ?

C’est un texte dont personne ne parle ou presque, et il est pourtant fondamental pour l’avenir des libertés publiques à l’échelle de l’Europe entière. Présenté au mois de septembre, il s’agit du règlement européen dédié à « la prévention de la diffusion de contenus à caractère terroriste en ligne ».

L’article 4 du règlement permet aux autorités publiques de demander directement à n’importe quel hébergeur le retrait d’un contenu relevant de l’apologie du terrorisme. En pratique, cela entérine la situation qui prévaut dans tous les pays réprimant l’apologie ou la provocation au terrorisme. Ainsi en France, depuis 2015, le ministère de l’Intérieur est compétent pour censurer la provocation ou l’apologie du terrorisme sur Internet (si l’hébergeur n’empêche pas l’accès au contenu visé sous 24 heures, alors le blocage de l’ensemble du site peut être mis en place par les fournisseurs d’accès à Internet français). Le tout sans aucun contrôle judiciaire préalable, dans le cadre d’une procédure secrète. Ainsi, en 2015, la France est devenue (devant l’Inde et la Turquie) le pays qui a obtenu le plus grand nombre de suppressions de pages Facebook (38 000 suppressions en un an, pendant que l’Allemagne ou Israël n’en obtenaient que 500).

Là où le règlement européen « innove » radicalement, c’est qu’il impose qu’un tel retrait par les hébergeurs intervienne en un délai record de une heure, sous peine de sanctions financières. Il prévoit aussi de passer par une voie encore plus discrète pour censurer ces contenus : les « mesures proactives », ces outils de censure automatique déjà développés par les grandes plateformes comme Facebook ou YouTube et qui pourront être paramétrés en concertation avec les autorités (article 6 du règlement). Comme nous l’avons déjà expliqué (lire notre analyse plus complète), le futur règlement européen prévoit de généraliser ces outils à l’ensemble des acteurs du Web (non seulement Facebook et YouTube mais aussi OVH, Gandi, NextCloud, Mastodon, etc.), voire même aux outils de messagerie (WhatsApp, Signal, Télégram, Protonmail, etc.)2Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée hier par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.
<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_1650_2").tooltip({ tip: "#footnote_plugin_tooltip_text_1650_2", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });. Concrètement, tous les acteurs du numérique devront développer des « mesures proactives pour protéger leurs services contre la diffusion de contenus à caractère terroriste ».

Mais du coup, c’est quoi, un « contenu à caractère terroriste » ?

L’article 2 du règlement explique que les contenus auxquels le texte s’appliquera sont des textes, images ou vidéos qui « provoquent à la commission », « font l’apologie », « encouragent la participation » ou « fournissent des instructions sur des méthodes ou techniques en vue de la commission d’infractions terroristes ». Tout repose donc sur ces « infractions terroristes », définies par le droit de l’Union à l’article 3 de la directive 2017/541.

La liste est longue. On y retrouve évidemment les meurtres visant à terroriser la population. Mais aussi des actes plus éloignés et moins attendus, tels que le fait de « provoquer une perturbation grave ou une interruption » d’un système informatique (un ordinateur, un site Web…) ou de « causer des destructions massives […] à un lieu public ou une propriété privée, susceptible […] de produire des pertes économiques considérables ». Pour être qualifiés d’infractions terroristes, ces actes doivent être commis dans le but de « contraindre indûment des pouvoirs publics ou une organisation internationale à accomplir ou à s’abstenir d’accomplir un acte quelconque » (retirer un projet de loi, par exemple) ou dans le but de « gravement déstabiliser […] les structures politiques, constitutionnelles, économiques ou sociales fondamentales d’un pays ». La simple menace de commettre de tels actes entre aussi dans la définition.

Bref, en droit européen, le piratage ou la destruction massive de biens, ou la menace de le faire, sont des « infractions terroristes » dès lors qu’il s’agit d’influencer une décision politique ou de déstabiliser des institutions.

Maintenant que le cadre est posé, commençons la politique-fiction. Parmi les contenus susceptibles d’être publiés sur Internet par des gilets jaunes, quels sont ceux qui pourraient être considérés comme relevant du « terrorisme » (selon les très larges définitions européennes) par Facebook et Google (soumis à la menace de sanctions en cas d’échec) ou par la police ? Par exemple :

En appliquant le droit à la lettre, on pourrait se demander lequel de ces contenus ne devrait pas être censuré automatiquement par les plateformes du Web une fois que le règlement anti-terroriste sera entré en application. De même, en théorie, ces contenus pourraient être censurés sur simple demande de la police.

Même si, pour l’heure, il s’agit encore de politique-fiction, le droit actuel en France va déjà en ce sens, comme l’illustre le type de discours qui ont pu passer pour de l’« apologie du terrorisme » ces dernières années. Par exemple, des peines de prison ferme pour des provocations lancées par certain·es au sujet des attentats de janvier 2015, ou l’injonction faite par le gouvernement fin 2016 à deux sites participatifs pour qu’ils censurent un article revendiquant l’incendie d’un hangar de gendarmerie commis en solidarité avec des personnes poursuivies en justice dans le cadre des manifestations contre la loi travail.

Censure privée, censure totale

Une censure de tels contenus pourrait donc intervenir de deux manières. C’est en quelque sorte « ceinture et bretelles » : quand les « mesures proactives » prises par un réseau social comme Facebook n’auront pas suffi à bloquer les contenus visés, la police pourra prendre le relais, pouvant exiger des services défaillants la suppression d’un contenu dans un délai d’une heure. Tout cela sans l’autorisation préalable d’un juge. Les acteurs concernés s’exposeront à des sanctions s’ils échouent trop souvent à censurer dans le délai d’une heure (article 18).

Bref, pour éviter d’avoir à répondre toute la journée aux demandes des polices des 28 États membres de l’Union européenne, et de subir des sanctions en cas d’échecs à y répondre dans l’heure, les services Web auront franchement intérêt à détecter à l’avance et le plus strictement possible tout ce qui ressemblera de près ou de loin à un « contenu à caractère terroriste », défini de façon extrêmement large.

Or, il est clair que les outils mis au point par Facebook et Google s’imposeront à l’ensemble du Web, même en dehors de leur plateforme, où certains pourraient chercher refuge. De ce que nous ont clairement expliqué des gens du gouvernement (revoir notre compte-rendu) et de ce qui apparaît dès 2017 dans les publications de la Commission européenne3Dès juin 2017, la Commission européenne
se félicite publiquement
d’« avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais). Cette base de données est ce que nous appelons « listes noires » dans notre analyse.
<script type="text/javascript"> jQuery("#footnote_plugin_tooltip_1650_3").tooltip({ tip: "#footnote_plugin_tooltip_text_1650_3", tipClass: "footnote_tooltip", effect: "fade", fadeOutSpeed: 100, predelay: 400, position: "top right", relative: true, offset: [10, 10] });, l’objectif de ce texte est au final d’imposer les filtres automatiques mis au point par les grosses plateformes à tous les acteurs du Web, petits ou grands, européens ou non. Ces derniers devront automatiquement respecter une large « liste noire » de contenus considérés comme illicites par les prétendues intelligences artificielles de Facebook et Google, qui décideront seuls et selon leurs propres critères s’il est autorisé ou non d’appeler à tel mouvement ou d’applaudir telle action contestataire.

Soyons clairs : notre analyse ne cherche pas à savoir quels propos devraient ou non être tenus en ligne, ni quelles revendications seraient ou non légitimes. Notre question est de savoir si nous acceptons de déléguer à la police et à une poignée d’entreprises privées hégémoniques, qui ne sont soumises à aucun contrôle démocratique, le rôle de juger nos actes et nos opinions, et de modeler le débat public en conséquence. Nous répondons résolument que non : seul un juge, indépendant des pouvoirs politiques et économiques, doit pouvoir censurer les propos qui, d’après des lois adoptées en bonne et due forme, seraient susceptibles de nuire de manière disproportionnée à autrui.

C’est tout l’inverse que propose Macron, principal promoteur du futur règlement européen : en cédant les pouvoirs de l’État aux géants du Web, il s’imagine pouvoir échapper à toute responsabilité politique en cas de censure abusive et massive du Web.

Ce règlement européen est une loi de censure que les gouvernements français et allemands souhaitent faire adopter d’ici aux prochaines élections européennes, en mai. Ils ont déjà réussi à faire accepter hier leur projet aux autres gouvernements européens, à une vitesse jamais vue au sein de l’Union européenne. Les eurodéputés et toutes celles et ceux qui entendent se présenter aux prochaines élections européennes doivent faire connaitre leur opposition à ce texte scélérat.

Nos autres articles sur le sujet :

References   [ + ]

1. Précision : nous n’avons actuellement connaissance d’aucun élément factuel indiquant que Facebook mettrait ou non en œuvre une censure visant spécifiquement les gilets jaunes. Cet article est une simple analyse juridique.
2. Notons ici une légère évolution depuis notre dernière analyse concernant les risques pour la confidentialité de nos communications. Dans la version du règlement actée hier par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».
Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « service de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée aujourd’hui indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.
3. Dès juin 2017, la Commission européenne
se félicite publiquement
d’« avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une « base de données d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ».
Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base de données d’empreintes numériques » » (toutes ces citations sont des traductions libres de l’anglais). Cette base de données est ce que nous appelons « listes noires » dans notre analyse.
<script type="text/javascript"> function footnote_expand_reference_container() { jQuery("#footnote_references_container").show(); jQuery("#footnote_reference_container_collapse_button").text("-"); } function footnote_collapse_reference_container() { jQuery("#footnote_references_container").hide(); jQuery("#footnote_reference_container_collapse_button").text("+"); } function footnote_expand_collapse_reference_container() { if (jQuery("#footnote_references_container").is(":hidden")) { footnote_expand_reference_container(); } else { footnote_collapse_reference_container(); } } function footnote_moveToAnchor(p_str_TargetID) { footnote_expand_reference_container(); var l_obj_Target = jQuery("#" + p_str_TargetID); if(l_obj_Target.length) { jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight/2 }, 1000); } }
Error happened! 0 - Call to undefined function simplexml_load_string() In: /var/www/Projet-Autoblog/autoblogs/autoblog.php:364 http://www.couturat.fr/Projet-Autoblog/autoblogs/wwwlaquadraturenet_44e8acc42497346e638a15ab33c4994359e275c3/?14 #0 /var/www/Projet-Autoblog/autoblogs/autoblog.php(932): VroumVroum_Blog->update() #1 /var/www/Projet-Autoblog/autoblogs/wwwlaquadraturenet_44e8acc42497346e638a15ab33c4994359e275c3/index.php(1): require_once('/var/www/Projet...') #2 {main}