• Nice : Une femme violée, torturée et dépouillée dans un parking, Adel et Mohamed écroués

    Par: Stéphane Cazaux..

     actu17

    Une femme a été victime d'un viol avec actes de torture et de barbarie dans un parking souterrain de Nice (Alpes-Maritimes) mi-août. 

    Après quelques semaines d'enquête, les policiers ont interpellé deux suspects qui ont été mis en examen et écroués.

    Une femme âgée de 30 ans a subi un atroce calvaire à Nice (Alpes-Maritimes) dans la nuit du 12 au 13 août dernier. 

    La victime, qui souffre de troubles psychiatriques, a été violée dans un parking souterrain par deux hommes, qui ont commis des actes de torture, avant de la menacer et la forcer à retirer de l'argent au distributeur. Les policiers sont parvenus à identifier deux suspects qui ont été mis en examen et placés en détention provisoire la semaine dernière, selon les informations d'Actu17.

    La nuit du drame, la trentenaire sortait de l'hôpital Pasteur, dans le nord de la ville. Un peu plus loin, elle est abordée par deux hommes. Ces derniers deviennent de plus en plus pressants et la forcent à les suivre dans un parking souterrain. Une fois à l'abri des regards, les agresseurs violent leur victime et lui brûlent le dos avec des cigarettes.
    Ils utilisent la carte bancaire de la victime

    La trentenaire est ensuite menacée et amenée de force jusqu'à un distributeur à billets. Elle est contrainte de retirer près de 200 euros. Les agresseurs lui volent son téléphone, ses écouteurs, ainsi que sa carte bancaire, et prennent la fuite.

    Particulièrement choquée, cette femme dépose plainte quelques jours plus tard. Les enquêteurs de la sûreté départementale (SD) sont chargés des investigations. Ils exploitent les vidéoprotections et découvrent également que la carte bancaire de la victime a été utilisée dans plusieurs commerces, les jours suivants les faits. Leurs investigations se révèlent payantes puisque deux hommes âgés de 20 ans sont finalement identifiés. Des recherches sont lancées pour les retrouver.
    Interpellés dans un squat

    Jeudi 14 septembre, les hommes de la SD interpellent le duo dans un squat situé dans le quartier Saint-Roch. Adel A. et Mohamed E. sont placés en garde à vue. Face aux enquêteurs, l'un des suspects décide de garder le silence. Le second finit par évoquer une relation sexuelle que son ami a eu "avec une femme qu'il ne connait pas". Il serait passé aux aveux concernant l'usage de la carte bancaire volée.

    Déférés au terme de leur garde à vue, les deux suspects ont été mis en examen des chefs de viol en réunion, actes de torture et de barbarie et extorsion au préjudice d’une personne vulnérable, ainsi que pour escroquerie, indique le parquet de Nice, à Actu17. Une information judiciaire a été ouverte.

    1 commentaire
  • Europe, l’EMA accélère la vaccination avec le nouveau Spikevax Moderna


    Le vaccin actualisé de Moderna a été approuvé par l’Agence européenne des médicaments (EMA). Baptisé Spikevax XBB.1.5, il est recommandé pour les personnes âgées de 6 mois et plus dans le but de prévenir les maladies graves liées au Covid-19, et est conçu pour cibler le sous-variant Omicron XBB.1.5. On comprend bien que cet ancien sous variant d’Omicron est le motif d’une propagande-panique pour tâcher d’imposer le vaccin au continent européen. 

    L’Agence européenne des médicaments (EMA) avait approuvé mercredi 30 aout une version mise à jour du vaccin anti-Covid de Pfizer/BioNTech à l’approche de l’hiver. Alors que depuis début mai, l’Organisation mondiale de la santé avait déclaré que le Covid-19 n’est plus une urgence sanitaire mondiale, mais pour l’EMA le virus continue de circuler et de nouvelles souches continuent d’émerger. Jeudi dernier, l’Agence européenne des médicaments (EMA) a récemment recommandé l’approbation du vaccin Moderna Spikevax XBB.1.5, spécifiquement conçu pour cibler le sous-variant Omicron XBB.1.5 du virus de la COVID-19. Cette nouvelle recommandation émanant du Comité des médicaments à usage humain (CHMP) de l’EMA préconise le retour de la vaccination.
    Le Spikevax XBB.1.5 recommandé en Europe

    Le comité des médicaments à usage humain (CHMP) de l’EMA, a recommandé l’autorisation du vaccin actualisé de Moderna ciblant le variant d’Omicron XBB.1.5. Cette décision a été prise après l’évaluation des données disponibles concernant le produit.

    Selon le communiqué de l’EMA, elles ont révélé la capacité de ce vaccin mis à jour à produire une réponse immunitaire contre le XBB.1.5, avec une hausse du niveau d’anticorps contre ce sous-lignage d’Omicron chez les adultes .Selon Moderna, son vaccin se révèle efficace contre les autres souches du SRAS-CoV-2, incluant l’Omicron XBB.1.16.
    Nouvelle propagande pour la vaccination des enfants

    Selon le communiqué de l’EMA, le développement du Spikevax XBB.1.5 de Moderna a été conforme aux recommandations du Centre européen de prévention et de contrôle des maladies (ECDC), des autres régulateurs internationaux et de l’OMS (Organisation mondiale de la santé).

    C’est ainsi sans surprise que l’on apprend que les recommandations de l’EMA stipulent qu’adultes et enfants à partir de 5 ans devraient recevoir une dose unique, quelle que soit leur histoire de vaccination contre la COVID-19. Pour les enfants âgés de 6 mois à 4 ans, le schéma de vaccination peut varier en fonction de leur historique de vaccination et de leur exposition antérieure au virus. Comme toujours, les autorités sanitaires recommandent une vaccination sans que l’on sache exactement les critères retenus. Le Covid reste bénin pour la très grande majorité des enfants.

    Sans aucune évaluation sérieuse des risques, selon l’EMA, les effets secondaires signalés sont généralement légers et temporaires, tels que des douleurs au site d’injection, de la fatigue, des frissons et des maux de tête. Les effets nocifs de ces injections anti- Covid sont de plus en plus visibles malgré ce que l’on sait être une volonté acharnée des institutions sanitaires de ne pas en faire cas.

    La recommandation sera maintenant soumise à la Commission européenne.

    Source : https://lecourrierdesstrateges.fr/2023/09/18/en-europe-lema-accelere-la-vaccination-avec-le-nouveau-spikevax/

    1 commentaire

  • 1 commentaire
  • Double mauvaise action/mauvaise politique du Pape François avec ses propos à Marseille (et l'ensemble de sa "politique" (!) vis-à-vis des envahisseurs) :

    1. Il dit : "Nous ne pouvons plus assister aux tragédies des naufrages provoqués par le fanatisme de l’indifférence" mais jamais il n'a mentionné depuis les débuts de son pontificat le fanatisme, l'expansionnisme et la férocité de l'Islam, qui s'empare de terres chrétiennes qu'il grignote (Haut Karabakh aujourd'hui, Kosovo hier...) et/ou qui persécute les chrétiens et les chasse de leurs terres (un million et demi de chrétiens en Irak avant la sale guerre des USA, même plus 200.000 aujourd'hui : il est vrai que, là, pour une fois, ce n'est pas directement ce Pape qui est fautif; persécutions constantes au Pakistan et dans maints pays musulmans, même en Égypte, malgré le très bon Maréchal Sissi, à la tête de l'État...)... Et pas un mot pour les victimes du terrorisme islamiste : ce Pape a "ses" stèles" (celles des envahisseurs) mais il ne se recueille pas devant celles des victimes de l'islamisme (Laura et Maurane, à la Gare Saint Charles, pourtant toute proche...)

    2. En réalité, et de fait, la continuité de l'action pro-envahisseurs du Pape revient à légitimer le pillage de l'Afrique par les néo-colonialistes d'aujourd'hui : au moins ceux d'hier annonçaient la couleur, et Bizarre disait carrément aux Incas qu'il était venu prendre leur or. Là on pille le continent africain de sa richesse en hommes, afin de se constituer une armée sans nombre de quasi esclaves, exploitables à l'envi, à qui l'on ne donnera que des sous-salaires de misère; mais on ajoute à ce crime l'hypocrisie/tartuferie consistant à dire que l'on agit au nom de principes en eux-mêmes justes et bons, mais dévoyés. Nous le rappelions hier : optima corruptio pessima...

    On pourrait dire de ce voyage papal éclair : 

    Pendant la visite papale, le pillage de l'Afrique par le néo-colonialisme continue !...

    Et ce Pape le cautionne et le bénit...

    PS : pour corriger un oubli du Pape, qui s'est incliné devant la plaque des envahisseurs, rappelons que Brahim Aouissaoui (ci dessous) venait de Lampedusa; arrivé à Nice, il n'a rien trouvé de mieux à faire que de massacrer trois fidèles catholiques dans une église de la ville (ci dessous, après la photo de leur assassin...

    3417031262.82.jpg

    3795001252.919.jpg

     

    Source : lafautearousseau


    1 commentaire
  • Règlement CSAR : la surveillance de nos communications se joue maintenant à Bruxelles

    Il y a un peu plus d’un an, la Commission européenne proposait l’un des pires textes jamais pensés sur le numérique : le règlement CSAR, également appelé « Chat control ». Affichant l’objectif de lutter contre les abus sexuels sur les enfants, cette proposition vise en réalité à créer un outil inédit de surveillance des communications. Dès le dépôt de ce projet de règlement, partout en Europe, associations et experts se sont insurgés contre cette initiative car elle reviendrait à mettre fin au chiffrement des communications.

    Aujourd’hui, bien que les critiques sont aujourd’hui plus nombreuses encore, les discussions avancent rapidement à Bruxelles, laissant présager une adoption très prochaine du texte. Afin de comprendre ses enjeux et aider à renforcer la mobilisation, nous revenons sur le contenu de ce règlement qui pourrait signer la fin de toute confidentialité des échanges en ligne.

    La genèse du projet

    Le 11 mai 2022, la Commission européenne lâchait une bombe dans le monde du numérique en publiant sa proposition de règlement « établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants ». Dénommé « Chat control » ou « CSAR » (pour « Child sexual abuse régulation »), ce texte vise à obliger les fournisseurs de contenus en ligne à détecter des contenus d’abus sexuels de mineurs en analysant les conversations de leurs utilisatrices.

    Cette initiative s’inspire d’outils mis en œuvre depuis plusieurs années par les grandes entreprises du web. Meta, par exemple, analyse de façon proactive l’ensemble des messages échangés sur Facebook Messenger ainsi que les données non chiffrées de Whatsapp (photos de profil ou groupe, descriptions, …) en vue de détecter des images connues d’exploitation d’enfants. En 2021, Apple annonçait mettre en place un outil d’analyse des données de ses clients hébergées sur iCloud afin de les comparer à une base de données de contenus signalés comme liés à de la pédopornographie, tout comme Microsoft qui a développé l’outil de comparaison PhotoDNA.

    Dès 2020, la Commission avait commencé à laisser présager son appétence pour ce type d’outils dans sa « stratégie de lutte contre les abus sexuels commis contre les enfants » qui a débouché en 2021 sur l’adoption d’un règlement sur le sujet. Celui-ci autorisait, de façon temporaire pendant trois ans, les services de communication électronique à faire de l’analyse de contenus en vue de détecter ceux liés à ce type d’abus. Si cette possibilité était facultative et devait reposer sur leurs conditions générales, une telle inscription formelle dans la loi légitimait néanmoins les initiatives et techniques de surveillance des grandes plateformes, renforçant par là même leur pouvoir hégémonique, sans qu’aucune évaluation de la pertinence de ces méthodes ne soit par ailleurs réalisée.

    Cette autorisation prend fin en 2024 et c’est pour cette raison que le CSAR a été proposé. Mais contrairement au règlement temporaire qui ne faisait que l’autoriser, ce projet de règlement impose de façon obligatoire la détection de ces contenus pédopornographiques sous certaines conditions, mettant donc fin à toute forme de confidentialité. Depuis le début des discussions il y a un an et demi, le réseau européen EDRi, dont La Quadrature du Net fait partie, a fourni un travail d’analyse considérable sur ce texte, que vous pouvez retrouver dans leur « position paper » ou, de façon plus condensée, dans leur brochure (en anglais). Nous vous résumons ici les principaux enjeux autour de ce règlement.

    Le contenu du règlement

    Le règlement CSAR vise à s’appliquer à un nombre très important d’acteurs. Entrent ainsi dans le champ d’application tous les « fournisseurs de services de communications interpersonnelles », c’est-à-dire les messageries en ligne telles que Signal, Whatsapp ou Telegram, les fournisseurs de mail, les applications de rencontre mais également les messageries qui ne sont qu’une fonction accessoire à d’autres services, comme dans les jeux par exemple. Rentrent également dans le champ d’application les « fournisseurs de services d’hébergement » tels que NextCloud, iCloud, DropBox ou les hébergeurs associatifs des CHATONS, les boutiques d’applications ainsi que les réseaux sociaux.

    Ces fournisseurs seraient contraints à mettre en œuvre une surveillance considérable de leurs utilisateurs. D’une part, les articles 3 et 4 prévoient qu’ils obéissent à une obligation d’évaluer et réduire au maximum les risques de partage de contenus pédopornographiques sur les services concernés. Cela impliquerait de fournir, via une étude d’impact, des éléments sur le fonctionnement et l’usage de leur outil afin de théoriquement anticiper les risques pour identifier les mesures d’atténuation correspondantes. Les fournisseurs devraient ainsi être en capacité de donner des informations sur quel type d’utilisateur (personne majeure, mineure..) utilisent leur service et quel type de contenu (vidéo, texte..) y sont échangés. Cette obligation est pourtant incompatible avec un des principes de base de respect de la vie privée sur lesquels repose le fonctionnement de nombreux services : l’absence de collecte de ce type de données personnelles. Ces prestataires seraient alors dans une position intenable car, pour se conformer à cette nouvelle réglementation, ils devront changer de modèle et commencer à recueillir des informations qu’aujourd’hui ils ne possèdent pas. Le règlement CSAR reviendrait pour eux à abandonner leur promesse de confidentialité, garantie notamment par le recours au chiffrement et l’anonymisation de données.

    En outre, l’article 6 du CSAR préconise que les fournisseurs aient recours à des solutions de vérification d’âge pour remplir cet objectif de réduction des risques. Or, non seulement aucun outil viable et respectueux de la vie privée n’existe réellement à ce jour mais, surtout, le recours à ce genre de solution pose de sérieux problèmes quant à la protection de l’anonymat en ligne, comme nous le rappelions récemment dans notre analyse de la loi française SREN. Au final, le texte pousse pour privilégier la mise en place de mesures coercitives et remet frontalement en cause le droit à la vie privée.

    D’autre part, ces acteurs auront l’obligation de répondre à toute « injonction de détection » émise par un juge ou une autorité administrative. Ainsi, les articles 7 à 11 prévoient que, s’il existe « un risque important que le service soit utilisé à des fins d’abus sexuels sur enfants en ligne », les fournisseurs pourront se voir obligés d’installer au cœur même de leur application ou infrastructure des outils leur permettant de scanner les données qui y transitent, afin d’y détecter de potentiels contenus liés aux abus sexuels d’enfants.

    Plus précisément les fournisseurs devront repérer trois types de données :

    • Des contenus « connus » c’est-à-dire des images ou des vidéos déjà répertoriées par les autorités comme liées à de la pédopornographie ou des abus sexuels d’enfants.
    • Des contenus « inconnus » c’est-à-dire des photos ou vidéos susceptibles de constituer de la pédopornographie, mais qui n’auraient pas été identifiées comme telles. Pour trouver ces contenus, les services devront utiliser des outils fondés sur de l’intelligence artificielle qui identifieront des corrélations entre les contenus partagés et des indicateurs prédéfinis (par exemple de la peau nue).
    • Des activités consistant à solliciter des enfants (appelé « pédopiégeage »). Il s’agit de détecter des comportements « types » de personnes qui rentrent en contact avec des enfants, à nouveau à partir de modèles statistiques et probabilistes fondés sur de l’intelligence artificielle.

    Concrètement, il s’agira de mettre en œuvre une technique de « client side scanning » (littéralement « analyse côté client »), c’est-à-dire analyser directement sur les appareils des utilisateurs les données qui y transitent. Lorsqu’un internaute enverra un message ou postera une publication via un des services concernés par une injonction, ce contenu sera analysé avant envoi. Plus précisément, ce sont des « hash », c’est-à-dire des empreintes numériques liées aux images, qui seront examinées. Ce hash sera alors comparé à une base de données déjà constituée de contenus relatifs à des abus sexuels d’enfants. Si le hash correspond avec une photo de la base, une alerte est déclenchée. Dans le cas contraire, cela signifie que le contenu doit être qualifié d’« inconnu » et un outil d’analyse supplémentaire vérifiera alors s’il existe des corrélations ou similitudes avec des contenus d’abus sexuels pour déclencher une alerte le cas échéant.

    Le cheval de Troie de la Commission : vers la fin du chiffrement

    En affichant l’objectif de protéger les enfants, l’Union européenne tente en réalité d’introduire une capacité de contrôle gigantesque de l’ensemble des vies numériques, concrétisant le rêve de surveillance de tout gouvernement. Ce texte a fait l’objet de tant de réactions qu’EDRi se demande si le CSAR ne serait pas la loi européenne la plus critiquée de tous les temps. Les critiques contre ce texte viennent des institutions européennes elles-mêmes, mais aussi d’organisations de défense des enfants en passant par les acteurs de la tech, ainsi que de scientifiques et chercheures où 465 d’entre eux ont signé une lettre contre cette proposition. Et à raison.

    Sur le plan technique, il faut comprendre que les injonctions de détections obligent les fournisseurs à analyser toutes les communications de l’ensemble des utilisateurs des services concernés. Et puisque les messages sont alors analysés avant d’être envoyés à leurs destinataires, cela supprime non seulement toute confidentialité mais cela rendra également inutile toute technique de chiffrement appliquée ultérieurement, c’est-à-dire une fois que le message à quitté l’appareil de l’utilisateur. L’objectif premier du chiffrement est d’empêcher un tiers de lire le message. Le CSAR vise pourtant précisément à permettre une telle lecture tierce. De même, la recherche de photo ou vidéo « inconnue » est totalement inacceptable. En pratique, le risque de « faux positifs » est énorme et cela signifie que pourraient faire l’objet d’une alerte des contenus tout à fait légitimes tels le corps d’adulte d’apparence trop juvénile, une photo d’enfant envoyée dans un cadre familial ou encore des ados échangeant de façon consentante.

    Enfin, appliqué au cas particulier de la détection de contenus pédopornographiques, envisager la constitution et l’utilisation d’une telle base de données ne prend pas en compte la réalité des humains devant la manipuler, l’alimenter, et qui seront confrontés à des contenus difficiles quotidiennement. Sans parler du fait que les images des enfants victimes seront conservées pour « améliorer » l’efficacité de ces outils.

    Non seulement le CSAR crée des obligations disproportionnées et implique des techniques extrêmement intrusives, mais surtout ces mesures sont loin d’être pertinentes pour atteindre l’objectif crucial de protection des enfants et de lutte contre les abus sexuels. En effet, aucune étude sérieuse n’a été fournie sur l’adéquation, la fiabilité ou la pertinence de telles mesures extrêmement intrusives. Au contraire, il a été révélé par l’association allemande Gesellschaft für Freiheitsrechte que la Commission fondait sa proposition sur les seules allégations de l’industrie, particulièrement la fondation Thorn et Meta, pour justifier ce projet de règlement. Des institutions policières et judiciaires, comme en Allemagne par exemple, ont elles aussi exprimé leurs réserves sur l’utilité de ces dispositifs pour leurs enquêtes dès lors que cela ne répond pas aux problématiques qu’ils rencontrent au quotidien.

    Par ailleurs, depuis le début de la campagne contre ce texte, beaucoup de ressources ont été produites pour démontrer que la protection des enfants contre les abus passait principalement par des politiques de prévention ou d’éducation et que toute éventuelle réponse pénale devait être encadrée par des mesures ciblées et fondées sur des preuves tangibles. Comment a-t-on pu alors en arriver là ?

    La tentation autoritaire des États

    Cette proposition législative est une solution largement conçue par l’industrie, et ensuite généralisée par les élites politiques qui illustrent ainsi une nouvelle fois leur absurde propension au « solutionnisme technologique » et au renforcement de la surveillance numérique. Pour rendre acceptable ces mesures de surveillance, elles affichent un objectif qui fait l’unanimité. Mais tout le monde sait que la stratégie consiste avant tout à affaiblir le niveau de sécurité et de confidentialité des communications numériques. Depuis les crypto-wars des années 1990, un certain nombre d’États affirment que les technologies protégeant la vie privée, et principalement le chiffrement des communications, sont un obstacle aux enquêtes policières. De fait, ces technologies sont conçues pour cela, puisque c’est à cette condition qu’elle garantissent à toutes et tous la possibilité de contrôler nos modes d’expression et de communication. L’une des plus importantes conséquences des révélations du lanceur d’alerte de la NSA Edward Snowden, il y a dix ans, fut justement une démocratisation de la pratique du chiffrement et, à l’époque, l’établissement d’un relatif consensus en faveur du droit au chiffrement au plan institutionnel. Mais police et gouvernements sont gênés, et l’on assiste depuis plusieurs années au retour de positionnements autoritaires de dirigeants prenant tour à tour l’excuse du terrorisme, de la criminalité organisée et de la pédopornographie pour obtenir sa remise en cause.

    En France, aussi bien Bernard Cazeneuve qu’Emmanuel Macron ont déjà affirmé leur volonté de contrôler les messageries chiffrées, rêvant ainsi de percer l’intimité des millions de personnes qui les utilisent. Au cours d’une audition devant le Sénat le 5 avril dernier, Gérald Darmanin a expressément demandé pouvoir casser le chiffrement des militants écologistes et de « l’ultragauche », qui auraient une « culture du clandestin ». Aussi avons-nous récemment exposé comment, dans l’affaire dite du « 8 décembre », les services de renseignement et de police ont construit une narration similaire autour de l’utilisation d’outils respectueux de la vie privée par les personnes inculpées (Signal, Tor, Tails…), afin de dessiner le portrait de personnes criminelles ayant des choses à cacher ou la volonté de fuir la police. Au niveau européen, des fuites ont révélé l’intention de plusieurs États de réduire le niveau de sécurité du chiffrement de bout-en-bout, tels que l’Espagne qui veut tout simplement y mettre fin.

    Le règlement CSAR s’inscrit dans cette continuité et constitue une opportunité parfaite pour les États membres pour enfin concevoir et généraliser un outil de surveillance des échanges de la population et ainsi mettre fin aux obstacles posés par les services trop protecteurs de la vie privée. Mais passer ce cap, c’est supprimer toute confidentialité des communications qui passeraient par des infrastructures numériques. L’intégrité et la sécurité de ces dernières ne pourraient alors plus jamais être garanties dès lors que cette « porte dérobée » existe. C’est créer des occasions, aussi bien pour les États que les acteurs malveillants, de détourner et d’abuser de cette capacité d’entrer dans les téléphones et ordinateurs de la population. Enfin, c’est ouvrir une brèche, un espace à surveiller qui n’existait pas auparavant, et qui sera nécessairement étendu dans le futur par de nouvelles législations pour repérer d’autres types de contenus.

    Ce risque est dénoncé par des services tels que SignalProton ou Matrix, qui proposent des communications chiffrées de bout-en-bout et sécurisées — et promettent donc une confidentialité presque intégrale. Cette proposition viendrait casser leur promesse en les obligeant à analyser les contenus et à créer une vulnérabilité dans leurs technologies. Ce risque a également été récemment dénoncé par Apple : pour justifier la fin de l’analyse des contenus hébergés sur iCloud, l’entreprise expliquait que la technologie utilisée est trop dangereuse en termes de sécurité et de respect de la vie privée1.

    En Grande-Bretagne, où est actuellement discuté un projet de loi similaire, le Online Safety Bill, Signal et Whatsapp ont menacé de supprimer leur service du pays si ce texte venait à passer. Face à cette fronde, les Britanniques ont très récemment annoncé suspendre la mise en œuvre de cette mesure au regard de l’infaisabilité à ce stade de protéger le chiffrement de bout-en-bout. Cependant, la mesure est toujours dans la loi et pourrait donc être applicable un jour. À Londres comme à Bruxelles, la bataille est loin d’être finie.

    Refuser et agir

    Il est donc urgent d’agir pour arrêter cette nouvelle initiative qui créerait un grave précédent et donnerait aux États une légitimité pour pousser toujours plus loin l’intrusion dans les communications. Mais les discussions avancent vite à Bruxelles. D’un coté, le Conseil, organe regroupant les gouvernements des États membres, doit publier sa position sur ce texte d’ici fin septembre. Celle-ci s’annonce très mauvaise, poussée par plusieurs États – France en tête. Certains États comme l’Allemagne ou l’Autriche auraient néanmoins exprimé des réserves quand à l’incompatibilité de cette dernière version par rapport à leur propre position officielle. Une lettre ouverte a été signée le 13 septembre par plus de 80 organisations, dont La Quadrature, pour que les États membres n’adoptent pas le CSAR dans sa version actuelle.

    De l’autre coté, le Parlement européen devra également adopter sa version du texte, d’abord en commission en octobre puis en novembre en séance plénière. Si beaucoup d’eurodéputées s’opposent au texte, cela ne suffira sans doute pas à bloquer son adoption. Pour agir, nous vous invitons à rejoindre la campagne « Stop Scanning me » menée par une coalition d’organisations et à partager le plus possible les informations sur la mobilisation en cours2. Vous pouvez également appeler des parlementaires européens pour les inviter à rejeter ce texte.

    Références

    ↑1 Néanmoins, il faut relativiser cette prise de position dès lors que la firme continue d’expérimenter une technologie similaire dans une fonction facultative dénommée « Communication Safety » qui recherche de la nudité directement sur les terminaux.
    ↑2 Aussi, vous pouvez regarder cette conférence faite au dernier Chaos Communication Camp sur le combat contre Chat control (en anglais).

    Source


    1 commentaire


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique