• La Tribune : Amazon abandonne ses magasins sans caisse... en réalité gérés par des travailleurs indiens à distance Marine Protais

    Le géant du e-commerce, qui opère également des magasins physiques, renonce à sa technologie Just Walk Out dans ses supermarchés Amazon Fresh aux États-Unis. Ce système permet à ses clients de faire leurs emplettes sans passer par l’étape de la caisse. Mais il nécessite des caméras, des capteurs et surtout le travail de 1.000 travailleurs indiens, donnant l’illusion de l’automatisation.


    Pour faire ses courses dans les supermarchés Amazon, il suffisait d’entrer, de scanner un QR code sur une application, de prendre ses produits et de sortir. (Crédits : Amazon)

    En 2016, on les annonçait comme le futur du commerce. Plus besoin de caissiers, ni de vigiles, ni même de sortir votre portefeuille. Pour faire vos courses dans les supermarchés Amazon, il suffisait d’entrer, de scanner un QR code sur une application, de prendre vos produits et de sortir. Le montant de vos achats était calculé à la sortie du magasin grâce à un système mêlant caméras et capteurs décrit comme automatique, puis directement débité sur votre carte bancaire.

    Mais nous voici en 2024, et le géant du e-commerce, diversifié dans les magasins physiques, abandonne en partie cette technologie, nous apprend le média américain The Information https://www.theinformation.com/articles/amazons-grocery-stores-to-drop-just-walk-out-checkout-tech . Elle sera supprimée des 27 magasins « Amazon Fresh » américains (des supermarchés où l’on trouve des produits frais), où elle était installée. En guise de remplacement, ces magasins seront équipés de caddies « intelligents », capables de scanner automatiquement les produits, rapporte le média d’investigation américain. L’information a ensuite été confirmée auprès d’AP https://apnews.com/article/amazon-fresh-just-walk-out-bb36bb24803bd56747c6f99814224265 par un porte-parole de l’entreprise. Le système Just Walk Out restera pour le moment dans les plus petites boutiques « Amazon Go », et chez la centaine de partenaires de la firme.

    L’illusion de l’automatisation
    Pour se passer de caissier sur place, le système « Just Walk Out » nécessite son lot de caméras et de capteurs, permettant de suivre le client en magasin, mais surtout d’humains, chargés de vérifier à distance les achats des clients via les caméras. The Information rapporte que plus de 1.000 personnes en Inde sont chargées de ce travail.

    En plus de cette automatisation illusoire, le système « Just Walk Out » faisait depuis quelques années l’objet de critiques. Les clients se plaignent de tickets de caisse reçus des heures après leurs achats, ou de commandes mal gérées par le système. En 2023, la firme avait d’ailleurs annoncé une réorganisation de ses magasins, pour rendre les technologies moins visibles et l’ambiance moins froide. Et le rythme d’ouvertures des enseignes avait été revu à la baisse.

    Par ailleurs, la technologie soulève des questions quant à la protection de la vie privée. Fin 2023, plusieurs consommateurs ont lancé une class action, accusant Amazon de collecter les données biométriques des clients, la forme de leur main et de leur visage ainsi que la tonalité de leur voix, via le système Just Walk Out sans demander leur consentement. Une pratique contraire à une loi de l’Illinois sur le traitement des données biométriques.

    Les entrepôts « automatisés » d’Amazon également surveillés par des travailleurs indiens
    Comme le note le chercheur Antonio Casilli, spécialiste du « travail du clic », cette histoire est banale. Sur X, il rappelle qu’en 2023, Time nous apprenait qu’Alexa, l’assistant virtuel de l’entreprise de Seattle, fonctionnait grâce à l’écoute de 30.000 travailleurs qui annotaient les conversations des utilisateurs pour améliorer les algorithmes gérant l’assistant.

    Et en 2022, The Verge rapportait que les entrepôts automatisés d’Amazon nécessitaient le travail de vigiles, à distance toujours, de travailleurs au Costa-Rica et en Inde, chargés de regarder les images des caméras plus de 40 heures par semaine pour 250 dollars par mois.

    #IA#intelligence_artificielle : #Fumisterie , #arnaque ou #escroquerie ? #amazon #caméras #capteurs #automatisation #technologie #travail #Entrepôts #algorithmes #Alexa

    Source : https://www.latribune.fr/technos-medias/informatique/amazon-abandonne-ses-magasins-sans-caisse-en-realite-geres-par-des-travail

    • Amazon : pourquoi la tech autonome “Just Walk Out” passe à la trappe
      Confirmation sur le blog d’Olivier Dauvers, le web grande conso

      Amazon vient d’annoncer l’abandon de la technologie Just Walk Out dans ses magasins Fresh aux États-Unis (une cinquantaine d’unités dont la moitié sont équipés). Just Walk Out c’est la techno, totalement bluffante, de magasin autonome sans caisses que je vous ai montrée en vidéo dès 2020 (ici) ou encore à Washington et Los Angeles dans de vrais formats de supermarché Whole Foods (ici et là). 

      Des centaines de caméras dopées à l’IA au plafond couplées à des balances sur les étagères permettent de pister l’intégralité du parcours d’achat du client, lequel s’affranchit du passage en caisse. Bluffant (vraiment) je vous dis. 


      un de ces magasins où l’être humain est bani

      Appelons un chat un chat, pour Amazon, ce revirement est un aveu d’échec cuisant. Car la vente de ses technos est au cœur du modèle économique d’Amazon dans le retail physique. Si le groupe lui-même ne parvient pas à prouver la viabilité de Just Walk Out, quel concurrent irait l’acheter ?

      Ce qu’il faut retenir de cet abandon ? Que les technos de magasins autonomes ne sont, pour l’heure, déployables que sur de (très) petits formats bénéficiant d’un flux clients très élevé. Pour des raisons assez évidentes de Capex/m2… mais aussi de supervision humaine. Car, à date, l’IA seule n’est pas en mesure de gérer tous les scénarios de course (dont les tentatives de démarque), obligeant un visionnage de contrôle par l’humain (localisé dans des pays à bas salaire). 

      #techno #échec

      Source : https://www.olivierdauvers.fr/2024/04/04/amazon-pourquoi-la-tech-autonome-just-walk-out-passe-a-la-trappe

  • Border security with drones and databases

    The EU’s borders are increasingly militarised, with hundreds of millions of euros paid to state agencies and military, security and IT companies for surveillance, patrols and apprehension and detention. This process has massive human cost, and politicians are planning to intensify it.

    Europe is ringed by steel fences topped by barbed wire; patrolled by border agents equipped with thermal vision systems, heartbeat detectors, guns and batons; and watched from the skies by drones, helicopters and planes. Anyone who enters is supposed to have their fingerprints and photograph taken for inclusion in an enormous biometric database. Constant additions to this technological arsenal are under development, backed by generous amounts of public funding. Three decades after the fall of the Berlin Wall, there are more walls than ever at Europe’s borders,[1] and those borders stretch ever further in and out of its territory. This situation is the result of long-term political and corporate efforts to toughen up border surveillance and controls.

    The implications for those travelling to the EU depend on whether they belong to the majority entering in a “regular” manner, with the necessary paperwork and permissions, or are unable to obtain that paperwork, and cross borders irregularly. Those with permission must hand over increasing amounts of personal data. The increasing automation of borders is reliant on the collection of sensitive personal data and the use of algorithms, machine learning and other forms of so-called artificial intelligence to determine whether or not an individual poses a threat.

    Those without permission to enter the EU – a category that includes almost any refugee, with the notable exception of those who hold a Ukrainian passport – are faced with technology, personnel and policies designed to make journeys increasingly difficult, and thus increasingly dangerous. The reliance on smugglers is a result of the insistence on keeping people in need out at any cost – and the cost is substantial. Thousands of people die at Europe’s borders every year, families are separated, and people suffer serious physical and psychological harm as a result of those journeys and subsequent administrative detention and social marginalisation. Yet parties of all political stripes remain committed to the same harmful and dangerous policies – many of which are being worsened through the new Pact on Migration and Asylum.[2]

    The EU’s border agency, Frontex, based in Warsaw, was first set up in 2004 with the aim of providing technical coordination between EU member states’ border guards. Its remit has been gradually expanded. Following the “migration crisis” of 2015 and 2016, extensive new powers were granted to the agency. As the Max Planck Institute has noted, the 2016 law shifted the agency from a playing “support role” to acting as “a player in its own right that fulfils a regulatory, supervisory, and operational role.”[3] New tasks granted to the agency included coordinating deportations of rejected refugees and migrants, data analysis and exchange, border surveillance, and technology research and development. A further legal upgrade in 2019 introduced even more extensive powers, in particular in relation to deportations, and cooperation with and operations in third countries.

    The uniforms, guns and batons wielded by Frontex’s border guards are self-evidently militaristic in nature, as are other aspects of its work: surveillance drones have been acquired from Israeli military companies, and the agency deploys “mobile radars and thermal cameras mounted on vehicles, as well as heartbeat detectors and CO2 monitors used to detect signs of people concealed inside vehicles.”[4] One investigation described the companies that have held lobbying meetings or attended events with Frontex as “a Who’s Who of the weapons industry,” with guests including Airbus, BAE Systems, Leonardo and Thales.[5] The information acquired from the agency’s surveillance and field operations is combined with data provided by EU and third country agencies, and fed into the European Border Surveillance System, EUROSUR. This offers a God’s-eye overview of the situation at Europe’s borders and beyond – the system also claims to provide “pre-frontier situational awareness.”

    The EU and its member states also fund research and development on these technologies. From 2014 to 2022, 49 research projects were provided with a total of almost €275 million to investigate new border technologies, including swarms of autonomous drones for border surveillance, and systems that aim to use artificial intelligence to integrate and analyse data from drones, satellites, cameras, sensors and elsewhere for “analysis of potential threats” and “detection of illegal activities.”[6] Amongst the top recipients of funding have been large research institutes – for example, Germany’s Fraunhofer Institute – but companies such as Leonardo, Smiths Detection, Engineering – Ingegneria Informatica and Veridos have also been significant beneficiaries.[7]

    This is only a tiny fraction of the funds available for strengthening the EU’s border regime. A 2022 study found that between 2015 and 2020, €7.7 billion had been spent on the EU’s borders and “the biggest parts of this budget come from European funding” – that is, the EU’s own budget. The total value of the budgets that provide funds for asylum, migration and border control between 2021-27 comes to over €113 billion[8]. Proposals for the next round of budgets from 2028 until 2035 are likely to be even larger.

    Cooperation between the EU, its member states and third countries on migration control comes in a variety of forms: diplomacy, short and long-term projects, formal agreements and operational deployments. Whatever form it takes, it is frequently extremely harmful. For example, to try to reduce the number of people arriving across the Mediterranean, member states have withdrawn national sea rescue assets (as deployed, for example, in Italy’s Mare Nostrum operation) whilst increasing aerial surveillance, such as that provided by the Israel-produced drones operated by Frontex. This makes it possible to observe refugees attempting to cross the Mediterranean, whilst outsourcing their interception to authorities from countries such as Libya, Tunisia and Egypt.

    This is part of an ongoing plan “to strengthen coordination of search and rescue capacities and border surveillance at sea and land borders” of those countries. [9] Cooperation with Tunisia includes refitting search and rescue vessels and providing vehicles and equipment to the Tunisian coastguard and navy, along with substantial amounts of funding. The agreement with Egypt appears to be structured along similar lines, and five vessels have been provided to the so-called Libyan Coast Guard in 2023.[10]

    Frontex also plays a key role in the EU’s externalised border controls. The 2016 reform allowed Frontex deployments at countries bordering the EU, and the 2019 reform allowed deployments anywhere in the world, subject to agreement with the state in question. There are now EU border guards stationed in Albania, Montenegro, Serbia, Bosnia and Herzegovina, and North Macedonia.[11] The agency is seeking agreements with Niger, Senegal and Morocco, and has recently received visits from Tunisian and Egyptian officials with a view to stepping up cooperation.[12]

    In a recent report for the organisation EuroMed Rights, Antonella Napolitano highlighted “a new element” in the EU’s externalisation strategy: “the use of EU funds – including development aid – to outsource surveillance technologies that are used to entrench political control both on people on the move and local population.” Five means of doing so have been identified: provision of equipment; training; financing operations and procurement; facilitating exports by industry; and promoting legislation that enables surveillance.[13]

    The report highlights Frontex’s extended role which, even without agreements allowing deployments on foreign territory, has seen the agency support the creation of “risk analysis cells” in a number of African states, used to gather and analyse data on migration movements. The EU has also funded intelligence training in Algeria, digital evidence capacity building in Egypt, border control initiatives in Libya, and the provision of surveillance technology to Morocco. The European Ombudsman has found that insufficient attention has been given to the potential human rights impacts of this kind of cooperation.[14]

    While the EU and its member states may provide the funds for the acquisition of new technologies, or the construction of new border control systems, information on the companies that receive the contracts is not necessarily publicly available. Funds awarded to third countries will be spent in accordance with those countries’ procurement rules, which may not be as transparent as those in the EU. Indeed, the acquisition of information on the externalisation in third countries is far from simple, as a Statewatch investigation published in March 2023 found.[15]

    While EU and member state institutions are clearly committed to continuing with plans to strengthen border controls, there is a plethora of organisations, initiatives, campaigns and projects in Europe, Africa and elsewhere that are calling for a different approach. One major opportunity to call for change in the years to come will revolve around proposals for the EU’s new budgets in the 2028-35 period. The European Commission is likely to propose pouring billions more euros into borders – but there are many alternative uses of that money that would be more positive and productive. The challenge will be in creating enough political pressure to make that happen.

    This article was originally published by Welt Sichten, and is based upon the Statewatch/EuroMed Rights report Europe’s techno-borders.

    Notes

    [1] https://www.tni.org/en/publication/building-walls

    [2] https://www.statewatch.org/news/2023/december/tracking-the-pact-human-rights-disaster-in-the-works-as-parliament-makes

    [3] https://www.mpg.de/14588889/frontex

    [4] https://www.theguardian.com/global-development/2021/dec/06/fortress-europe-the-millions-spent-on-military-grade-tech-to-deter-refu

    [5] https://frontexfiles.eu/en.html

    [6] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [7] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [8] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [9] https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-

    [10] https://www.statewatch.org/media/4103/eu-com-von-der-leyen-ec-letter-annex-10-23.pdf

    [11] https://www.statewatch.org/analyses/2021/briefing-external-action-frontex-operations-outside-the-eu

    [12] https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-, https://www.statewatch.org/publications/events/secrecy-and-the-externalisation-of-eu-migration-control

    [13] https://privacyinternational.org/challenging-drivers-surveillance

    [14] https://euromedrights.org/wp-content/uploads/2023/07/Euromed_AI-Migration-Report_EN-1.pdf

    [15] https://www.statewatch.org/access-denied-secrecy-and-the-externalisation-of-eu-migration-control

    https://www.statewatch.org/analyses/2024/border-security-with-drones-and-databases
    #frontières #militarisation_des_frontières #technologie #données #bases_de_données #drones #complexe_militaro-industriel #migrations #réfugiés #contrôles_frontaliers #surveillance #sécurité_frontalière #biométrie #données_biométriques #intelligence_artificielle #algorithmes #smugglers #passeurs #Frontex #Airbus #BAE_Systems #Leonardo #Thales #EUROSUR #coût #business #prix #Smiths_Detection #Fraunhofer_Institute #Engineering_Ingegneria_Informatica #informatique #Tunisie #gardes-côtes_tunisiens #Albanie #Monténégro #Serbie #Bosnie-Herzégovine #Macédoine_du_Nord #Egypte #externalisation #développement #aide_au_développement #coopération_au_développement #Algérie #Libye #Maroc #Afrique_du_Nord

  • Une brève histoire de l’évolution des recommandations algorithmiques

    –> Il y a d’abord la première génération de la recommandation, celle des recommandations sommaires qui associent un produit à un autre.
    Sur les réseaux sociaux, la logique consiste à s’abonner aux gens qui nous intéressent pour être notifié de ce qu’ils ont publiés. C’est ce que l’on peut appeler l’âge de la souscription et le modèle des recommandations simples (2000-2010).

    –> Dans le modèle en réseau qui lui succède, la propagation d’un message ne dépend plus seulement des personnes auxquelles vous êtes abonnées, mais est amplifiée ou rétrogradée par les effets de réseaux. Plus un message est relayé, plus il est amplifié. Ce sont les réactions des autres qui structurent la recommandation. Les contenus sont scorés selon l’intérêt des utilisateurs et la viralité. C’est l’âge du réseau et du modèle des propagations (2010-2016).

    –> Avec la montée en puissance du machine learning, les recommandations se complexifient et prennent en compte de + en + de critères. La recommandation se base sur la similarité : on vous recommande ce qui a plu à des gens qui vous sont similaires parce qu’ils ont les mêmes comportements que vous sur les réseaux. C’est l’âge algorithmique et le modèle de la similarité (2016-2021) qui rendra les grandes plateformes de la recommandation incontournables.

    –> Mais, la recherche d’un engagement optimal ou idéal s’effondre. Confrontées à leurs effets (l’assaut du capitole en est le symbole), les plateformes dégradent volontairement la performance de certaines recommandations, comme l’information ou les hyperliens. Elles assument être à la recherche de leur rentabilité, et se mettent à amplifier leur modèle commercial, notamment la publicité, jusqu’à s’y noyer. C’est ce que l’on peut appeler l’âge du cynisme, des distorsions de marché et de l’emballement du modèle commercial (depuis 2021…).

    Un âge du cynisme dans lequel, faute de régulation pertinente, nous risquons d’être coincés un moment ! J’en parle plus longuement par ici : https://hubertguillaud.wordpress.com/2024/02/20/une-breve-histoire-de-levolution-des-recommandations-algor
    #algorithmes #recommandation

  • Pourquoi la #promesse de « vidéogérer » les #villes avec des caméras couplées à une #intelligence_artificielle séduit et inquiète

    Sécurité, stationnement, déchets… #Nîmes a inauguré, à l’automne 2023, son « #hyperviseur_urbain ». Alors que la collecte et la circulation des #données sont au cœur de ce système, l’antenne locale de la Ligue des droits de l’homme s’inquiète. D’autres villes, comme #Dijon, ont déjà fait ce choix.

    La salle a des allures de centre spatial : un mur de plus de 20 mètres de long totalement recouvert d’écrans, 76 au total, chacun pouvant se diviser en neuf. Ici parviennent les images des 1 300 #caméras disposées dans la ville de Nîmes et dans certaines communes de son agglomération.

    A la pointe depuis 2001 sur le thème des #caméras_urbaines, se classant sur le podium des villes les plus vidéosurveillées du pays, Nîmes a inauguré, le 13 novembre 2023, son « #hyperviseur ». Ce plateau technique et confidentiel de 600 mètres carrés est entièrement consacré à une « nouvelle démarche de #territoire_intelligent », indique le maire (Les Républicains), Jean-Paul Fournier, réélu pour un quatrième mandat en 2020.

    Avec cet outil dernier cri, sur lequel se relaient nuit et jour une cinquantaine de personnes, la ville fait un grand pas de plus vers la #smart_city (la « #ville_connectée »), une tendance en plein développement pour la gestion des collectivités.

    Ce matin-là, les agents en poste peuvent facilement repérer, à partir d’images de très haute qualité, un stationnement gênant, un véhicule qui circule trop vite, un dépotoir sauvage, un comportement étrange… L’hyperviseur concentre toutes les informations en lien avec la gestion de l’#espace_public (sécurité, circulation, stationnement, environnement…), permet de gérer d’un simple clic l’éclairage public d’un quartier, de mettre une amende à distance (leur nombre a augmenté de 23 % en un an avec la #vidéoverbalisation) ou de repérer une intrusion dans un des 375 bâtiments municipaux connectés.

    La collecte et la circulation des données en temps réel sont au cœur du programme. Le système s’appuie sur des caméras dotées, et c’est la nouveauté, de logiciels d’intelligence artificielle dont les #algorithmes fournissent de nouvelles informations. Car il ne s’agit plus seulement de filmer et de surveiller. « Nous utilisons des caméras qui permettent de gérer en temps réel la ville et apportent des analyses pour optimiser la consommation d’énergie, par exemple, ou gérer un flux de circulation grâce à un logiciel capable de faire du comptage et de la statistique », explique Christelle Michalot, responsable de ce centre opérationnel d’#hypervision_urbaine.

    #Reconnaissance_faciale

    Si la municipalité n’hésite pas à présenter, sur ses réseaux sociaux, ce nouveau dispositif, elle est en revanche beaucoup plus discrète lorsqu’il s’agit d’évoquer les #logiciels utilisés. Selon nos informations, la ville travaille avec #Ineo, une entreprise française spécialisée dans le domaine de la #ville_intelligente. Le centre de police municipale est également équipé du logiciel de #surveillance_automatisée #Syndex, et d’un logiciel d’analyse pour images de vidéosurveillance très performant, #Briefcam.

    Ce dernier logiciel, de plus en plus répandu dans les collectivités françaises, a été mis au point par une société israélienne rachetée par le japonais #Canon, en 2018. Il est surtout au cœur de plusieurs polémiques et d’autant d’actions en justice intentées par des syndicats, des associations et des collectifs qui lui reprochent, notamment, de permettre la reconnaissance faciale de n’importe quel individu en activant une fonctionnalité spécifique.

    Le 22 novembre 2023, le tribunal administratif de Caen a condamné la communauté de communes normande #Cœur-Côte-Fleurie, ardente promotrice de cette solution technologique, « à l’effacement des données à caractère personnel contenues dans le fichier », en estimant que l’utilisation de ce type de caméras dites « intelligentes » était susceptible de constituer « une atteinte grave et manifestement illégale au #respect_de_la_vie_privée ». D’autres décisions de la #justice administrative, comme à #Nice et à #Lille, n’ont pas condamné l’usage en soi du #logiciel, dès lors que la possibilité de procéder à la reconnaissance faciale n’était pas activée.

    A Nîmes, le développement de cette « surveillance de masse » inquiète la Ligue des droits de l’homme (LDH), la seule association locale à avoir soulevé la question de l’utilisation des #données_personnelles au moment de la campagne municipale, et qui, aujourd’hui encore, s’interroge. « Nous avons le sentiment qu’on nous raconte des choses partielles quant à l’utilisation de ces données personnelles », explique le vice-président de l’antenne nîmoise, Jean Launay.

    « Nous ne sommes pas vraiment informés, et cela pose la question des #libertés_individuelles, estime celui qui craint une escalade sans fin. Nous avons décortiqué les logiciels : ils sont prévus pour éventuellement faire de la reconnaissance faciale. C’est juste une affaire de #paramétrage. » Reconnaissance faciale officiellement interdite par la loi. Il n’empêche, la LDH estime que « le #droit_à_la_vie_privée passe par l’existence d’une sphère intime. Et force est de constater que cette sphère, à Nîmes, se réduit comme peau de chagrin », résume M. Launay.

    « Des progrès dans de nombreux domaines »

    L’élu à la ville et à Nîmes Métropole Frédéric Escojido s’en défend : « Nous ne sommes pas Big Brother ! Et nous ne pouvons pas faire n’importe quoi. L’hyperviseur fonctionne en respectant la loi, le #RGPD [règlement général sur la protection des données] et selon un cahier des charges très précis. » Pour moderniser son infrastructure et la transformer en hyperviseur, Nîmes, qui consacre 8 % de son budget annuel à la #sécurité et dépense 300 000 euros pour installer entre vingt-cinq et trente nouvelles caméras par an, a déboursé 1 million d’euros.

    La métropole s’est inspirée de Dijon, qui a mis en place un poste de commandement partagé avec les vingt-trois communes de son territoire il y a cinq ans. En 2018, elle est arrivée deuxième aux World Smart City Awards, le prix mondial de la ville intelligente.

    Dans l’agglomération, de grands panneaux lumineux indiquent en temps réel des situations précises. Un accident, et les automobilistes en sont informés dans les secondes qui suivent par le biais de ces mâts citadins ou sur leur smartphone, ce qui leur permet d’éviter le secteur. Baptisé « #OnDijon », ce projet, qui mise aussi sur l’open data, a nécessité un investissement de 105 millions d’euros. La ville s’est associée à des entreprises privées (#Bouygues_Telecom, #Citelum, #Suez et #Capgemini).

    A Dijon, un #comité_d’éthique et de gouvernance de la donnée a été mis en place. Il réunit des habitants, des représentants de la collectivité, des associations et des entreprises pour établir une #charte « de la #donnée_numérique et des usages, explique Denis Hameau, adjoint au maire (socialiste) François Rebsamen et élu communautaire. La technique permet de faire des progrès dans de nombreux domaines, il faut s’assurer qu’elle produit des choses justes dans un cadre fixe. Les données ne sont pas là pour opprimer les gens, ni les fliquer ».

    Des « systèmes susceptibles de modifier votre #comportement »

    Nice, Angers, Lyon, Deauville (Calvados), Orléans… Les villes vidéogérées, de toutes tailles, se multiplient, et avec elles les questions éthiques concernant l’usage, pour le moment assez flou, des données personnelles et la #surveillance_individuelle, même si peu de citoyens semblent s’en emparer.

    La Commission nationale de l’informatique et des libertés (CNIL), elle, veille. « Les systèmes deviennent de plus en plus performants, avec des #caméras_numériques capables de faire du 360 degrés et de zoomer, observe Thomas Dautieu, directeur de l’accompagnement juridique de la CNIL. Et il y a un nouveau phénomène : certaines d’entre elles sont augmentées, c’est-à-dire capables d’analyser, et ne se contentent pas de filmer. Elles intègrent un logiciel capable de faire parler les images, et ces images vont dire des choses. »

    Cette nouveauté est au cœur de nouveaux enjeux : « On passe d’une situation où on était filmé dans la rue à une situation où nous sommes analysés, reprend Thomas Dautieu. Avec l’éventuel développement des #caméras_augmentées, quand vous mettrez un pied dans la rue, si vous restez trop longtemps sur un banc, si vous prenez un sens interdit, vous pourrez être filmé et analysé. Ces systèmes sont susceptibles de modifier votre comportement dans l’espace public. Si l’individu sait qu’il va déclencher une alerte s’il se met à courir, peut-être qu’il ne va pas courir. Et cela doit tous nous interpeller. »

    Actuellement, juridiquement, ces caméras augmentées ne peuvent analyser que des objets (camions, voitures, vélos) à des fins statistiques. « Celles capables d’analyser des comportements individuels ne peuvent être déployées », assure le directeur à la CNIL. Mais c’est une question de temps. « Ce sera prochainement possible, sous réserve qu’elles soient déployées à l’occasion d’événements particuliers. » Comme les Jeux olympiques.

    Le 19 mai 2023, le Parlement a adopté une loi pour mieux encadrer l’usage de la #vidéoprotection dite « intelligente ». « Le texte permet une expérimentation de ces dispositifs, et impose que ces algorithmes ne soient mis en place, avec autorisation préfectorale, dans le temps et l’espace, que pour une durée limitée, par exemple pour un grand événement comme un concert. Ce qui veut dire que, en dehors de ces cas, ce type de dispositif ne peut pas être déployé », insiste Thomas Dautieu. La CNIL, qui a déjà entamé des contrôles de centres d’hypervision urbains en 2023, en fait l’une de ses priorités pour 2024.

    https://www.lemonde.fr/societe/article/2024/01/02/pourquoi-la-promesse-de-videogerer-les-villes-avec-des-cameras-couplees-a-un
    #vidéosurveillance #AI #IA #caméras_de_vidéosurveillance

  • De l’inégale géonumérisation du Monde - AOC media
    https://aoc.media/analyse/2023/12/31/de-linegale-geonumerisation-du-monde-2

    Ainsi, une forme de géonumérisation généralisée du Monde[1] se met progressivement en place. Ce terme permet de souligner l’importance de porter un regard, non sur un domaine particulier (la cartographie, la statistique, la topographie, etc.) ou un métier spécifique (les photo-interprètes, les arpenteurs-géomètres, les géomaticiens, etc.), mais sur des processus diffus et multiples qui se sont accélérés depuis une trentaine d’années autour de la transcription sous forme de données numériques de la plupart des objets, êtres, phénomènes, dispositifs, activités, images, œuvres de fiction, etc., localisables sur la surface terrestre. Or, cette géonumérisation du Monde est opérée par des systèmes opaques qui s’apparentent, de plus en plus, à de véritables boîtes noires algorithmiques.
    Ouvrir les boîtes noires algorithmiques

    Les systèmes géonumériques que nous utilisons au quotidien – des cartes en ligne comme Google Maps aux services de géolocalisation pour commander un taxi – sont personnalisés en fonction de nos centres d’intérêt (ou plutôt de la façon dont l’algorithme nous a profilé) et configurés en fonction des objectifs de leurs commanditaires. Ils sont donc avant tout des opérateurs de tri, de filtre, de combinaison, de fusion, d’appariement, d’intersection, d’extraction, d’union, de conversion, de re-projection… et in fine seulement de représentations cartographiques des données dont ils disposent. Soit autant d’opérations qui relèvent de choix techniques et politiques dont les intentionnalités comme la performativité méritent d’être analysées.

    Noyé sous un déluge de données numériques, comme le titrait, dès 2010, The Economist, le spectacle cartographique qui nous est donné à voir tous les jours n’a donc rien d’une évidence. Il mérite qu’on en analyse ses coulisses et secrets de fabrication. La métaphore naturalisante du déluge ravive d’ailleurs, une fois encore, les croyances positivistes autour des données dont Bruno Latour a pourtant clairement explicité dès 1987 qu’elles n’étaient pas données, mais fabriquées et que, par la même, on devrait plutôt les appeler des obtenues[2]. Rien d’inédit, donc, à souligner aujourd’hui l’impérieuse nécessité d’une dénaturalisation des données, fussent-elles embarquées dans des algorithmes qui les traitent et les redistribuent à la volée. Sauf que ces derniers se révèlent particulièrement opaques et qu’il est devenu complexe d’identifier où sont désormais les blancs des cartes et quels sont les effets potentiels de ces mises en invisibilité des lacunes cartographiques contemporaines.

    #Cartes #Cartographie #Algorithmes #Géonumérisation

  • Misère de nos vies "numériques" :

    Pourquoi le mot “viol” est devenu “vi*l” sur TikTok et autres réseaux sociaux
    https://www.telerama.fr/plateformes/pourquoi-le-mot-viol-est-devenu-vi-l-sur-tiktok-et-autres-reseaux-sociaux-7

    « On m’interviewe sur le déni du viol dans la société française et je découvre dans la vidéo publiée sur Instagram que le terme “viol” a été bipé et que le mot complet n’apparaît pas en sous-titre. C’est très violent. » Le 20 novembre, la journaliste Alice Géraud, coauteure de la série Sambre, sur Dino Scala, violeur qui a fait plus de quarante victimes, découvre sur les réseaux sociaux le montage de son entretien donné quelques jours plus tôt au média Télé 7 jours. Dans les sous-titres, il est écrit « vi*l ». Alice Géraud confie à Télérama : « C’est une mise en abyme assez étonnante du déni du viol. » Jérémy Parayre, rédacteur en chef de Télé 7 jours, revient sur ce choix : « La question s’est posée dans l’équipe et j’ai moi-même été choqué par ce bipage. Mais comme nous voulions que son discours soit audible par notre communauté tout en évitant le déréférencement de notre vidéo par les plateformes… C’était la solution. Oui, c’est contradictoire, je comprends sa réaction. »

    Télé 7 jours n’est pas le seul média à utiliser cette pratique. Il suffit de faire un tour sur Instagram, TikTok et YouTube pour constater la disparition du mot viol. À la place, on peut lire « vi*l » ou « vi0l » sur les réseaux sociaux de médias comme Brut, Hugo Décrypte, Urbania ou Le Parisien. Certains vont jusqu’à camoufler les termes « sexe », « attentat » ou « prostituée ».

    En cause ? La peur du « shadowban ». Sur les réseaux du groupe Meta ou sur TikTok, ce « bannissement de l’ombre » toucherait les profils publics. Un compte peut être banni temporairement par la modération de ces entreprises s’il utilise certains termes ou images. Parfois, le nom de l’utilisateur n’apparaît plus dans la barre de recherche alors que son compte est toujours en ligne. D’autres fois, sa story n’est plus visible ou ses posts ne sont plus mis en avant dans l’onglet « discover » ou dans les « feeds » de ses abonnés. La plateforme ne prévient jamais l’internaute. Il prend connaissance de son invisibilisation grâce aux statistiques de son compte : un nombre de vues qui flanche, moins de partages des publications, etc.

    https://justpaste.it/4hbxx

    #bipage #shadowban #réseaux_sociaux #algorithmes

  • La bulle de filtres : comment les réseaux sociaux nous confortent dans « nos propres croyances et opinions »
    https://www.francetvinfo.fr/replay-radio/le-fil-des-reseaux/la-bulle-de-filtres-les-reseaux-sociaux-nous-confortent-dans-nos-propre

    Pour inciter les internautes à rester sur les plateformes, les algorithmes repèrent les intérêts de chacun et proposent un contenu personnalisé. Au point de limiter la diversité d’opinion.
    Article rédigé par France Info - Audrey Abraham
    Radio France
    Publié le 25/12/2023 07:49 Mis à jour le 26/12/2023 10:09
    Temps de lecture : 2 min

    Vous vous êtes probablement déjà demandé pourquoi vous tombez toujours sur les mêmes vidéos de cuisine, de déco, de chatons sur Instagram, Tiktok ou encore Facebook. Cela n’a rien d’un hasard, ça a même un nom ! C’est ce qu’on appelle la bulle de filtres et les algorithmes en sont responsables. Concrètement, le moindre click, le moindre like est mémorisé et indique vos préférences à la plateforme pour personnaliser le contenu qui vous est proposé.
    à lire aussi Les algorithmes d’Instagram facilitent la vente de pédopornographie, selon des chercheurs

    Olivier Ertzscheid est maître de conférences à l’université de Nantes : « Les propriétaires de ces plateformes se disent ’Pour garder les gens attentifs pour que les gens restent sur nos plateformes il faut qu’on leur serve des choses dont on sait déjà qu’elles les intéressent et donc plutôt que de leur présenter des opinions, des avis différents, on va leur présenter des choses qui vont dans le sens de ce qu’on appelle leur propre biais de croyances.’ Si ce sont des gens qui ont une passion pour la gastronomie on va leur afficher toujours plus de sites en lien avec la gastronomie. »

    Voilà comment chacun à notre niveau, en sélectionnant les comptes que nous avons envie de suivre, les contenus que nous avons envie de partager, nous alimentons sans nous en rendre compte cette bulle de filtre, « alors que la promesse initiale des réseaux sociaux, c’est de vous exposer à plein de gens différents, de diversités de culture, d’opinions, de points de vue, d’avis, reprend Olivier Ertzscheid. Finalement, on s’aperçoit qu’on nous expose de plus en plus à de l’identique, à des choses qui nous confortent pour nos propres croyances et opinions. » Les vidéos de cuisine, de musique, de paysages sont donc concernées. Ce que l’on peut considérer comme du contenu léger mais pas uniquement. Le contenu politique est aussi soumis au mécanisme des algorithmes.
    Un usage politique

    C’est dans ce cas de figure que la bulle de filtres est moins anodine et mérite d’être davantage questionnée. On le sait sur les réseaux sociaux tout est mélangé. Il n’y a pas d’un côté le contenu divertissant, de l’autre les sujets politiques. Le flux est constant, continu... Les discours sont plus ou moins explicites.

    Alors notre faculté de discernement s’altère : « De toute éternité, l’être humain, a toujours des biais et il adore se conforter, se vautrer dans ses propres biais culturels, sociologiques, politiques, etc. Là où ça devient problématique c’est à partir du moment où tout ça est brassé sans qu’on ait de ligne éditoriale claire. Les gens qui en général vont acheter le journal ou lire le journal ’Libération’. Il est assez rare que ce soit aussi des gens qui vont lire le journal ’Valeurs Actuelles’. Parce qu’ils savent ce qu’ils vont chercher. Ils savent que ’Libération’ est à gauche et que ’Valeurs Actuelles’ est très à droite. À l’échelle des médias sociaux, ce qui est compliqué c’est quand on n’a pas les codes pour décrypter les intentions, sachant qu’il y a toujours des intentions qui peuvent être basiquement commerciales et de plus en plus souvent aussi politiques. »

    Impossible d’y échapper, les algorithmes sont l’essence même des réseaux sociaux. L’important c’est d’en être conscient. Les autorités de régulation imposent d’ailleurs aux plateformes d’être plus transparentes avec les utilisateurs, qui on le rappelle sont parfois mineurs, en expliquant notamment autant que possible la manière dont fonctionnent leurs algorithmes.

    #Olivier_Ertzscheid #Algorithmes #Médias_sociaux

  • La #désinformation qui déstabilise la #démocratie

    « La désinformation est un bouton fantastique sur lequel appuyer pour déstabiliser les démocraties. C’est la #menace la plus sournoise. Parce que la démocratie fonctionne si on a accès à l’#information, pour pouvoir porter un jugement et participer au #débat_public ». C’est ainsi que le professeur adjoint en communication publique et politique à l’ENAP, Philippe Dubois, résumait le problème qui était au coeur du forum La démocratie au temps de la désinformation, tenu le 30 novembre à Montréal.

    La démocratie recule, soulignait d’ailleurs cette année un rapport du Varieties of Democracy Institute de l’Université de Göteborg (Suède) (https://v-dem.net/documents/29/V-dem_democracyreport2023_lowres.pdf), fruit d’une collaboration de près de 4000 experts de 180 pays. La désinformation, la #polarisation et l’#autocratisation se renforcent mutuellement.

    Avec l’ajout récent de la Thaïlande et du Mali, pour la première fois depuis plus de 20 ans, la liste des pays compte plus d’#autocraties que de démocraties : 5,7 milliards de personnes vivent dans des autocraties (72% de la population mondiale) contre 1 milliard de personnes pour les démocraties libérales —soit à peine 13%. Et près d’un tiers du premier groupe vit même au sein d’autocraties fermées (Chine, Iran, Myanmar et Vietnam, par exemple).

    Bref, le niveau de démocratie pour le citoyen mondial moyen est en recul, pour revenir au niveau de 1986. L’Europe de l’Est et l’Asie centrale, ainsi que l’Amérique latine et les Antilles, ont retrouvé leur niveau de la fin de la guerre froide.

    « C’est souvent un idéal que l’on prend pour acquis avec ses opportunités de délibération : presse libre, débats publics, et des institutions publiques pour faire fonctionner cela », avance Philippe Dubois. Ce « modèle le moins pire », comme l’aurait dit Churchill, « a bien souffert lors de la récente pandémie ». Avec ses mesures exceptionnelles et restrictives, la Covid-19 a vu reculer, de manière temporaire, certains droits et libertés. Cela a entaché la confiance dans les institutions démocratiques, et dans leurs acteurs, confiance qui n’était déjà pas si élevée avant la crise sanitaire.

    Or, les #réseaux_sociaux jouent eux aussi un rôle dans cette #régression. Peut-être parce qu’ils répercutent plus les #frustrations et la #colère que la #raison et les #nuances, il y aurait, semble-t-il, plus de cyniques et de mécontents qu’avant. Certaines tranches de la population s’avèrent aussi moins attachées à la démocratie, comme les jeunes, qui s’informent eux-mêmes davantage que les plus vieux par les algorithmes. « Cela ne signifie pas qu’ils rejettent la démocratie. Cela signifie plutôt qu’ils partagent davantage un type de contenu » qui la rejette, note le chercheur.

    L’École des médias de l’UQAM avait mandaté cet été la firme Léger pour sonder la population québécoise sur leurs perceptions sur des enjeux liés à la démocratie et à la désinformation. Le rapport montre que 25% de la population québécoise pense que les gouvernements cachent la réalité sur la nocivité des vaccins —18% pensent que c’est probable, alors que 8% pensent que c’est certain.

    C’est une #méfiance envers les institutions qui augmente, tout comme celle envers les #médias, car selon ce sondage, 44% de la population québécoise pense que les médias manipulent l’information qu’ils diffusent.

    En quête de #littératie_scientifique

    « Nous vivons une #crise_épistémologique avec une remise en question des #figures_d’autorité » constatait, lors du forum du 30 novembre, le professeur au département sciences humaines, lettres et communications de la TÉLUQ, Normand Landry. « Les gens parlent d’#esprit_critique mais c’est un mot galvaudé : où est notre capacité de se remettre en question et de changer d’idées et d’admettre nos erreurs ? »

    D’où l’importance de l’#éducation_aux_médias et de la littératie scientifique, soulignait-on dans ce forum organisé par les Fonds de recherche du Québec. Mélissa Guillemette, rédactrice en chef du magazine Québec Science, note que « moins de la moitié des Canadiens ont des bases solides en science (42%), c’est donc à mettre au premier plan. La littératie en santé au Québec reste elle aussi très faible chez 2 personnes sur 3 et pour 95% des 60 ans et plus, il s’avère même difficile de comprendre un médecin. »

    Les #jeunes ont particulièrement du mal à distinguer le #vrai du #faux. « Les adolescents ont du mal à reconnaître la désinformation. Ils manquent de bons critères d’évaluation pour juger de la qualité d’une bonne information », relève l’étudiante à la maîtrise en sciences de l’éducation de l’Université de Sherbrooke, Élise Rodrigue-Poulin.

    « Chez les enseignants aussi, le niveau de pensée critique varie souvent de faible à moyen. Et lorsque la nouvelle fait appel à trop d’#émotion, la plupart d’entre nous ne sommes plus capables de l’évaluer correctement », ajoute-t-elle.

    La solution serait de s’éduquer à reconnaître la désinformation, mais il faudrait aussi développer du contenu scolaire pour soutenir l’esprit critique chez les jeunes – et par ricochet, le personnel enseignant. Des éléments inclus dans le nouveau programme Culture et citoyenneté québécoise, vont dans ce sens.

    Ce serait toutefois insuffisant. « Le programme a plusieurs points positifs : donner des outils et des critères sur les informations et les médias, et l’explication de ce qu’est la démocratie. Comme enseignante, je trouve ça bon, mais il n’est pas obligatoire cette année et il a été présenté aux enseignants quelques jours avant la rentrée », explique Mme Rodrigue-Poulin. Il doit être implanté dans toutes les écoles en septembre 2024.

    Normand Landry renchérit : « Je salue l’adoption d’un programme mais je le pense moins sérieux dans le soutien à développer ce savoir. Depuis plus de 20 ans, l’#école développe du contenu d’éducation aux médias – par exemple, sur les compétences numériques, adopté en 2019 – mais sans se donner les conditions de déploiement et des ressources pour les enseignants. »

    La désinformation à gogo

    « Nous sommes dans une espèce de jungle et trouver la vérité, c’est un casse-tête. La désinformation, cela ne date pas d’hier mais c’est le volume qui augmente. », rappelle Nicolas Garneau, chercheur postdoctoral en informatique à l’Université de Copenhague.

    Et nous pouvons tous partager de la désinformation. Les réseaux sociaux sont conçus pour nous inviter à générer du contenu – « exprimez-vous », « posez des actions » – à partir de messages qui en appellent à nos #émotions.

    Il faut donc apprendre à se méfier des choix des #algorithmes et développer son esprit critique – « d’où ça sort ? », « quelle est la source de l’info ? »

    « Il ne faut pas oublier que ce sont des modèles économiques basés sur nos données. Ils enregistrent ce que l’on regarde et lorsqu’on s’exprime. Les plateformes exploitent nos #failles_psychologiques », rappelle Emmanuelle Parent, directrice générale et recherche du Centre pour l’intelligence émotionnelle en ligne (Le Ciel).

    Le professeur en journalisme à l’École des médias de l’Université du Québec à Montréal, Jean-Hugues Roy, s’intéresse plus spécifiquement à Facebook. Il remarque qu’il y a beaucoup de contenus viraux —et religieux— qui circulent. Qui plus est, en l’absence de véritables informations – en raison du blocage du contenu des médias par Meta – « il n’y a plus rien de pertinent. C’est un véritable marché aux puces de #contenus_viraux dont certains peuvent être toxiques. Cela peut prendre l’apparence de contenu journalistique, en ajoutant des éléments mensongers et trompeurs uniquement pour faire des clics. »

    Il est temps d’encadrer ces plateformes, poursuit-il. Une démarche entamée par le Canada avec le projet de loi C-18 qui vise à forcer les « géants du web » à indemniser les médias d’information —c’est ce projet de loi qui est la raison du boycottage des médias entrepris en ce moment par Meta au Canada.

    « Ce sont des entreprises privées et on s’attend à ce qu’elles prennent leurs responsabilités ou que les autorités le fassent. Nous avons une agence d’inspection des aliments au Canada, il est possible d’imaginer une agence d’inspection des réseaux sociaux alors que nos vies sont dessus et qu’ils font beaucoup d’argent avec nos données », pense M. Roy.

    Autrement dit, il faut un encadrement de ces outils par l’humain. « Leur raison d’être est de nous donner un coup de main, pas de décider à notre place », tranche encore Nicolas Garneau.

    https://www.sciencepresse.qc.ca/actualite/2023/12/15/desinformation-destabilise-democratie

  • Thomas Piketty : « L’idéologie antipauvres finit par conduire à une dégradation générale de la qualité du service public »
    https://www.lemonde.fr/idees/article/2023/12/09/thomas-piketty-l-ideologie-antipauvres-finit-par-conduire-a-une-degradation-

    Ce n’est pas en se défoulant sur les plus précaires que l’on va résoudre les problèmes sociaux, plaide l’économiste dans sa chronique.

    Disons-le d’emblée : l’enquête édifiante publiée par Le Monde sur les procédures intrusives et ubuesques subies par des milliers d’allocataires des caisses d’allocations familiales (CAF) pose des problèmes fondamentaux pour l’avenir de la Sécurité sociale et des services publics, en France, en Europe et dans le monde. En épluchant des milliers de lignes de code indûment dissimulées, en rencontrant des personnes fragilisées et des parents isolés injustement pourchassés pour des trop-perçus imaginaires, les journalistes ont montré les conséquences dramatiques de ces pratiques algorithmiques aveugles sur les existences quotidiennes.

    Encore faut-il préciser que les agents des CAF sont souvent (? ndc) les premiers à dénoncer ces pratiques imposées par leur direction et par les responsables politiques à l’institution sociale à laquelle ils sont attachés. Rappelons que les CAF gèrent avec des moyens limités non seulement les allocations familiales, mais aussi le revenu de solidarité active (revenu de base et complément de revenu pour les bas salaires), les allocations logement, celles destinées aux parents isolés ou aux personnes handicapées, les prestations liées aux gardes d’enfants, etc., soit au total près de 14 millions d’allocataires (environ la moitié des ménages).

    Les coûts de fonctionnement des CAF comme des caisses de l’Assurance-maladie et de l’ensemble des caisses de la Sécurité sociale ont toujours été extrêmement modestes : entre 2 % et 3 % des prestations versées suivant les cas, contre 15 % à 20 % pour les compagnies d’assurances privées. Cette efficacité publique est une bonne chose en soi, à condition toutefois de ne pas pousser trop loin dans cette direction.
    Le problème est que le pouvoir politique n’a cessé de faire pression sur les caisses pour réduire toujours davantage ces coûts. La situation s’est notamment dégradée à la suite de l’arrivée au pouvoir en 2007 de Nicolas Sarkozy, qui a mis en avant la nécessité d’une chasse sans merci à la fraude sociale et les allocataires soupçonnés de ruiner le système.

    Glorification des « premiers de cordée »

    Et qu’importe si toutes les études montrent que la fraude fiscale et l’évasion en col blanc portent sur des montants autrement importants. Puisqu’il est compliqué de s’en prendre aux plus riches, vengeons-nous sur les plus pauvres ! Cette glorification des « premiers de cordée » et cette stigmatisation des plus #pauvres (réputés incapables de « traverser la rue » pour trouver un emploi, et régulièrement accusés de coûter un « pognon de dingue ») se sont encore accentuées avec Emmanuel Macron depuis 2017. Sommées de débusquer les #fraudeurs et de faire du chiffre avec des moyens humains réduits, les CAF se sont alors lancées dans la dérive algorithmique mise au jour par les journalistes. [dès 2010, en fait,c-à-d sous Hollande ndc]

    Le pire dans cette évolution est que l’#idéologie_antipauvres finit par conduire à une dégradation générale de la qualité du service public. Si vous n’en avez pas fait l’expérience vous-même, demandez autour de vous. Depuis plusieurs années, si vous envoyez un message aux CAF sur l’interface prévue à cet effet, la machine vous répond que les messages traités actuellement sont ceux réceptionnés il y a trois mois, et que le vôtre devra attendre (six mois plus tard, il attend toujours).

    En revanche, si l’on vous reproche un trop-perçu, parfois fantaisiste, il faut payer tout de suite, sans recours possible. Pour ceux qui en ont les moyens, ces situations ubuesques sont pénibles mais gérables. Pour tous ceux dont les finances sont tendues, c’est insupportable. De toute évidence, les #CAF ne disposent pas des moyens humains permettant de rendre un service de qualité et de traiter correctement les usagers, ce qui est extrêmement douloureux pour toutes les personnes impliquées.

    Cette dégradation du service public se retrouve dans de multiples domaines, par exemple avec des délais de plus de six mois pour obtenir des papiers d’identité, des procédures de remboursement toujours trop lourdes auprès de l’Assurance-maladie et des mutuelles, ou encore l’opacité extrême des #algorithmes d’affectation dans l’enseignement supérieur, dans un contexte de pénurie de places et de moyens dans les filières les plus recherchées.

    Stratégie de droite

    La stratégie de la droite visant à stigmatiser les pauvres et les « assistés » comme responsables des maux du pays est doublement perdante : elle fragilise les plus modestes et conduit à la dégradation du service public pour tous et au règne du chacun-pour-soi, au moment même où nous aurions besoin de socialiser davantage de ressources pour pourvoir aux besoins criants dans la santé, l’éducation et l’environnement. La vérité est que c’est dans le secteur privé que se trouvent les gaspillages et les rémunérations indues, et non dans les caisses sociales et les services publics.

    Cette nouvelle idéologie antipauvres est d’autant plus inquiétante qu’elle est au cœur des recompositions politiques actuelles. La loi antisquatteurs adoptée fin 2022 par une coalition RN-LR-Renaissance en est l’incarnation. Elle montre aussi les impasses de cette approche : ce n’est pas en se défoulant sur les plus #précaires et en fragilisant l’ensemble des #locataires à grands coups de bail raccourci de location meublée et d’expulsion accélérée que l’on va résoudre les problèmes de logement des dizaines de millions de ménages mal logés et mal isolés.

    Cette question est aussi l’occasion de combattre le RN sur le seul terrain qui vaille : celui des faiblesses et des incohérences de son programme. La conversion sociale du RN est un leurre. Le parti reste profondément imprégné de libéralisme économique, comme le montre sa volonté de supprimer l’impôt sur la fortune immobilière, de la même façon que Jean-Marie Le Pen voulait supprimer l’impôt sur le revenu dans les années 1980. Il est plus que temps de sortir des obsessions identitaires actuelles et de remettre les questions socio-économiques au centre du débat public.

    https://seenthis.net/messages/1028926

  • #Interpol makes first border arrest using Biometric Hub to ID suspect

    Global database of faces and fingerprints proves its worth.

    European police have for the first time made an arrest after remotely checking Interpol’s trove of biometric data to identify a suspected smuggler.

    The fugitive migrant, we’re told, gave a fake name and phony identification documents at a police check in Sarajevo, Bosnia and Herzegovina, while traveling toward Western Europe. And he probably would have got away with it, too, if it weren’t for you meddling kids Interpol’s Biometric Hub – a recently activated tool that uses French identity and biometrics vendor Idemia’s technology to match people’s biometric data against the multinational policing org’s global fingerprint and facial recognition databases.

    “When the smuggler’s photo was run through the Biometric Hub, it immediately flagged that he was wanted in another European country,” Interpol declared. “He was arrested and is currently awaiting extradition.”

    Interpol introduced the Biometric Hub – aka BioHub – in October, and it is now available to law enforcement in all 196 member countries.

    Neither Interpol nor Idemia immediately responded to The Register’s questions about how the technology and remote access works.

    But Cyril Gout, Interpol’s director of operational support and analysis, offered a canned quote: “The Biometric Hub helps law enforcement officers know right away whether the person in front of them poses a security risk.”

    That suggests Interpol member states’ constabularies can send biometric data to BioHub from the field and receive real-time info about suspects’ identities.

    The multinational policing org has said that Hub’s “biometric core” combines Interpol’s existing fingerprint and facial recognition databases, which both use Idemia tech, with a matching system also based on Idemia’s biometric technology.

    Interpol and Idemia have worked together for years. In 1999, he police organization chose Idemia to develop its fingerprint database, called the Automated Fingerprint Identification System (AFIS). And then in 2016, Interpol inked another contract with Idemia to use the French firm’s facial recognition capabilities for the Interpol Face Recognition System (IFRS).

    According to Idemia, the latest version of its Multibiometric Identification System, MBIS 5, uses “new generation algorithms which provide a higher matching accuracy rate with a shorter response time and a more user-friendly interface.”

    In its first phase, Interpol will use MBIS 5 to identify persons of interest (POIs) for police investigations.

    A second phase, which will take two years to become fully operational, will extend the biometric checks to border control points. During this phase the system will be able to perform up to one million forensic searches per day – including fingerprints, palm prints, and portraits.

    Interpol expects the combined fingerprints and facial recognition system will speed future biometric searches. Instead of running a check against separate biometric databases, BioHub allows police officers to submit data to both through one interface, and it only requires human review if the “quality of the captured biometric data is such that the match falls below a designated threshold.”

    To address data governance concerns, Interpol claims BioHub complies with its data protection framework. Additionally, scans of faces and hands uploaded to the Hub are not added to Interpol’s criminal databases or made visible to other users. Any data that does not result in a match is deleted following the search, we’re told.

    While The Register hasn’t heard of any specific data privacy and security concerns related to BioHub, we’re sure it’s only a matter of time before it’s misused.

    America’s Transportation Security Agency (TSA) over the summer also said it intends to expand its facial recognition program, which also uses Idemia’s tech, to screen air travel passengers to 430 US airports. The TSA wants that capability in place within ten years.

    The TSA announcement was swiftly met with opposition from privacy and civil rights organizations, along with some US senators who took issue [PDF] with the tech.

    https://www.theregister.com/2023/12/01/interpol_biohub_arrest

    #frontières #contrôles_frontaliers #technologie #empreintes_digitales #biométrie #Interpol #migrations #asile #réfugiés #Biometric_Hub #Balkans #route_des_Balkans #Bosnie-Herzégovine #Idemia #reconnaissance_faciale #passeurs #BioHub #extradition #sécurité #risque #interopérabilité #base_de_données #Automated_Fingerprint_Identification_System (#AFIS) #Interpol_Face_Recognition_System (#IFRS) #Multibiometric_Identification_System #MBIS_5 #algorithmes #persons_of_interest (#POIs) #portraits #Transportation_Security_Agency (#TSA)

  • Notation des allocataires : l’indécence des pratiques de la CAF désormais indéniable – La Quadrature du Net
    https://www.laquadrature.net/2023/11/27/notation-des-allocataires-lindecence-des-pratiques-de-la-caf-desormais

    C’est en transformant les allocataires en « assisté·es », puis en risques pour la survie de notre système social que le discours de « lutte contre l’assistanat » a fait de leur contrôle un impératif de « bonne gestion »18. Qu’importe que toutes les estimations montrent que la « fraude sociale » est marginale et que c’est au contraire le non-recours aux aides qui se révèle être un phénomène massif.

    Devenu objectif institutionnel, le contrôle doit être rationalisé. Le numérique devient alors l’outil privilégié de « la lutte contre la fraude sociale » par la capacité qu’il offre aux dirigeant·es de répondre aux injonctions de résultats tout en offrant un alibi technique quant aux pratiques de discrimination généralisée que leur tenue impose.

    Ces logiques sont saillantes dans la réponse écrite par la CAF pour s’opposer à la transmission du code de son algorithme, avant d’y être contrainte par la Commission d’Accès aux Documents Administratifs (CADA). Elle assume ouvertement un discours policier en avançant comme principal argument que cette communication consisterait en une « atteinte à la sécurité publique » car « en identifiant les critères constituant des facteurs de ciblage, des fraudeurs pourraient organiser et monter des dossiers frauduleux ».

    Enfin, un chiffre transmis dans la même réponse témoigne de l’emballement gestionnaire à l’œuvre et vient souligner la disproportion entre les moyens techniques déployés et les enjeux financiers. L’algorithme est entraîné pour détecter des trop-perçus s’élevant à 600 euros sur deux ans. Soit donc, 32 millions d’intimités violées par un algorithme à la recherche de… 25 euros par mois.

  • Greek data watchdog to rule on AI systems in refugee camps

    A forthcoming decision on the compliance of surveillance and security systems in Greek refugee camps could set a precedent for how AI and biometric systems are deployed for ‘migration management’ in Europe

    Greece’s data protection watchdog is set to issue a long-awaited decision on the legality of controversial high-tech surveillance and security systems deployed in the country’s refugee camps.

    The Greek Data Protection Authority’s (DPA) decision, expected by the end of the year, concerns in part a new multimillion-euro Artificial Intelligence Behavioural Analytics security system, which has been installed at several recently constructed refugee camps on the Aegean islands.

    The system – dubbed #Centaur and funded through the European Union (EU) – relies on algorithms and surveillance equipment – including cameras, drones, sensors and other hardware installed inside refugee camps – to automatically detect purported threats, alert authorities and keep a log of incidents. Hyperion, another system that relies on biometric fingerprint data to facilitate entry and exit from the refugee camps, is also being examined in the probe.

    Centaur and #Hyperion came under investigation in March 2022, after several Greek civil society organisations and a researcher filed a complaint to the Greek DPA questioning the legality of the programs under Greek and European laws. The Greek DPA’s decision could determine how artificial intelligence (AI) and biometric systems are used within the migration management context in Greece and beyond.

    Although the data watchdog’s decision remains to be seen, a review of dozens of documents obtained through public access to documents requests, on-the-ground reporting from the islands where the systems have been deployed, as well as interviews with Greek officials, camp staff and asylum seekers, suggest the Greek authorities likely sidestepped or botched crucial procedural requirements under the European Union’s (EU) privacy and human rights law during a mad rush to procure and deploy the systems.

    “It is difficult to see how the DPA will not find a breach,” said Niovi Vavoula, a lecturer at Queen Mary University of London, who petitioned the Greek DPA alongside Greek civil society organisations Homo Digitalis, The Hellenic League for Human Rights, and HIAS Greece.

    She said “major shortcomings” identified include the lack of appointment of a data protection officer at the Greek Migration Ministry prior to the launch of its programs.

    Security systems a hallmark of new EU camps

    Centaur and Hyperion are hallmarks of Greece’s newest migrant facilities, also known as Closed Controlled Access Centres (CCACs), which began opening in the eastern Aegean in 2021 with funding and supervision from the European Commission (EC). Greek authorities have lauded the surveillance apparatus at the revamped facilities as a silver-bullet solution to the problems that plagued previous makeshift migrant camps in Greece.

    The Centaur system allows authorities to monitor virtually every inch of the camps’ outdoor areas – and even some indoor spaces – from local command and control centres on the islands, and from a centralised control room in Athens, which Greece’s former migration minister Notis Mitarachi unveiled with much fanfare in September 2021.

    “We’re not monitoring people. We’re trying to prevent something bad from happening,” Anastasios Salis, the migration ministry’s director general of ICT and one of the self-described architects of the Centaur system, told me when I visited the ministry’s centralised control room in Athens in December 2021. “It’s not a prison, okay? It’s something different.”

    Critics have described the new camps as “prison-like” and a “dystopian nightmare”.

    Behind closed doors, the systems have also come under scrutiny by some EU authorities, including its Fundamental Rights Agency (FRA), which expressed concerns following a visit to one of the camps on Samos Island in May 2022.

    In subsequent informal input on Greece’s refugee camp security measures, the FRA said it was “concerned about the necessity and proportionality of some of the measures and their possible impact on fundamental rights of residents” and recommended “less intrusive measures”.

    Asked during the control room tour in 2021 what is being done to ensure the operation of the Centaur system respects privacy laws and the EU’s General Data Protection Regulation (GDPR), Salis responded: “GDPR? I don’t see any personal data recorded.”

    ‘Spectacular #experimentation’

    While other EU countries have experimented with myriad migration management and surveillance systems, Greece’s refugee camp deployments are unique.

    “What we see in Greece is spectacular experimentation of a variety of systems that we might not find in this condensed way in other national contexts,” said Caterina Rodelli, a policy analyst at the digital rights non-profit Access Now.

    She added: “Whereas in other European countries you might find surveillance of migrant people, asylum seekers … Greece has paved the way for having more dense testing environments” within refugee camps – particularly since the creation of its EU-funded and tech-riddled refugee camps.

    The #Samos facility, arguably the EU’s flagship camp, has been advertised as a model and visited by officials from the UK, the US and Morocco. Technology deployments at Greece’s borders have already been replicated in other European countries.

    When compared with other Mediterranean states, Greece has also received disproportionate funding from the EU for its border reinforcement projects.

    In a report published in July, the research outfit Statewatch compared commission funds to Greece between 2014 and 2020 and those projected to be paid between 2021 and 2027, finding that “the funding directed specifically towards borders has skyrocketed from almost €303m to more than €1bn – an increase of 248%”.

    Greece’s Centre for Security Studies, a research and consulting institution overseen by the Greek minister of citizen protection, for example, received €12.8m in EU funds to develop border technologies – the most of any organisation analysed in the report during an eight-year period that ended in 2022.

    Surveillance and security systems at Greek refugee camps are funded through the EU’s Covid recovery fund, known formally as the European Commission’s Recovery and Resilience Facility, as well as the Internal Security Fund.
    Early warnings

    At the heart of the Greek DPA probe are questions about whether Greece has a legal basis for the type of data processing understood to be required in the programs, and whether it followed procedures required under GDPR.

    This includes the need to conduct data protection impact assessments (DPIAs), which demonstrate compliance with the regulation as well as help identify and mitigate various risks associated with personal data processing – a procedure the GDPR stipulates must be carried out far in advance of certain systems being deployed.

    The need to conduct these assessments before technology deployments take place was underscored by the Greek DPA in a letter sent to the Greek migration ministry in March 2022 at the launch of its probe, in which it wrote that “in the case of procurement of surveillance and control systems” impact studies “should be carried out not only before their operation, but also before their procurement”.

    Official warnings for Greece to tread carefully with the use of surveillance in its camps came as early as June 2021 – months before the opening of the first EU-funded camp on Samos Island – when the FRA provided input on the use of surveillance equipment in Greek refugee camps, and the Centaur project specifically.

    In a document reviewed by Computer Weekly, the FRA wrote that the system would need to undergo “a thorough impact assessment” to check its compatibility with fundamental rights, including data protection and privacy safeguards. It also wrote that “the Greek authorities need to provide details on the equipment they are planning to use, its intended purpose and the legal basis for the automated processing of personal data, which to our understanding include sensitive biometric data”.
    A botched process?

    However, according to documents obtained through public record requests, the impact assessments related to the programs were only carried out months after the systems were deployed and operational, while the first assessments were not shared with the commission until late January 2022.

    Subsequent communications between EU and Greek authorities reveal, for the first time, glaring procedural omissions and clumsy efforts by Greek authorities to backpedal into compliance.

    For example, Greece’s initial assessments of the Centaur system covered the use of the CCTV cameras, but not the potentially more sensitive aspects of the project such as the use of motion analysis algorithms and drones, a commission representative wrote to Greek authorities in May 2022. The representative further underscored the importance of assessing “the impact of the whole project on data protection principles and fundamental rights”.

    The commission also informed the Greek authorities that some areas where cameras were understood to have been placed, such as common areas inside accommodation corridors, could be deemed as “sensitive”, and that Greece would need to assess if these deployments would interfere with data protection, privacy and other rights such as non-discrimination or child rights.

    It also requested more details on the personal data categories being processed – suggesting that relevant information on the categories and modalities of processing – such as whether the categories would be inferred by a human or an algorithm-based technology – had been excluded. At the time, Greek officials had reported that only “physical characteristics” would be collected but did not expand further.

    “No explanation is provided on why less intrusive measures cannot be implemented to prevent and detect criminal activities,” the commission wrote, reminding Greece that “all asylum seekers are considered vulnerable data subjects”, according to guidelines endorsed by the European Data Protection Board (EDPB).

    The FRA, in informal input provided after its visit to the Samos camp in May 2022, recommended basic safeguards Greece could take to ensure camp surveillance systems are in full compliance with GDPR. This included placing visible signs to inform camp residents and staff “about the operation of CCTV cameras before entering a monitored area”.

    No such signs were visible in the camp’s entry when Computer Weekly visited the Samos camp in early October this year, despite the presence of several cameras at the camp’s entry.

    Computer Weekly understands that, as of early October, procedural requirements such as impact assessments had not yet been finalised, and that the migration ministry would remain in consultation with the DPA until all the programs were fully GDPR-compliant.

    Responding to Computer Weekly’s questions about the findings of this story, a Greek migration ministry spokesperson said: “[The ministry] is already in open consultation with the Greek DPA for the ‘Centaur’ and ‘Hyperion’ programs since March 2022. The consultation has not yet been completed. Both of these programs have not been fully implemented as several secondary functions are still in the implementation phase while the primary functions (video surveillance through closed circuit television and drone, entry – exit through security turnstiles) of the programs are subject to continuous parameterisation and are in pilot application.

    “The ministry has justified to the Greek DPA as to the necessity of implementing the measure of installing and operating video surveillance systems in the hospitality structures citing the damage that the structures constantly suffer due to vandalism, resulting in substantial damage to state assets … and risking the health of vulnerable groups such as children and their companions.”

    The commission wrote to Computer Weekly that it “do[es] not comment on ongoing investigations carried out by independent data protection authorities” and did not respond to questions on the deployment of the systems.

    Previous reporting by the Greek investigative outlet Solomon has similarly identified potential violations, including that the camp programs were implemented without the Greek ministry of migration and asylum hiring a data protection officer as required under the GDPR.
    Lack of accountability and transparency?

    The commission has said it applies all relevant checks and controls but that it is ultimately up to Greece to ensure refugee camps and their systems are in line with European standards.

    Vavoula, the researcher who was involved in the Greek DPA complaint, said the EU has been “funding … these initiatives without proper oversight”.

    Saskia Bricmont, a Belgian politician and a Member of the European Parliament with the Greens/European Free Alliance, described unsuccessful efforts to obtain more information on the systems deployed at Greece’s camps and borders: “Neither the commission nor the Greek authorities are willing to share information and to be transparent about it. Why? Why do they hide things – or at least give the impression they do?”

    The European Ombudsman recently conducted a probe into how the commission ensures fundamental rights are being respected at Greece’s EU-funded camps. It also asked the commission to weigh in on the surveillance systems and whether it had conducted or reviewed the data protection and fundamental rights impact assessments.

    The commission initially reported that Greece had “completed” assessments “before the full deployment of the surveillance systems”. In a later submission in August, however, the commission changed its wording – writing instead that the Greek authorities have “drawn up” the assessments “before the full deployment” of the tools.

    The commission did not directly respond to Computer Weekly’s query asking it to clarify whether the Greek authorities have “completed” or merely “drawn up” DPIAs, and whether the commission’s understanding of the status of the DPIAs changed between the initial and final submissions to the European ombudsman.

    Eleftherios Chelioudakis, co-founder of the Greek digital rights organisation Homo Digitalis, rejected the suggestion that there are different benchmarks on deployment. “There is no legal distinction between full deployment of a system or partial deployment of a system,” he said. “In both cases, there are personal data processing operations taking place.”

    Chelioudakis added that the Greek DPA holds that even the mere transmission of footage (even if no data is recorded/stored) constitutes personal data processing, and that GDPR rules apply.
    Check… check… is this camera on?

    Greek officials, initially eager to show off the camps’ surveillance apparatus, have grown increasingly tight-lipped on the precise status of the systems.

    When visiting the ministry’s centralised control room at the end of 2021, Computer Weekly’s reporter was told by officials that three camps – on Samos, Kos and Leros islands – were already fully connected to the systems and that the ministry was working “on a very tight timeframe” to connect the more than 30 remaining refugee camps in Greece. During a rare press conference in September 2022, Greece’s then-migration minister, Notis Mitarachi, said Centaur was in use at the three refugee camps on Samos, Kos and Leros.

    In October 2022, Computer Weekly’s reporter was also granted access to the local control room on Samos Island, and confirmed that monitoring systems were set up and operational but not yet in use. A drone has since been deployed and is being used in the Samos camp, according to several eyewitnesses.

    Officials appear to have exercised more caution with Hyperion, the fingerprint entry-exit system. Computer Weekly understands the system is fully set up and functioning at several of the camps – officials proudly demonstrated its functions during the inauguration of the Kos camp – but has not been in use.

    While it’s not yet clear if the more advanced and controversial features of Centaur are in use – or if they ever will be – what is certain is that footage from the cameras installed on several islands is being fed to a centralised control room in Athens.

    In early October, Computer Weekly’s reporter tried to speak with asylum seekers outside the Samos camp, after officials abruptly announced the temporary suspension of journalist access to this and other EU-funded camps. Guards behind the barbed wire fence at the camp’s gate asked the reporter to move out of the sight of cameras – installed at the gate and the camp’s periphery – afraid they would receive a scolding call from the migration ministry in Athens.

    “If they see you in the cameras they will call and ask, ‘Why is there a journalist there?’ And we will have a problem,” one of the guards said. Lawyers and others who work with asylum seekers in the camp say they’ve had similar experiences.

    On several occasions, Computer Weekly’s reporter has asked the Greek authorities to provide proof or early indications that the systems are improving safety for camp residents, staff and local communities. All requests have been denied or ignored.

    Lawyers and non-governmental organisations (NGOs) have also documented dozens of incidents that undermine Greek officials’ claims of increased safety in the tech-riddled camps.
    Unmet promises of increased security

    In September 2022, a peaceful protest by some 40 Samos camp residents who had received negative decisions on their asylum claims escalated into a riot. Staff evacuated the camp and police were called in and arrested several people.

    Lawyers representing those accused of instigating the brawl and throwing rocks at intervening police officers said they were struck by the absence of photographic or video evidence in the case, despite their clients’ request to use the footage to prove their innocence.

    “Even with all these systems, with all the surveillance, with all the cameras … there were no photographs or video, something to show that those arrested were guilty,” said Dimitris Choulis, a lawyer with the Human Rights Legal Project on Samos.

    Asked about the incident, the Samos camp director at the time explained that the system has blind spots and that the cameras do not cover all areas of the camp, a claim contrary to other official statements.

    Choulis’s organisation and the legal NGO I Have Rights have also collected testimonies from roughly a dozen individuals who claim they were victims of police brutality in the Samos CCAC beginning in July 2022.

    According to Nikos Phokas, a resident of Leros Island, which houses one of the EU-funded facilities, while the surveillance system has proven incapable of preventing harm on several occasions, the ability it gives officials in Athens to peer into the camps at any moment has shifted dynamics for camp residents, staff and the surrounding communities. “This is the worst thing about this camp – the terror the surveillance creates for people. Everyone watches their backs because of it.”

    He added the surveillance apparatus and the closed nature of the new camp on Leros has forced some camp employees to operate “under the radar” out of fear of being accused of engaging in any behaviour that may be deemed out-of-line by officials in Athens.

    For example, when clothes were needed following an influx of arrivals last summer, camp employees coordinated privately and drove their personal vehicles to retrieve items from local volunteers.

    “In the past, it was more flexible. But now there’s so much surveillance – Athens is looking directly at what’s happening here,” said Catharina Kahane, who headed the NGO ECHO100PLUS on Leros, but was forced to cut down on services because the closed nature of the camp, along with stricter regulations by the Greek migration ministry, made it nearly impossible for her NGO to provide services to asylum seekers.

    Camp staff in one of the island facilities organised a protest to denounce being subjected to the same monitoring and security checks as asylum seekers.

    Residents of the camps have mixed views on the surveillance. Heba*, a Syrian mother of three who lodged an asylum claim in Samos and was waiting out her application, in early October said the cameras and other security measures provided a sense of safety in the camp.

    “What we need more is water and food,” said Mohammed*, a Palestinian asylum seeker who got to Samos in the midst of a recent surge in arrivals that brought the camp’s population to nearly 200% capacity and has led to “inhumane and degrading conditions” for residents, according to NGOs. He was perplexed by the presence of high-tech equipment in a refugee camp that has nearly daily water cuts.

    https://www.computerweekly.com/feature/Greek-data-watchdog-to-rule-on-AI-systems-in-refugee-camps
    #camps_de_réfugiés #surveillance #AI #IA #intelligence_artificielle #Grèce #asile #migrations #réfugiés #camps_de_réfugiés #biométrie #algorithmes

  • La chute du Heron blanc, ou la fuite en avant de l’agence #Frontex

    Sale temps pour Frontex, l’agence européenne de gardes-frontières : après le scandale des pushbacks dans les eaux grecques, qui a fait tomber son ex-directeur, l’un de ses drones longue portée de type Heron 1, au coût faramineux, s’est crashé fin août en mer ionienne. Un accident qui met en lumière la dérive militariste de l’Union européenne pour barricader ses frontières méridionales.

    Jeudi 24 août 2023, un grand oiseau blanc a fait un plongeon fatal dans la mer ionienne, à 70 miles nautiques au large de la Crète. On l’appelait « Heron 1 », et il était encore très jeune puisqu’il n’avait au compteur que 3 000 heures de vol. Son employeur ? Frontex, l’agence européenne de gardes-frontières et de gardes-côtes chargée depuis 2004 de réguler les frontières européennes, avec un budget sans cesse en hausse.

    Le Heron 1 est désigné dans la terminologie barbare du secteur de l’armement comme un drone MALE (Medium Altitude Long Endurance) de quatrième génération, c’est-à-dire un engin automatisé de grande taille capable de voler sur de longues distances. Frontex disposait jusqu’au crash de seulement deux drones Heron 1. Le premier a été commandé en octobre 2020, quand l’agence a signé un contrat de 50 millions d’euros par an avec Airbus pour faire voler cet appareil en « leasing » – Airbus passant ensuite des sous-contrats, notamment avec le constructeur israélien IAISystem
    1
    – pour un total de 2 400 heures de vol, et avec des dépassements qui ont fait monter la facture annuelle. En clair, le coût de fonctionnement de ce drôle d’oiseau est abyssal. Frontex rechigne d’ailleurs à entrer dans les détails, arguant de « données commerciales sensibles », ainsi que l’explique Matthias Monroy, journaliste allemand spécialisé dans l’aéronautique : « Ils ne veulent pas donner les éléments montrant que ces drones valent plus cher que des aéroplanes classiques, alors que cela semble évident. »
    2

    La nouvelle de la chute de l’onéreux volatile n’a pas suscité beaucoup de réactions publiques – il n’en est quasiment pas fait mention dans les médias autres que grecs, hormis sur des sites spécialisés. On en trouve cependant une trace sur le portail numérique du Parlement européen, en date du 29 août 2023. Ce jour-là, Özlem Demirel, députée allemande du parti de gauche Die Linke, pose la question « E-002469/2023 » (une interpellation enregistrée sous le titre : « Crash of a second long-range drone operated on Frontex’s behalf »), dans laquelle elle interroge la fiabilité de ces drones. Elle y rappelle que, déjà en 2020, un coûteux drone longue distance opéré par Frontex s’était crashé en mer – un modèle Hermes 900 cette fois-ci, tout aussi onéreux, bijou de l’israélien Elbit Systems. Et la députée de demander : « Qui est responsable ? »

    Une question complexe. « En charge des investigations, les autorités grecques détermineront qui sera jugé responsable, explique Matthias Monroy. S’il y a eu une défaillance technique, alors IAI System devra sans doute payer. Mais si c’est un problème de communication satellite, comme certains l’ont avancé, ou si c’est une erreur de pilotage, alors ce sera à Airbus, ou plutôt à son assureur, de payer la note. »
    VOL AU-DESSUS D’UN NID D’EMBROUILLES

    Le Heron 1 a la taille d’un grand avion de tourisme – presque un mini-jet. D’une envergure de 17 mètres, censé pouvoir voler en autonomie pendant 24 heures (contre 36 pour le Hermes 900), il est équipé de nombreuses caméras, de dispositifs de vision nocturne, de radars et, semble-t-il, de technologies capables de localiser des téléphones satellites
    3
    . Détail important : n’étant pas automatisé, il est manœuvré par un pilote d’Airbus à distance. S’il est aussi utilisé sur des théâtres de guerre, notamment par les armées allemande et israélienne, où il s’est également montré bien peu fiable
    4
    , sa mission dans le cadre de Frontex relève de la pure surveillance : il s’agit de fournir des informations sur les embarcations de personnes exilées en partance pour l’Europe.

    Frontex disposait de deux drones Heron 1 jusqu’au crash. Airbus était notamment chargé d’assurer le transfert des données recueillies vers le quartier général de Frontex, à Varsovie (Pologne). L’engin qui a fait un fatal plouf se concentrait sur la zone SAR(Search and Rescue
    5
    ) grecque et avait pour port d’attache la Crète. C’est dans cette même zone SAR que Frontex a supervisé plus ou moins directement de nombreux pushbacks (des refoulements maritimes), une pratique illégale pourtant maintes fois documentée, ce qui a provoqué un scandale qui a fini par contraindre le Français Fabrice Leggeri à démissionner de la tête de l’agence fin avril 2022. Il n’est pas interdit de penser que ce Heron 1 a joué en la matière un rôle crucial, fournissant des informations aux gardes-côtes grecs qui, ensuite, refoulaient les embarcations chargées d’exilés.

    Quant à son jumeau, le Heron positionné à Malte, son rôle est encore plus problématique. Il est pourtant similaire à celui qui s’est crashé. « C’est exactement le même type de drone », explique Tamino Bohm, « tactical coordinator » (coordinateur tactique) sur les avions de Sea-Watch, une ONG allemande de secours en mer opérant depuis l’île italienne de Lampedusa. Si ce Heron-là, numéro d’immatriculation AS2132, diffère de son jumeau, c’est au niveau du territoire qu’il couvre : lui survole les zones SAR libyennes, offrant les informations recueillies à ceux que la communauté du secours en mer s’accorde à désigner comme les « soi-disant gardes-côtes libyens »
    6
    – en réalité, des éléments des diverses milices prospérant sur le sol libyen qui se comportent en pirates des mers. Financés en partie par l’Union européenne, ils sont avant tout chargés d’empêcher les embarcations de continuer leur route et de ramener leurs passagers en Libye, où les attendent bien souvent des prisons plus ou moins clandestines, aux conditions de détention infernales
    7
    .

    C’est ainsi qu’au large de Lampedusa se joue une sorte de guerre aérienne informelle. Les drones et les avions de Frontex croisent régulièrement ceux d’ONG telles que Sea-Watch, dans un ballet surréaliste : les premiers cherchant à renseigner les Libyens pour qu’ils arraisonnent les personnes exilées repérées au large ; les seconds s’acharnant avec leurs maigres moyens à documenter et à dénoncer naufrages et refoulements en Libye. Et Tamino d’asséner avec malice : « J’aurais préféré que le drone crashé soit celui opérant depuis Malte. Mais c’est déjà mieux que rien. »
    BUDGET GONFLÉ, MANDAT ÉLARGI

    Tant que l’enquête sur le crash n’aura pas abouti, le vol de drones Heron 1 est suspendu sur le territoire terrestre et maritime relevant des autorités grecques, assure Matthias Monroy (qui ajoute que cette interdiction s’applique également aux deux drones du même modèle que possède l’armée grecque). Le crash de l’un de ses deux Heron 1 est donc une mauvaise nouvelle pour Frontex et les adeptes de la forteresse Europe, déjà bien éprouvés par les arrivées massives à Lampedusa à la mi-septembre et l’hospitalité affichée sur place par les habitants. À l’image de ces murs frontaliers bâtis aux frontières de l’Europe et dans l’espace Schengen – un rapport du Parlement européen, publié en octobre 2022 « Walls and fences at EU borders » (https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2022)733692), précise que l’on en est à 2 035 kilomètres de barrières frontalières, contre 315 en 2014 –, matérialisation d’un coûteux repli identitaire clamant une submersion fantasmée, il est évident que la démesure sécuritaire ne freine en rien les volontés de rejoindre l’Europe.

    Ce ne sont pourtant pas les moyens qui manquent. Lors de sa première année d’opérations, en 2005, Frontex disposait d’un budget de 6 millions d’euros. Depuis, celui-ci n’a cessé d’enfler, pour atteindre la somme de 845,4 millions d’euros en 2023, et un effectif de plus de 2 100 personnels – avec un budget prévisionnel 2021-2027 de 11 milliards d’euros et un objectif de 10 000 gardes d’ici à 2027 (dont 7 000 détachés par les États membres).

    Depuis 2019, Frontex dispose d’un mandat élargi qui autorise l’acquisition et la possession d’avions, de drones et d’armes à feu. L’agence s’est aussi géographiquement démultipliée au fil de temps. Ses effectifs peuvent aussi bien patrouiller dans les eaux de Lampedusa que participer à des missions de surveillance de la frontière serbo-hongroise, alors que son rôle initial était simplement d’assister les pays européens dans la gestion de leurs frontières. L’agence européenne joue aussi un rôle dans la démesure technologique qui se développe aux frontières. Rien que dans les airs, l’agence se veut novatrice : elle a déjà investi plusieurs millions d’euros dans un projet de #zeppelin automatisé relié à un câble de 1 000 mètres, ainsi que dans le développement de drones « #quadcopter » pesant une dizaine de kilos. Enfin, Frontex participe aussi à la collecte généralisée de #données migratoires dans le but d’anticiper les refoulements. Elle soutient même des projets visant à gérer les flux humains par #algorithmes.

    Traversée comme les armées par une culture du secret, l’agence s’est fait une spécialité des zones grises et des partenariats opaques, tout en prenant une place toujours plus importante dans la hausse de la létalité des frontières. « Frontex est devenue l’agent de la #militarisation_des_frontières européennes depuis sa création, résume un rapport de la Fondation Jean-Jaurès sorti en juillet 2023. Fondant son fonctionnement sur l’#analyse_des_risques, Frontex a contribué à la perception des frontières européennes comme d’une forteresse assiégée, liant le trafic de drogue et d’êtres humains à des mouvements migratoires plus larges. »

    « VOUS SURVEILLEZ LES FRONTIÈRES, NOUS VOUS SURVEILLONS »

    Dans sa volonté d’expansion tous azimuts, l’agence se tourne désormais vers l’Afrique, où elle œuvre de manière plus ou moins informelle à la mise en place de politiques d’#externalisation des frontières européennes. Elle pèse notamment de tout son poids pour s’implanter durablement au #Sénégal et en #Mauritanie. « Grâce à l’argent des contribuables européens, le Sénégal a construit depuis 2018 au moins neuf postes-frontières et quatre antennes régionales de la Direction nationale de lutte contre le trafic de migrants. Ces sites sont équipés d’un luxe de #technologies de #surveillance_intrusive : outre la petite mallette noire [contenant un outil d’extraction des données], ce sont des #logiciels d’#identification_biométrique des #empreintes_digitales et de #reconnaissance_faciale, des drones, des #serveurs_numériques, des lunettes de vision nocturne et bien d’autres choses encore », révèle une enquête du journal étatsunien In These Times. Très impopulaire sur le continent, ce type de #néocolonialisme obsidional se déploie de manière informelle. Mais il porte bien la marque de Frontex, agence agrippée à l’obsession de multiplier les murs physiques et virtuels.

    Au Sénégal, pour beaucoup, ça ne passe pas. En août 2022, l’association #Boza_Fii a organisé plusieurs journées de débat intitulées « #Pushback_Frontex », avec pour slogan : « Vous surveillez les frontières, nous vous surveillons ». Une manifestation reconduite en août 2023 avec la mobilisation « 72h Push Back Frontex ». Objectif : contrer les négociations en cours entre l’Union européenne et le Sénégal, tout en appelant « à la dissolution définitive de l’agence européenne de gardes-frontières ». Sur RFI, son porte-parole #Saliou_Diouf expliquait récemment son point de vue : « Nous, on lutte pour la #liberté_de_circulation de tout un chacun. […] Depuis longtemps, il y a beaucoup d’argent qui rentre et est-ce que ça a arrêté les départs ? »

    Cette politique « argent contre muraille » est déployée dans d’autres États africains, comme le #Niger ou le #Soudan. Frontex n’y est pas directement impliquée, mais l’Europe verse des centaines de millions d’euros à 26 pays africains pour que des politiques locales visant à bloquer les migrations soient mises en place.

    « Nous avons besoin d’aide humanitaire, pas d’outils sécuritaires », assure Mbaye Diop, travailleur humanitaire dans un camp de la Croix-Rouge situé à la frontière entre le Sénégal et la Mauritanie, dans l’enquête de In These Times. Un constat qui vaut de l’autre côté de la Méditerranée : dans un tweet publié après le crash du Heron 1, l’ONG Sea-Watch observait qu’avec les 50 millions alloués à Airbus et à ses sous-traitants pour planter son Heron dans les flots, « on pourrait faire voler pendant 25 ans nos avions de secours Seabird 1 et Seabird 2 ».

    https://afriquexxi.info/La-chute-du-Heron-blanc-ou-la-fuite-en-avant-de-l-agence-Frontex

    #drones #Heron_1 #frontières #surveillances_des_frontières #contrôles_frontaliers #migrations #asile #réfugiés #drone_MALE (#Medium_Altitude_Long_Endurance) #crash #Airbus #complexe_militaro-industriel #IAI_System #coût #prix #budget #chute #fiabilité #Hermes_900 #Elbit_Systems #données #push-backs #refoulements #AS2132 #Libye #guerre_aérienne_informelle #biométrie

  • Faux abonnés, faux commentaires ou faux « j’aime » : comment tricher sur Instagram ? François Ruchti, Camille Lanci, Valentin Tombez - RTS - Mise au point
    Le business des influenceurs et influenceuses

    Acheter des abonnés ou des « j’aime » pour paraître plus populaire sur les réseaux sociaux : des sites internet proposent ce type de services pour une poignée de francs suisses. Parmi la clientèle, des personnes actives dans le monde de l’influence, de la politique ou du sport, comme le révèle une enquête de Mise au Point.

    En quelques clics, l’équipe de Mise au Point est virtuellement devenue, avec son profil « Emmalicieuse », l’un des comptes Instagram les plus prometteurs de Suisse romande. Pourtant, sur le profil de cette dernière, rien n’est vrai. Tout est acheté sur des sites internet qui proposent des centaines d’abonnés et des « j’aime » pour quelques euros.

    Pour paraître plus populaire et gonfler son audience, Emmalicieuse a ainsi pu compter sur l’achat de plus de 13’000 abonnés, de milliers de « j’aime » et de milliers de vues pour ses vidéos. Avec un budget total de 300 francs suisses , il a également été possible de lui payer des dizaines de commentaires comme « trop belle la photo » ou encore « j’adore ton look ». Son profil a depuis été effacé.

    Durant l’expérience qui a duré quelques semaines, le compte Emmalicieuse n’a jamais été bloqué par Instagram. Le réseau social prétend pourtant lutter activement contre les abonnés achetés et autres techniques pour gonfler sa notoriété.

    https://scontent-cdg4-3.cdninstagram.com/v/t51.2885-19/331936339_966551758087518_1492022311809588947_n.jpg
    Capture d’écran du profil d’Emmalicieuse [Instagram]

    Sous-traitants basés en Asie
    Parmi les fournisseurs d’abonnés achetés, Marc (Nom connu de la rédaction) , le patron d’une entreprise française spécialisée dans le domaine, a accepté de répondre aux questions de Mise au Point sous couvert d’anonymat.

    "Il y a différents types de qualité d’abonnés, avec plus ou moins de photos et d’éléments pour les rendre plus authentiques. Une fois qu’un client nous fait une commande, nous utilisons des stocks de profils pour générer des « j’aime » ou des commentaires. Généralement, ce ne sont pas de vraies personnes qui cliquent, tout est fabriqué par des réseaux d’ordinateurs et des sous-traitants basés en Asie. Il y a également la possibilité d’obtenir des vrais profils, des vrais abonnés. Ceci est possible grâce à des concours où il est obligatoire de s’abonner à nos clients. Ce service coûte plus cher", révèle-t-il.

    Ces gens veulent crédibiliser leur présence sur les réseaux. Avoir 100 ou 50’000 abonnés, cela fait la différence
    Marc*, le patron d’une entreprise française spécialisée dans le domaine

    Le jeune homme ne souhaite pas donner le nom de ses clients. « Parmi eux, il y a des gens qui souhaitent briller sur les réseaux, qui souhaitent impressionner leurs amis. Ce sont des ’Monsieur et Madame tout le monde’ », explique-t-il au micro de l’émission de la RTS. Avant d’ajouter qu’il y a aussi des politiciens, des influenceurs et de grosses entreprises qui font appel aux services de son entreprise. « Ces gens veulent crédibiliser leur présence sur les réseaux. Avoir 100 ou 50’000 abonnés, cela fait la différence », souligne-t-il.

    Son entreprise est également sollicitée pour se servir de l’algorithme de YouTube. Ces plateformes mettent en avant, comme il l’explique, les vidéos qui ont du succès. Et le succès amène le succès : « Notre service permet de créer de la visibilité. J’ai un client qui achète des dizaines de milliers de vues dès qu’il publie une vidéo. À chaque fois, cela lui permet de mettre en avant sa vidéo. Des vraies personnes finissent par aller voir sa vidéo. Et il fait ainsi facilement un million de vues », poursuit-il.

    Avec Emmalicieuse, la fausse influenceuse de Mise au Point, les abonnés ont été achetés via le site de Marc, mais également sur le site de ses concurrents. Ceci a permis d’identifier précisément un échantillon de 200 profils payants sur Instagram. L’équipe data de la RTS a analysé ces 200 comptes. Ces profils payants sont abonnés à Emmalicieuse, mais également à toute une série de gens bien réels.

    Des sportifs, artistes et politiciens _
    nicocapone.comedy [Instagram]De petites célébrités locales, des entrepreneurs, mais aussi quelques sportifs et artistes ont les mêmes abonnés qu’Emmalicieuse. Sur les 200 profils payants analysés, une cinquantaine suit par exemple le joueur de football Olivier Boumal. On trouve également une politicienne turque, Elvan Işık Gezmiş, membre du Parlement.

    En Suisse, c’est chez des influenceurs vaudois, nicocapone.comedy, qu’on retrouve une partie de notre échantillon de profils payants. Le couple vaudois, connu sur internet, fait régulièrement des apparitions à la télévision. Il affiche officiellement plus de 10 millions d’abonnés sur Instagram.

    Contactées, aucune de ces personnes n’a répondu à nos questions. Attention toutefois : les profils payants analysés se sont peut-être abonnés exceptionnellement gratuitement à ces différentes personnes.

    Sortir du lot *
    Mais pourquoi cette course aux « j’aime », aux abonnés ou aux commentaires ? Certains influenceurs interrogés ont avoué sous couvert d’anonymat utiliser ces artifices afin de sortir du lot et devenir attractifs pour les marques. En Suisse, une personne influenceuse peut déjà gagner plusieurs milliers de francs par mois avec 20 à 30’000 abonnés.

    Avec l’avènement des réseaux sociaux, des agences d’influence ont vu le jour. Ces agences mettent en relation les marques avec des influenceurs. Ils utilisent des outils afin de vérifier l’authenticité des influenceurs, mais la supercherie est parfois très dure à détecter. Hors caméra, des agences d’influenceurs avouent à demi-mot connaître l’ampleur du faux. Cette supercherie ne semble toutefois pas leur poser des problèmes.

    « Si 50% des abonnés d’un instagrammer sont achetés, ce n’est pas si grave. Certains ont plus d’un million de followers... Alors 50% de faux, ça reste 500’000 personnes qui peuvent être touchées, impactées par cette personne. Ca reste très intéressant de faire de la publicité avec ces influenceurs », indique l’une d’entre elles.

    Dans ce monde du faux, entre la course à la notoriété, aux partenariats, aux « j’aime » et aux commentaires, il est difficile de savoir qui joue le jeu sans tricher. Les consommatrices et consommateurs lambda sont donc laissés à eux-mêmes dans la jungle d’Instagram.

    #influenceurs #influenceuses #publicité #sport #politique #notoriété #réseaux_sociaux #blogs #notoriété #profils #abonnements #partenariats #fraude #internet #algorithmes #supercherie

    Source : https://www.rts.ch/info/suisse/14241142-faux-abonnes-faux-commentaires-ou-faux-jaime-comment-tricher-sur-instag

  • TikTok, le roi de l’économie de l’attention
    https://lesechos.fr/tech-medias/medias/tiktok-le-roi-de-leconomie-de-lattention-1965285

    […] Un public captif et captivé de plus d’un milliard d’utilisateurs mensuels actifs qui, sans être aussi valorisé par les annonceurs qu’une audience plus mûre au pouvoir d’achat supérieur, est prisé pour sa capacité à façonner les tendances de demain. « #TikTok est devenu le point de destination d’une génération sur Internet, souligne Alexandre Mahé, de Fabernovel. De toutes les plateformes, il reste celle où l’on peut toucher l’audience la plus jeune. » Les annonceurs apprécieront cette statistique : 46 % des sondés par Kantar affirment « ne pas se laisser distraire » lorsqu’ils sont sur TikTok.

    « Temps de cerveau humain disponible »

    Car le dernier-né des réseaux a réussi une véritable prouesse : capter l’intérêt des usagers dans un univers ultra-concurrentiel dans lequel « l’abondance d’informations crée une rareté de l’#attention », comme le théorisait, en 1971, le psychologue et économiste américain Herbert A. Simon. Le concept d’« économie de l’attention » n’est pas né d’hier. En 2004, Patrick Le Lay, PDG du groupe TF1, avait déjà reconnu que son métier consistait à « vendre à Coca-Cola du temps de cerveau humain disponible ». Les géants du numérique ont encore professionnalisé l’opération.

    « Si les plateformes ont des usages multiples et proposent des fonctionnalités distinctes, leur modèle économique est sensiblement le même : il consiste à transformer le temps que nous y passons en revenus publicitaires, expose Arthur Grimonpont dans ’#Algocratie, vivre libre à l’heure des #algorithmes', paru en 2022 chez Actes Sud. De là naît une compétition redoutable pour se partager une ressource rare et précieuse : notre #temps_d'attention. »

    Et TikTok exploite mieux que quiconque ce « nouveau pétrole » grâce à son algorithme, aussi mystérieux que surperformant, qui génère un flux infini de recommandations en rapport avec les centres d’intérêt de chaque usager à partir de ses « scrolls » passés, de ses interactions, des vidéos regardées jusqu’au bout ou même visionnées plusieurs fois, etc. […]

    (Les Échos)

    #capitalisme #capitalisme_de_surveillance

  • Gouverner par les #données ? Pour une sociologie politique du numérique

    Cet ouvrage est une invitation à entrer dans la boîte noire des #algorithmes, non pas d’un point de vue technique, mais de sociologie politique. La multiplication des données disponibles en ligne, couplée au progrès de l’#intelligence_artificielle, ont-ils des effets sur les manières de gouverner ? Les algorithmes peuvent-ils « prédire » les comportements des citoyens ? Comment sont fabriqués ces algorithmes, dits prédictifs, et par qui ? Sont-ils neutres et objectifs ? Quels sont les enjeux sociaux, éthiques et politiques, liés à l’exploitation des données ? Et quelles sont les stratégies commerciales et marchandes à l’œuvre ? Peut-on encore protéger nos données ?

    Derrière l’exploitation des données, il y a bien des #visions_du_monde. Il s’agit alors de penser l’#algorithme comme un objet politique et social, produit par des acteurs et issu de commandes privées et désormais aussi publiques. Ces lignes de codes et de calculs complexes ne peuvent être dissociées de leurs conditions de production : elles sont encastrées dans un ensemble organisationnel et professionnel spécifique et portées par des #intentions et volontés politiques.

    À travers une série d’études de cas et l’apport d’enquêtes empiriques poussées et inédites, ce volume permet de saisir en contexte comment sont utilisées nos données et quelles sont les influences possibles sur les modes de #gouvernance et les prises de décision. La force de cet ouvrage, à la croisée de la sociologie économique, du droit, des sciences politiques et de l’informatique, est de poser les bases d’une #sociologie_politique des données et du #numérique, visant à dépasser et déconstruire les mythes et les croyances véhiculées par le #big_data.

    http://catalogue-editions.ens-lyon.fr/fr/livre/?GCOI=29021100613110

    #livre #prise_de_décision

  • Ouvrir le code des #algorithmes ? — oui, mais… (2/2)
    https://framablog.org/2023/05/22/ouvrir-le-code-des-algorithmes-oui-mais-2-2

    Voici le deuxième volet (si vous avez raté le premier) de l’enquête approfondie d’Hubert Guillaud sur l’exploration des algorithmes, et de son analyse des enjeux qui en découlent. Dans le code source de l’amplification algorithmique : que voulons-nous vraiment savoir ? par … Lire la suite­­

    #Enjeux_du_numérique #amplificaton #engagement #Facebook #Instagram #Narayan #portée #recommandation #TikTok #Twitter #viralité

  • Ouvrir le code des #algorithmes ? — Oui, mais… (1/2)
    https://framablog.org/2023/05/15/ouvrir-le-code-des-algorithmes-oui-mais-1-2

    Voici le premier des deux articles qu’Hubert #Guillaud nous fait le plaisir de partager. Sans s’arrêter à la surface de l’actualité, il aborde la #transparence du code des algorithmes, qui entraîne un grand nombre de questions épineuses sur lesquelles il … Lire la suite­­

    #Enjeux_du_numérique #amplification #Documentation #données #interdiction #Kayser-Bril #minimisation #Narayan #Nicholas #recherche #Twitter

  • Intelligence artificielle et administration publique numérique
    Cour de cassation
    Cycle 2022 « L’intelligence artificielle : quelle intelligence juridique ? »

    #surveillance #contrôle_social #inégalités_sociales #précarité
    Un véritable florilège de la marche forcée de la société à l’ère de l’administration numérique.

    Toute la vidéo vaut la peine d’être écoutée, voici un extrait si vous voulez des preuves pour refuser les compteurs intelligents
    #linky #gazpar et autres saloperies de surveillance

    https://youtu.be/ppeDpCBYOkk?t=5673

    compter le nombre de douches des chômeurs #belgique

    #Algorithmes #IA

  • Comment mieux utiliser les algorithmes de recommandation : ils expliquent
    https://www.ladn.eu/tech-a-suivre/touche-pas-a-mon-spotify-ces-utilisateurs-qui-bichonnent-leurs-algorithmes-de-r

    Leurs algorithmes de recommandation sont devenus si affûtés, que certains les considèrent comme une partie de leur intimité. Ils et elles nous racontent leurs usages de ces programmes informatiques qui régissent Deezer, Spotify, TikTok et YouTube.

    Ils nous assaillent de publicités, nous enferment dans des petites cases, nous radicalisent, nous rendent accros, tristes et idiots. Voilà ce qu’on dit souvent des algorithmes de recommandation qui régissent une bonne partie de notre vie en ligne. Pourtant, nous avons appris à vivre avec. Certains ont même fait le pari de s’en servir intelligemment, de ne pas se laisser complètement happer par leur biais, mais d’essayer de les dompter, d’en faire des alliés de vie.

    #SNT #NSI #Algorithmes

  • TikTok’s Secret ‘Heating’ Button Can Make Anyone Go Viral
    https://www.forbes.com/sites/emilybaker-white/2023/01/20/tiktoks-secret-heating-button-can-make-anyone-go-viral

    Heating also reveals that, at least sometimes, videos on the For You page aren’t there because TikTok thinks you’ll like them; instead, they’re there because TikTok wants a particular brand or creator to get more views. And without labels, like those used for ads and sponsored content, it’s impossible to tell which is which.

    Employees have also abused heating privileges. Three sources told Forbes they were aware of instances where heating was used improperly by employees; one said that employees have been known to heat their own or their spouses’ accounts in violation of company policy. Documents reviewed by Forbes showed that employees have heated their own accounts, as well as accounts of people with whom they have personal relationships. According to one document, a heating incident of this type led to an account receiving more than three million views.

    (attention modérateurices de @seenthis, on vous a à l’oeil)

    #heating #promotion #algorithmes

  • « Déverbalisation et écrans » (lu dans le dernier Flotoir de Florence Trocmé https://poezibao.typepad.com/files/flotoir-du-15-d%C3%A9cembre-2022.pdf)

    Deux textes à rapprocher, un important passage du livre Les Irremplaçables de #Cynthia_Fleury et un édito du Figaro (samedi 3 décembre 2022) qui s’intitule « Les écrans et la caverne ». Dans cet édito Laurence de Charrette fait un rapprochement entre le sort des contemporains accrochés à leur téléphone et la caverne platonicienne : « la compulsion des #écrans est un virus contemporain » écrit-elle, ce qui en dit long sur « les transformations profondes du rapport au monde qu’engendre la #société_numérique ». Elle évoque alors la fameuses allégorie de Platon mettant en scène des hommes enchaînés dans une caverne : « tournant le dos à l’entrée, ils ne voient pas des objets, mais leurs ombres projetées sur le mur, qu’ils prennent pour la réalité, toute la réalité ». Résultat ? « Confondre ombre et vérité, voilà le syndrome que nourrit l’#addiction aux #réseaux. » Et l’on ne peut s’empêcher de s’inquiéter de ce que cette dérive va devenir avec le développement du fameux métavers. La journaliste a ces mots forts : « voir la vie au travers de sa projection narcissique dans le monde liquide, penser l’instant d’abord dans sa représentation, sa mise en scène dans l’agora du vide ; et se placer ainsi dans l’attente éperdue de l’écho de soi-même. ». Elle enfonce ensuite le clou rappelant que les plateformes ne sont pas des succédanés de la Poste ou le commencement « de l’espace démocratique rêvé par les Grecs anciens » parce que « leurs #algorithmes sont faits pour transformer nos données personnelles en bénéfices »
    Et c’est là que peut s’opérer le rapprochement avec Cynthia Fleury dans la deuxième partie de son livre Les irremplaçables, partie titrée « Le Dogme du pouvoir ». Le sous-chapitre s’intitule « #désubjectivation et déverbalisation » et va montrer comment tout est fait dans le système capitalistique pour vider le sujet humain de sa substance et principalement en lui ôtant les mots, pas tant de la bouche que de la conscience. « Toute tentative de désindividuation prend appui sur la déverbalisation » qui n’est pas seulement « l’impossibilité de traduire précisément ce que l’on pense » mais « porte atteinte à la faculté même de conception intellectuelle » (p. 113) Avec ce double constat, terrifiant : 1. on ne parvient plus à penser ce que d’autres sont capables d’énoncer ; 2. on perd conscience de ce qui devrait faire réalité pour soi.. Elle ponctue cela d’une très belle formule « le langage est une naissance du monde, comme une naissance au monde ». On retrouve là sans doute une des grandes raisons d’être de la poésie ! Mais « voler au sujet sa capacité d’énonciation n’est pas suffisant. Ce qu’il faut voler c’est la condition de possibilité de cette énonciation, sa dynamique de conscientisation. Premier grand processus de la domination : ‘priver de #langage les dominés’. »

    #capitalisme #crétinisation

    Un peu plus loin, elle aborde la question centrale de l’#attention, souvent évoquée dans ce Flotoir : « L’exploitation capitalistique (...) capte, plus encore que les richesses, l’attention des individus. Les individus sont divertis, distraits au sens pascalien, ils sont occupés, pleinement occupés à ne pas penser. » (pp. 104-105). Il s’agit bien de détourner l’attention, voire de rendre cette fonction malade, voire invalide par le jeu des sauts constants de toute focalisation un peu tenue, induits par tous les médias, au sens très large. Incluant bien sûr les écrans en tous genres. Or dit encore Cynthia Fleury « l’attention est par essence l’antichambre du souci de soi et des autres ». (p. 106)

    #distraction #diversion

  • On entend trop le mot « algorithme »
    https://framablog.org/2022/09/29/on-entend-trop-le-mot-algorithme

    Dans les débats politiques au sujet du Web et du numérique en général, on parle souvent d’« algorithmes ». Il n’est peut-être pas inutile de revenir sur ce qu’est un algorithme et sur ce qu’il n’est pas. Si vous êtes informaticien·ne, vous … Lire la suite­­

    #Claviers_invités #Internet_et_société #algorithmes #algorithmique #programmation #programmes

  • Une campagne d’ingérence étrangère proaméricaine démantelée sur Twitter et Facebook Jeff Yates - Radio Canada
    https://ici.radio-canada.ca/nouvelle/1907927/ingerence-etrangere-americaine-moyen-orient-iran-asie-centale-faceb

    L’opération était gérée depuis les États-Unis, mais il n’est pas possible de savoir si le gouvernement se cache derrière.

    Des chercheurs ont détecté une campagne clandestine sur les réseaux sociaux visant à promouvoir les intérêts des États-Unis et à alimenter la méfiance envers leurs adversaires, selon un nouveau rapport publié mercredi https://fsi.stanford.edu/news/sio-aug-22-takedowns .

    Cette campagne clandestine, active depuis 2017, visait à influencer les utilisateurs de réseaux sociaux habitant en Asie centrale, en Iran, en Afghanistan et au Moyen-Orient. À l’aide de faux comptes se faisant passer pour des médias et des habitants locaux, la campagne cherchait à attiser le ressentiment envers la Russie, l’Iran et la Chine. Près de la moitié des comptes visaient la population iranienne.

    Les chercheurs, travaillant pour la firme d’analyse des réseaux sociaux Graphika, ainsi que pour l’Observatoire de l’Internet de l’Université Stanford, jugent qu’il s’agit de “la plus vaste opération d’influence pro-occidentale sur les réseaux sociaux jamais analysée par des chercheurs œuvrant dans le renseignement d’origine sources ouvertes (open source)”.

    En tout, l’équipe a analysé près de 300 000 tweets provenant de 146 faux comptes Twitter, ainsi que 39 faux comptes, 16 pages, 2 groupes sur Facebook et 26 comptes Instagram. Les chercheurs ont aussi trouvé des faux comptes associés sur d’autres réseaux sociaux de langue russe. Selon leur analyse, tous ces faux comptes agissaient de façon coordonnée.

    Meta, l’entreprise qui détient Facebook et Instagram, et Twitter ont supprimé l’entièreté du réseau et affirment que ces faux comptes auraient été gérés depuis les États-Unis. Ni ces entreprises ni les chercheurs ne peuvent dire avec certitude qui est derrière cette campagne.

    Les chercheurs notent toutefois qu’une version archivée d’un des faux comptes montre que celui-ci indiquait en 2021 appartenir à CENTCOM, le commandement central des États-Unis, responsable des opérations militaires au Moyen-Orient et en Asie centrale, entre autres.

    Le réseau a même utilisé des portraits générés par l’intelligence artificielle pour créer des faux profils plus réalistes. Ces comptes ont répandu des articles provenant de sites web de faux médias locaux, des caricatures, ainsi que des pétitions comportant un message pro-occidental.

    Quelques faux profils appartenant au réseau et visant le Moyen-Orient. Les photos de profil ont été créées à l’aide de l’intelligence artificielle. Photo : Graphika/Stanford University

    Peu après le début de l’invasion russe de l’Ukraine, plusieurs de ceux-ci ont cherché à dépeindre la Russie comme étant un agresseur et à mettre l’accent sur les atrocités alléguées commises par les soldats russes.

    “Jusqu’à maintenant, presque toute la recherche sur les opérations d’influence se penchait sur des activités liées à des régimes autoritaires. Notre rapport offre un des premiers regards sur une opération clandestine proaméricaine sur les réseaux sociaux”, juge Shelby Grossman, qui fait partie des auteurs du rapport et chercheuse à l’Observatoire de l’Internet de Stanford.

    Elle et ses collègues soulignent que la campagne était relativement de piètre qualité. Certains textes étaient par exemple traduits de l’anglais au russe de façon approximative. Les publications de ces faux comptes ont généré peu d’engouement chez les populations visées. Le tweet moyen associé à cette campagne a reçu 0,49 j’aime et 0,02 retweet, fait remarquer Mme Grossman. . . . . . . .

    #USA #CIA #twitter #facebook #méta #manipulation #algorithmes #réseaux_sociaux #ia #intelligence_artificielle #pétitions #influenceurs #influenceuses #centcom #médias #ukraine

  • À #Calais, une #surveillance du ciel au tunnel

    #Drones, #reconnaissance_faciale, #capteurs_de_CO2 et de battements cardiaques : face à l’afflux de réfugiés, la frontière franco-britannique est surveillée à grands coups d’#intelligence_artificielle. Premier volet de notre série sur la #cybersurveillance des frontières.

    Pablo lève les yeux au ciel et réfléchit. Brusquement, il fixe son ordinateur. Le chargé de communication et plaidoyer chez Human Rights Observers (HRO) fouille dans ses dossiers, ouvre un document d’une quinzaine de pages. « Tu vois, ce jour-là, ils ont utilisé un drone », indique-t-il en pointant l’écran du doigt. Le 9 juin, l’association pour laquelle il travaille assiste à une expulsion de réfugié·es à #Grande-Synthe. Dans son compte-rendu, elle mentionne la présence d’un drone. Des vols d’aéronefs, hélicoptères ou avions, devenus routiniers.

    En cette matinée de fin juin, Pablo a donné rendez-vous sur son lieu de travail, « l’entrepôt », comme il l’appelle. Ce vaste bâtiment désaffecté d’une zone industrielle à l’est de Calais héberge plusieurs associations locales. Les bureaux de HRO sont spartiates : un simple préfabriqué blanc planté dans la cour.

    C’est ici que ses membres se réunissent pour documenter les #violences d’État perpétrées contre les personnes en situation d’exil à la frontière franco-britannique, plus spécifiquement à Calais et à Grande-Synthe. Depuis plus de 20 ans, la ville est érigée en symbole de la crise migratoire. L’évacuation et la destruction de la jungle en octobre 2016 n’ont rien changé. Désormais réparties dans de multiples camps précaires, des centaines de migrants et migrantes tentent le passage vers l’Angleterre au péril de leur vie. Selon le ministère de l’intérieur, ils et elles étaient 52 000 en 2021, un record, contre « seulement » 10 000 en 2020.

    Sous l’impulsion des pouvoirs publics, Calais se barricade. Plus que les maisons de briques rouges, ce sont les #clôtures géantes, les rangées de #barbelés et les #marécages_artificiels qui attirent la vue. Tout semble construit pour décourager les exilé·es de rejoindre la Grande-Bretagne. « Avant, il n’y avait pas tout ça. C’est devenu assez oppressant », regrette Alexandra. Arrivée il y a sept ans dans le Pas-de-Calais, elle travaille pour l’Auberge des migrants, association qui coordonne le projet HRO.

    Quatre #caméras empilées sur un pylône à l’entrée du port rappellent que cette frontière n’est pas que physique. #Vidéosurveillance, #drones, #avions, #détecteurs_de_CO2… Le littoral nord incarne le parfait exemple de la « #smart_border ». Une frontière invisible, connectée. Un eldorado pour certaines entreprises du secteur de l’intelligence artificielle, mais un cauchemar pour les exilé·es désormais à la merci des #algorithmes.

    Si des dizaines de #caméras lorgnent déjà sur le port et le centre-ville, la tendance n’est pas près de s’inverser. La maire LR, #Natacha_Bouchart, qui n’a pas donné suite à notre demande d’interview, prévoit d’investir 558 000 euros supplémentaires en #vidéosurveillance en 2022.

    « C’est la nouvelle étape d’une politique en place depuis plusieurs décennies », analyse Pierre Bonnevalle, politologue, auteur d’un long rapport sur le sujet. À Calais, la #bunkérisation remonte, selon le chercheur, au milieu des années 1990. « À cette époque commencent les premières occupations des espaces portuaires par des personnes venues des pays de l’Est qui souhaitaient rejoindre la Grande-Bretagne. Cela entraîne les premières expulsions, puis un arrêté pris par la préfecture pour interdire l’accès au port. »

    Les années suivantes, c’est à #Sangatte que se dessinent les pratiques policières d’aujourd’hui. Dans cette commune limitrophe de Calais, un hangar préfigure ce que sera la « #jungle » et héberge jusqu’à 2 000 exilé·es. « La police cible alors tous ceux qui errent dans la ville, tentent d’ouvrir des squats, de dormir dans un espace boisé. » Une manière de « contenir le problème », de « gagner du temps ».

    En parallèle, la ville s’équipe en vidéosurveillance et en barbelés. En 2016, l’expulsion de la jungle fait émerger la politique gouvernementale actuelle : l’#expulsion par les forces de l’ordre, toutes les 24 ou 48 heures, des camps où vivent les personnes exilées.

    #Surveillance_aérienne

    Calme et grisâtre en ce jour de visite, le ciel calaisien n’est pas épargné. Depuis septembre 2020, l’armée britannique fait voler un drone #Watchkeeper, produit par l’industriel français #Thales, pour surveiller la mer. « Nous restons pleinement déterminés à soutenir le ministère de l’intérieur britannique alors qu’il s’attaque au nombre croissant de petits bateaux traversant la Manche », se félicite l’armée britannique dans un communiqué.

    Selon des données de vol consultées par Mediapart, un drone de l’#Agence_européenne_pour_la_sécurité_maritime (#AESM) survole également régulièrement les eaux, officiellement pour analyser les niveaux de pollution des navires qui transitent dans le détroit du Pas-de-Calais. Est-il parfois chargé de missions de surveillance ? L’AESM n’a pas répondu à nos questions.

    Au sein du milieu associatif calaisien, la présence de ces volatiles numériques n’étonne personne. « On en voit souvent, comme des hélicoptères équipés de caméras thermiques », confie Marguerite, salariée de l’Auberge des migrants. Chargée de mission au Secours catholique, Juliette Delaplace constate que cette présence complexifie leur travail. « On ne sait pas si ce sont des drones militaires, ou des forces de l’ordre, mais lorsque l’on intervient et que les exilés voient qu’un drone nous survole, c’est très compliqué de gagner leur confiance. »

    En décembre 2021, à la suite d’une demande expresse du ministre de l’intérieur, Gérald Darmanin, l’agence européenne #Frontex a dépêché un #avion pour surveiller la côte pendant plusieurs semaines. « Une mission toujours en cours pour patrouiller aux frontières française et belge », précise Frontex.

    « On sent une évolution des #contrôles depuis l’intervention de cet avion, qui a œuvré principalement la nuit, confie le maire d’une ville du Nord. Beaucoup de gens tentaient de monter dans des camions, mais cela a diminué depuis que les contrôles se sont durcis. »

    Il faut dire que la société #Eurotunnel, qui gère le tunnel sous la Manche, ne lésine pas sur les moyens. En 2019, elle a dépensé 15 millions d’euros pour installer des sas « #Parafe » utilisant la reconnaissance faciale du même nom, mise au point par Thales. Lors du passage de la frontière, certains camions sont examinés par des capteurs de CO2 ou de fréquence cardiaque, ainsi que par de l’#imagerie par #ondes_millimétriques, afin de détecter les personnes qui pourraient s’être cachées dans le chargement.

    « C’est un dispositif qui existe depuis 2004, lorsque Nicolas Sarkozy a fait évacuer le camp de Sangatte, informe un porte-parole d’Eurotunnel. Depuis 2015, il y a tellement de demandes de la part des routiers pour passer par ce terminal, car ils peuvent recevoir des amendes si un migrant est trouvé dans leur camion, que nous avons agrandi sa capacité d’accueil et qu’il fait partie intégrante du trajet. »

    Des outils de plus en plus perfectionnés qui coïncident avec l’évolution des modes de passage des personnes exilées, analyse le politologue Pierre Bonnevalle. « Pendant longtemps, il s’agissait de surveiller les poids lourds. Le #port et le #tunnel sont aujourd’hui tellement bunkérisés que les exilés traversent en bateau. »

    Les technologies employées suivent : en novembre 2021, le ministère de l’intérieur annonçait la mise à disposition de 4 x 4, de lunettes de vision nocturne ou de #caméras_thermiques pour équiper les gendarmes et policiers chargés de lutter contre l’immigration clandestine sur les côtes de la Manche.

    « Ces technologies ne servent à rien, à part militariser l’espace public. J’ai encore rencontré des associatifs la semaine dernière qui me disaient que cela n’a aucun impact sur le nombre de passages et les risques pris par ces gens », tempête l’eurodéputé et ancien maire de Grande-Synthe Damien Carême.

    Elles ont malgré tout un #coût : 1,28 milliard d’euros depuis 1998, selon Pierre Bonnevalle, dont 425 millions pour la seule période 2017-2021. « C’est une estimation a minima, pointe-t-il. Cela ne prend pas en compte, par exemple, le coût des forces de l’ordre. »

    Publié en novembre 2021, un rapport de la commission d’enquête parlementaire sur les migrations détaille les dépenses pour la seule année 2020 : l’État a investi 24,5 millions dans des dispositifs humanitaires d’hébergement, contre 86,4 pour la mobilisation des forces de l’ordre. Des sommes qui désespèrent Pablo, le militant de Human Rights Observers. « Cela aurait permit de bâtir de nombreux centres d’accueil pour que les exilés vivent dans des conditions dignes. » L’État semble avoir d’autres priorités.

    #technologie #frontières #contrôles_frontaliers #asile #migrations #réfugiés #surveillance_des_frontières #militarisation_des_frontières #IA #AI #complexe_militaro-industriel #Manche #La_Manche #France #UK #Angleterre
    –-

    via @olaf #merci :
    https://seenthis.net/messages/968794