• « On bascule de la culture du signe à une culture du signal »

    https://www.liberation.fr/forums/on-bascule-de-la-culture-du-signe-a-une-culture-du-signal-20210415_CQ6ZXL

    Philosophe juridique, la chercheuse Antoinette Rouvroy alerte sur la place des Gafam dans nos sociétés fragilisées par le contexte de pandémie et de distanciation sociale.

    [...]

    Quel est l’impact de cette « déterritorialisation » des interactions humaines ?

    Elle donne aux plateformes du numérique l’occasion d’affiner encore les algorithmes de « personnalisation », c’est-à-dire de sélection et de hiérarchisation des contenus en fonction de chaque profil. Ces solutions numériques très confortables accroissent le phénomène de fragmentation de l’espace public médiatique, chacun n’étant exposé qu’à des contenus qui lui conviennent. Cette distanciation sociale est aussi une distanciation politique, car elle provoque une désertion de l’espace public dans lequel pourrait se discuter la chose commune, irréductible à la juxtaposition d’intérêts individuels.

    [...]

    nous assistons à une domestication de la norme par les faits, et non des faits par la norme : c’est une inversion majeure. Nous avons longtemps pensé que gouverner c’était prévoir. Aujourd’hui, la spontanéité du réel dirige nos gouvernants, qui s’appuient sur un traitement à grande vitesse de données massives plutôt que sur des normes sociales et juridiques. Cette fascination pour un monde en haute résolution mène à une « ingouvernance », c’est-à-dire un mode de gouvernance mis en œuvre par des algorithmes sur le mode du trading à haute fréquence, où la contingence et la vitesse sont souveraines.

    #gouvernementalité_algorithmique
    #Antoinette_Rouvroy

  • webinaire 19 avril 18h :
    Lundi de la cybersécurité - Cyberpouvoir : crime et châtiment

    https://www.globalsecuritymag.fr/Lundi-de-la-cybersecurite-par,20210324,109635.html

    L’omniprésence des technologies du numérique dans notre environnement façonne nos manières d’être, de penser et d’agir. L’informatique est un instrument de puissance et de pouvoir pour ceux qui la maitrisent et un joug pour ceux qui en dépendent. Cette conférence aborde différentes facettes de l’expression du cyberpouvoir que détiennent les acteurs licites et illicites.

    Au travers de questions choisies relatives aux cyberconfits, à la cybercriminalité, à la gouvernementalité algorithmique et à l’intelligence artificielle, sont analysés certains aspects d’ordre social, économique et politique du cyberpouvoir. Un regard critique sur le monde que nous contribuons à construire et sur celui que nous laisserons en héritage aux générations futures est apporté, afin, qu’à l’ère des technosciences, tenter de savoir « si la liberté de l’homme exige-t-elle que tout soit permis ? ».

    #gouvernementalité_algorithmique

  • Dégouverner ?
    http://www.internetactu.net/2021/01/06/degouverner

    Si le monde nous semble si incompréhensible, c’est qu’il l’est devenu !, explique l’écrivain Tim Maughan (@timmaughan), auteur notamment d’un roman de science-fiction, Infinite Detail (MCD Books, 2019, non traduit), sur One Zero (@ozm). Des chaînes d’approvisionnement automatisées aux échanges commerciaux à haute fréquence, la complexité rend le monde « inconnaissable » à toute intelligence humaine. Pire souligne-t-il, pour générer toujours plus de croissance, les systèmes automatisés doivent augmenter sans (...)

    #algorithme #technologisme #domination

  • Algorithmic Governmentality and the Death of Politics
    https://www.greeneuropeanjournal.eu/algorithmic-governmentality-and-the-death-of-politics

    In recent years, the likes of the Cambridge Analytica scandal together with regulatory steps such as the EU’s GDPR data law have contributed to a swell in public awareness on the potential risks of big data and artificial intelligence. Privacy, however, is only the tip of the iceberg. We sat down with legal philosopher Antoinette Rouvroy to discuss her work on algorithmic governmentality and the profound transformation the neoliberal-driven tech revolution is catalysing in society and (...)

    #CambridgeAnalytica/Emerdata #algorithme #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #prédiction #BigData #GAFAM #profiling (...)

    ##CambridgeAnalytica/Emerdata ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##surveillance

  • Bifurquer : Bernard Stiegler et le collectif Internation pour des « territoirs existentiels »

    https://lvsl.fr/bifurquer-bernard-stiegler-et-le-collectif-internation-pour-des-territoires-exi

    Bifurquer est un ouvrage collectivement rédigé par un ensemble de chercheurs issus de différentes disciplines (le collectif Internation 1), sous la direction du philosophe Bernard Stiegler. Cet ouvrage analyse les effets toxiques de l’ère Anthropocène, qui se caractérise aujourd’hui par un capitalisme planétarisé réduisant la pensée humaine au calcul et à la raison algorithmique, et propose un ensemble de pistes pour amorcer une bifurcation vers de nouveaux modèles économiques et technologiques porteurs d’avenir.

    Le point de départ des thèses défendues dans ce livre consiste à soutenir que l’Anthropocène correspond à une augmentation massive des taux d’entropie, aux niveaux physique (changement climatique, dissipation de l’énergie et épuisement des ressources), biologique (destruction des écosystèmes et perte de biodiversité) mais aussi psycho-social (l’ère post-vérité et la data economy peuvent être comprises comme des facteurs d’augmentation de l’entropie informationnelle, à travers la destruction des différents types de savoirs). Dans ce contexte, le collectif soutient qu’une nouvelle forme d’économie est requise, visant à valoriser la production d’anti-entropie à ces trois niveaux, en tirant parti des technologies numériques. Le livre vise à expliciter les hypothèses théoriques sous-jacentes à ces analyses et à fournir des méthodes permettant d’expérimenter de manière concrète et localisée les hypothèses ainsi présentées.

    Concernant les hypothèses fondamentales, il s’agit de montrer que le modèle macro-économique dominant, à l’origine de l’Anthropocène, se fonde sur des bases épistémologiques obsolètes, dans la mesure où il ne prend pas en compte la théorie de l’entropie, en particulier ses conséquences en termes de biologie 2, notamment en ce qui concerne la vie technique qui caractérise les sociétés humaines. Comme l’explique le biologiste Alfred Lotka dès 1945, et comme l’avaient déjà souligné des philosophes comme Karl Marx ou Henri Bergson, l’évolution des sociétés humaines se caractérise par un phénomène d’exosomatisation, c’est-à-dire, par la production d’organes artificiels ou techniques, dont le rythme d’évolution ne cesse de s’accélérer.

    En s’inspirant des analyses du mathématicien Alfred Lotka, les auteurs du livre soutiennent que le développement technologique est intrinsèquement ambivalent. Il contribue toujours et inévitablement à une accélération de la tendance entropique qui caractérise l’évolution physique de l’univers : en reproduisant leurs conditions matérielles d’existence, les vivants techniques exploitent des ressources et dissipent de l’énergie, « précipitant [ainsi] une matière puissamment organisée vers une inertie toujours plus grande et qui sera un jour définitive 3 ». Néanmoins, s’ils adoptent leurs milieux techniques à travers la pratique de savoirs de toutes sortes, et en se reliant collectivement au sein d’organisations sociales, les vivants techniques peuvent différer localement cette tendance entropique globale, en produisant de la diversité (culturelle, scientifique, spirituelle) et de la nouveauté (à travers la transformation des savoirs faire, des savoirs vivre, des savoirs théoriques).

    #gouvernementalité_algorithmique

    • https://www.amazon.fr/Bifurquer-pas-dalternative-Bernard-Stiegler/dp/B0851LN7XD

      https://www.decitre.fr/livres/bifurquer-9791020908568.html#resume

      Ce livre remarquablement documenté - tant par ses idées et propositions que par les pratiques qui essaiment déjà dans certaines villes ou certains pays - dessine le monde tel qu’il devrait être pour répondre aux grandes crises sanitaires, climatiques, sociales, économiques ou psychiques. En ces temps de graves périls, il nous faut bifurquer : il n’y a pas d’alternative. La pandémie qui a paralysé le monde en quelques semaines révèle désormais comme une évidence l’extraordinaire et effroyable vulnérabilité de l’actuel « modèle de développement », ainsi que la potentielle multiplication des risques systémiques combinés qui s’y accumulent.
      Elle prouve que ce modèle est condamné à mort, et qu’il nous condamnera à mort avec lui, où que nous soyons dans le monde, si nous ne le changeons pas. Le travail collectif à l’origine de cet ouvrage a établi que ce modèle destructif de développement atteint ses limites ultimes et que sa toxicité, de plus en plus massive et multidimensionnelle (sanitaire, environnementale, mentale, épistémologique, économique), est engendrée avant tout par le fait que l’économie industrielle actuelle repose sur un modèle physique dépassé qui dissimule systémiquement que l’enjeu fondamental de l’ère Anthropocène est la prise en compte de l’entropie.
      Bifurquer, cela signifie : reconstituer une économie politique réarticulant les savoirs et les pratiques locales avec les circuits macroéconomiques, et en repensant la territorialité à ses différentes échelles de localité ; développer cette économie de la contribution sur la base d’un revenu contributif décorrélé de l’emploi et revalorisant le travail comme activité de savoir ; refonder le droit et la comptabilité des Etats et des entreprises en agençant à travers des démarches d’expérimentation économique et sociale, et dans des territoires laboratoires, les économies associatives, coopératives et marchandes locales réticulées, et articulées avec le commerce international ; réévaluer la recherche dans l’optique du long terme, indépendamment des intérêts à court terme des pouvoirs aussi bien politiques qu’économiques ; réorienter au service des territoires et de leurs coopérations les technologies numériques...

  • Pensée algorithmique et subjectivation

    #gouvernementalité_algorithmique
    #Antoinette_Rouvroi #Frédéric_Neyrat

    https://blogs.mediapart.fr/mathilde-dt/blog/010520/pensee-algorithmique-et-subjectivation

    L’arrière-pensée est celle de la suppression de l’intentionnalité et de l’hypothèse. C’est-à-dire de la subjectivité humaine, considérée comme faillible, et désormais inutile, puisque le réel parle de lui-même. Le postulat sous-jacent est donc celui d’un réel objectif, qui ne nous serais accessible non pas au moyen de la compréhension de mécanismes causaux, mais d’un état des lieux en temps réel des données qui le constituent.

    [...]

    La pensée algorithmique nous enferme dans une boucle de rétro-contrôle pour être toujours plus spécifique au modèle auquel nous sommes censés, enjoints, d’appartenir. De ce que je consomme, des sites que je consulte, des amis que j’ai, je suis amené à devenir plus spécifique, via les suggestions qui me sont faites par des algorithmes toujours plus malins, à ne pas m’écarter de cette personne que je suis censée être et continuer à être, toujours d’avantage.

    L’algorithme m’enferme et m’empêche de penser différemment, m’empêche de découvrir ce qui n’est pas censé me convenir, il restreint petit à petit le champ de mes possibles, de telle manière qu’il anticipe, mais en m’empêchant de penser, ce que sera mon futur.

    [...]

    on nous promettait de pouvoir tout prévoir et tout calculer. En filigrane transparaissait une certaine injonction à nous programmer, en tant qu’êtres calculés et aux comportements prévus, en nous enfermant dans un certain profil comportemental. Cette immunité et cette programmabilité du vivant a été battue en brèche. Elle s’est effondrée avec cette pandémie.

    [...]

    [Dewey, 1916] : " Être conscient, c’est être au courant de ce que nous allons faire ; conscient signifie que l’action est délibérée, observatrice et planificatrice. La conscience n’est pas quelque chose que nous avons, qui regarde paresseusement le monde qui l’entoure ou qui reçoit des impressions des choses matérielles ; c’est le nom de la qualité intentionnelle d’une activité, du fait qu’elle est dirigée vers un objectif. » Intentionalité. C’est cette nécessité qui est niée par la logique algorithmique. C’est le fondement de ce qu’on appelle l’éducation. C’est la finalité de l’espace public et politique. C’est le propre de chacun de se sentir concerné par le fait de l’entretenir, par notre capacité de réticence, de recul, de non acquiescement à ce qui ne nous semble pas juste. Retrouver la nécessité d’une intentionnalité au travers de la conscience. C’est ce qui nous fait défaut aujourd’hui parce que nous pensions naïvement pouvoir nous en passer.

  • La vie n’est pas donnée | Antoinette Rouvroy
    https://www.academia.edu/31846143/La_vie_nest_pas_donn%C3%A9e?auto=download

    La vie n’est pas donnée. Antoinette Rouvroy « La vie, c’est l’excès permanent de la vie. La vie - ce qui ne peut jamais être organisé jusqu’au bout : la désorganisation de la vie » (Boyan Manchev, La métamorphose et l’instant. Désorganisation de la vie, La Phocide, 2009.) Comme l’écrit Frédéric Neyrat, les deux maux principaux dont meurent les sociétés aujourd’hui sont « la croyance en l’indemne, qui nous permet de tout détruire » et « la programmation des conduites, qui empêche d’exister » (1). (...)

    #algorithme #biopolitique #criminalité #technologisme #domination #prédiction #BigData (...)

    ##criminalité ##profiling

  • La gouvernementalité algorithmique et la mort du politique

    Nous avons rencontré la philosophe juridique Anne Rouvroy pour discuter de son travail sur la gouvernementalité algorithmique, et la profonde transformation que la révolution technologique néolibérale catalyse dans la société et la politique. Selon elle, il est nécessaire de retourner à la réalité et de tourner le dos à l’optimisation sans fin – et c’est en cela que l’Union européenne doit jouer son rôle.

    Questions :

    Au-delà des aspects techniques et strictement matériels de la dite révolution technologique actuelle, un mouvement de fond plus important et structurant transforme les sociétés actuelles. Vous travaillez entre autres sur la question de la gouvernementalité algorithmique. De quoi s’agit-il et quelle est l’idéologie des big data qui la sous-tend  ?

    Shoshana Zuboff, dans L’Âge du Capitalisme de Surveillance, parle de «  marché des comportements futurs  ». On traduit donc les expériences humaines, ce qui est dit «  incontrôlable  », en comportements, en signaux, de manière à vendre ces données sur un marché. L’objectif est de faire de la prédiction, mais en réalité n’est-ce pas aussi de domestiquer totalement le risque   ?

    On ne cherche donc plus à imposer de nouvelles normes, à façonner les interactions entre personnes et on passe donc carrément à une sorte de neutralisation. Est-ce qu’il s’agit de tuer l’imagination et le vivant   ?

    Politiquement, comment fait-on pour être subversif vis-à-vis de la gouvernementalité algorithmique   ?

    Je voudrais passer à un sujet lié mais différent, celui du droit vis-à-vis des big tech. Vous dites que la RGPD est un outil utile mais arrivé trop tard et avec la mauvaise cible. Pourriez-vous m’expliquer   ?

    https://www.greeneuropeanjournal.eu/la-gouvernementalite-algorithmique-et-la-mort-du-politique

    #gouvernementalité_algorithmique

  • L’empire des données
    http://www.lempiredesdonnees.com

    Plus de data ont été récoltées cette année que depuis le début de l’histoire de l’humanité. Cette nouvelle matière première nourrit quantité d’algorithmes qui déterminent les conditions d’accès à un crédit ou à un emploi, prévoient le décrochage scolaire, détectent les profils à risque terroriste, et repèrent les prédispositions à certaines pathologies. Comment fonctionne ce monde opaque dans lequel nous vivons ? Sur quels critères sont prises ces décisions que nous déléguons à des mécanismes qui nous dépassent ? (...)

    #algorithme #comportement #données #métadonnées #publicité #Règlement_Général_sur_la_Protection_des_Données_(RGPD) #BigData #marketing #data-mining #profiling (...)

    ##publicité ##Règlement_Général_sur_la_Protection_des_Données__RGPD_ ##bénéfices

  • Antoinette Rouvroy : « À mon sens, Zuckerberg est dépassé »
    https://www.lecho.be/opinions/general/antoinette-rouvroy-a-mon-sens-zuckerberg-est-depasse/9995228.html

    Juriste et philosophe du droit aux Facultés de Namur et chercheuse au FNRS, Antoinette Rouvroy étudie la « gouvernementalité algorithmique ». Ses recherches se centrent sur la question de la norme et du pouvoir à l’heure de la révolution numérique. Elle tire la sonnette d’alarme : l’usage abusif des big data porte atteinte à notre liberté… Et commente, pour L’Echo, l’affaire Cambridge Analytica, du nom de cette société britannique qui a exploité de manière indue les données personnelles de 50 millions (...)

    #CambridgeAnalytica #Facebook #algorithme #élections #électeurs #domination #BigData #prédictif #marketing (...)

    ##profiling

    • Le monde du web est opaque. En soi, recueillir des informations est déjà une tromperie. C’est la présence des tiers qui utilisent la plateforme pour proposer d’autres services qui pose problème. Par exemple, vous répondez à un questionnaire « à quel personnage de ‘la guerre des étoiles’ ressemblez-vous ? », mais vous ignorez que ces données vont ensuite être utilisées. L’autre problème, c’est qu’on a l’impression de participer à une communauté alors qu’en réalité, il n’y a pas d’échange. Tout le monde est seul devant son écran. Facebook n’est pas un espace public. On assiste à une hypertrophie de la sphère privée qui se caractérise paradoxalement par une dépersonnalisation. La prise de conscience collective ne peut pas se produire.

  • Google is now involved with healthcare data – is that a good thing?
    http://theconversation.com/google-is-now-involved-with-healthcare-data-is-that-a-good-thing-58

    Google has some of the most powerful computers and smartest algorithms in the world, has hired some of the best brains in computing, and through its purchase of British firm Deepmind has acquired AI expertise that recently saw an AI beat a human grandmaster at the game of go. Why then would we not want to apply this to potentially solving medical problems – something Google’s grandiose, even hyperbolic statements suggest the company wishes to?

    The New Scientist recently revealed a data sharing agreement between the Royal Free London NHS trust and Google Deepmind. The trust released incorrect statements (since corrected) claiming Deepmind would not receive any patient-identifiable data (it will), leading to irrelevant confusion about what data encryption and anonymisation can and cannot achieve.

    As people have very strong feelings about third-party access to medical records, all of this has caused a bit of a scandal. But is this an overreaction, following previous health data debacles? Or does this represent a new and worrying development in the sharing of medical records?

  • The new way police are surveilling you: Calculating your threat ‘score’

    https://www.washingtonpost.com/local/public-safety/the-new-way-police-are-surveilling-you-calculating-your-threat-score/2016/01/10/e42bccac-8e15-11e5-baf4-bdf37355da0c_story.html

    While officers raced to a recent 911 call about a man threatening his ex-girlfriend, a police operator in headquarters consulted software that scored the suspect’s potential for violence the way a bank might run a credit report.

    The program scoured billions of data points, including arrest reports, property records, commercial databases, deep Web searches and the man’s social- media postings. It calculated his threat level as the highest of three color-coded scores: a bright red warning.

    [...]

    But perhaps the most controversial and revealing technology is the threat-scoring software Beware. Fresno is one of the first departments in the nation to test the program. Beware automatically runs the address. The searches return the names of residents and scans them against a range of publicly available data to generate a color-coded threat level for each person or address: green, yellow or red.

    #surveillance
    #gouvernementalité_algorithmique

  • A la SNCF, des logiciels pour détecter les « comportements suspects » par vidéosurveillance
    http://www.lemonde.fr/pixels/article/2015/12/17/a-la-sncf-des-logiciels-pour-detecter-les-comportements-suspects-par-videosu

    La SNCF a annoncé qu’elle expérimentait des technologies de détection des comportements suspects sur ses caméras de vidéosurveillance, tout en appelant à confier de nouvelles prérogatives à ses agents de sécurité, comme le prévoit une proposition de loi en débat à l’Assemblée. Face au « caractère exceptionnel » de la menace terroriste après les attentats de Paris, la SNCF teste un logiciel d’analyse comportementale qui pourrait être intégré à ses 40 000 caméras de surveillance, a dit le secrétaire général de (...) #SNCF #CCTV #vidéo-surveillance #anti-terrorisme #algorithme #surveillance #biométrie

  • #Book: The Black Box Society
    The Secret Algorithms That Control Money and Information
    –- Frank Pasquale

    http://www.hup.harvard.edu/catalog.php?isbn=9780674368279

    Frank Pasquale exposes how powerful interests abuse secrecy for profit and explains ways to rein them in. Demanding transparency is only the first step. An intelligible society would assure that key decisions of its most important firms are fair, nondiscriminatory, and open to criticism. Silicon Valley and Wall Street need to accept as much accountability as they impose on others.

    Articles:

    – Seenthis:
    @hubertguillaud

    http://seenthis.net/messages/342545

    – Slate:

    http://www.slate.com/articles/technology/bitwise/2015/01/black_box_society_by_frank_pasquale_a_chilling_vision_of_how_big_data_has.htm

    As a lawyer, Pasquale looks at the problem from the outside in, considering the civil structure in which data-collection algorithms are embedded and how we could potentially regulate abusive and harmful uses of the data while still enabling beneficial “big data” studies.

    – Times Higher Education:

    https://www.timeshighereducation.co.uk/books/the-black-box-society-the-secret-algorithms-that-control-money-and-information-by-frank-pasquale/2018918.article

    This book’s subtitle could easily have been taken further: it is not just money and information that is at stake. The algorithmic control that law scholar Frank Pasquale eloquently and intelligently details and analyses goes beyond money and information and into almost every aspect of our lives. For this reason, although it might appear merely to be a book about technology and finance, The Black Box Society, ultimately, is a radical and political work that deserves wide attention.

    – New Republic:

    http://www.newrepublic.com/article/120987/pasquales-black-box-challenges-digital-sphere-run-algorithms

    The Black Box Society is a tour of how computational intelligence has come to dominate three important parts of American life: reputation, search, and finance. Pasquale is invoking a couple different concepts with the title. Like a black box on an airplane, these algorithms take information from the noise around them; like a black box in computer science, they are hidden systems, only observable from the outside in terms of their inputs and outputs. But more like black holes, the algorithms are visible in their effects on their surroundings. Our economy—and the many vital life processes it manages—twists and turns based on the say-so of inscrutable mathematical processes.

    – A very good interview in which Frank Pasquale talks about how his book came to be (it took 10 years to write it):

    http://balkin.blogspot.be/2014/09/interview-on-black-box-society_19.html

    As Google grew in the early 2000s, the primary policy question seemed to be: “how do we get law out of the way of this company so it can keep organizing the internet?”

    #book #livre
    #big_data

    #Frank_Pasquale

    https://www.law.umaryland.edu/faculty/profiles/faculty.html?facultynum=984

  • Ne jetez pas la #pensée_algorithmique avec la #gouvernementalité_algorithmique – Communs / Commons
    http://paigrain.debatpublic.net/?p=8987

    La critique de la gouvernementalité algorithmique, c’est à dire de formes de pouvoir qui se naturalisent en se cachant derrière des algorithmes appliqués à des données, est d’une grande importance. C’est un outil fondamental pour repolitiser, réinstituer en choix sociaux et culturels et rehumaniser des pratiques qui entendent échapper à ces dimensions de façon à exercer des pouvoirs qui sont d’autant plus violents qu’ils prétendent ne relever que d’un calcul objectif. Le concept de gouvernementalité algorithmIque nous a permis de mettre un nom sur ce qu’il y a de commun entre l’intermédiation de Google ou Amazon, la police des intentions, la réduction de la santé publique à une gestion des risques individuels1 ou l’élimination de la dimension collective ou réflexive du travail humain dans l’économie. Cette dernière deviendrait ainsi telle que le capitalisme l’a toujours rêvée : un processus de génération sans fin de nouveaux profits dont nous ne serions que les esclaves affectés aux tâches de réparation subalternes à condition que nous soyons concurrentiels en termes de coûts avec les robots. C’est dire à quel point je suis reconnaissant à Antoinette Rouvroy et Thomas Berns, principaux promoteurs à partir de 2008 de ce concept et à ceux qui le portent plus largement.
    [...]
    Si nous devons lutter avec force contre toute naturalisation, toute appropriation privative des algorithmes, mettre la pensée algorithmique dans les mains de chacun est aussi indispensable, aussi émancipateur et aussi porteur de révolutions que l’a été l’appropriation de l’écriture. Le débat sur comment y parvenir est essentiel. L’enseignement séparé de la programmation comme une discipline ne doit pas à mon sens être le seul chemin utilisé pour y parvenir, la pensée algorithmique mérite d’être abordée dans le contexte de toutes les autres pratiques et disciplines. Car c’est à cette condition qui nous lui donnerons un environnement qui interdit sa capture par les gouvernements de l’économie et de la sécurité, C’est à cette condition que nous donnerons à chacun les capacités critiques face à la gouvernementalité algorithmique.

    #algorithme #programmation #émancipation