• Milan, épicentre de la pandémie de Covid-19. #Minuit c’est l’heure où les invisibles deviennent visibles. Le métro désert, à part quelques dizaines de jeunes et de moins jeunes livreurs qui rentrent chez eux. C’est ça, le confinement à deux vitesses. C’est ça, le #digital_labor.


    https://twitter.com/AntonioCasilli/status/1250133061280333827
    #Milan #travail #métro #coronavirus #covid-19 #livreurs #uber #confinement_à_deux_vitesses #confinés #non-confinés #livraisons #vidéo #Italie #visibilité #in/visibilité #invisibles

    Avec ce commentaire de Alexis Kauffmann :

    Incroyable image ! Les rats dans les caves qui nourrissent les chats qui chantent au balcon.

  • These companies claim to provide “fair-trade” data work. Do they? - MIT Technology Review
    https://www.technologyreview.com/s/614070/cloudfactory-ddd-samasource-imerit-impact-sourcing-companies-for-d

    A lot of human labor goes into building artificial-intelligence systems. Much of it is in cleaning, categorizing, and labeling data before AIs ingest it to look for patterns. The AI Now Institute, an ethics body, refers to this work as the “hidden labor” of the AI pipeline, “providing the invisible human work that often backstops claims of AI ‘magic’ once these systems are deployed in products and services.”

    By contrast, most people doing data annotation don’t work in Manhattan offices but from their homes in places such as India, Kenya, Malaysia, and the Philippines. They log in to online platforms for anywhere from a few minutes to several hours a day, perhaps distinguishing between bunches of green onions and stalks of celery or between cat-eye and aviator-style sunglasses. As detailed in the recent book Ghost Work by Mary Gray and Siddharth Suri, most of them are gig workers with low pay, insecure employment, and no opportunity for career advancement.

    A small group of data annotation firms aims to rewrite that narrative. But these firms aiming to “do well by doing good” in AI data services are finding the path to enterprise enlightenment can be a rocky one.

    “It is really a race to the bottom,” says Daniel Kaelin, director of customer success at Alegion, a data annotation services company in Austin, Texas. “This whole industry is very, very competitive; everybody tries to find that little cheaper labor force somewhere else in the world.”
    What does “impact” really mean?

    Alegion is one of several platforms, including CloudFactory, Digital Divide Data (DDD), iMerit, and Samasource, that say they want to make AI data work dignified. They call themselves “impact” companies and claim to offer ethically sourced data labor, with better working conditions and career prospects than most firms in the industry. It’s like fair-trade coffee beans, but for enormous data sets.

    However, there are no regulations and only weak industry standards for what ethical sourcing means. And the companies’ own definitions of it vary widely.

    Troy Stringfield, who took over as Alegion’s global impact director in 2018, defends the “impact” label—which the seven-year-old company has adopted only in the past year or so—by saying impact means creating work that improves people’s lives. “It’s going in and saying, ‘What is a livable wage? What is getting them better than where they’re at?’” he says.

    But Sara Enright, project director at the Global Impact Sourcing Coalition (GISC), a member-funded industry body, says it’s doubtful that such work should be called impact sourcing: “If it is solely gig work in which an individual is accessing part-time wages through an hour a day here and there, that is not impact employment, because it does not actually lead to career development and ultimately poverty alleviation.”

    Getting into the US market

    In their bid to expand, companies like Alegion and iMerit are also trying to build a pool of data workers in the US, drawing on underprivileged and marginalized populations there. That gives them lucrative access to government, financial, and health care clients that demand stringent security measures, work with regulated medical and financial data, or need the work done in the US for other legal reasons.

    To recruit those US workers, the impact firms can go through companies like Daivergent, which serves as a conduit to organizations such as the Autism Society and Autism Speaks. (That’s where Campbell, whom we met earlier drawing boxes around cars, works.) Alegion also did a trial using workers provided through IAM23, a support group for military veterans.

    Unlike with fair-trade goods, there is little public pressure on the companies to be honest, because they provide their services to businesses, not directly to consumers. “Consumers can value ethical sourcing—for example, at Patagonia and various consumer brands—and you kind of buy into that as a consumer,” says iMerit’s Natarajan. But “it remains to be seen what ethical sourcing means in the b-to-b sector.” As a 2014 issue of Pulse, an outsourcing industry magazine, noted, companies would have to make a choice to use impact-conscious labor providers. Without laws or public pressure it’s not clear what can impel them to make such a choice, and without standards and accountability, it’s not clear how they should evaluate the providers.

    In the end it may be only regulation that changes labor practices. “There is no way to change employment from the inside of markets. Yes, they’re doing everything they can, and that’s like saying I’ve got a bicycle with no pedals, and I’m doing everything I can to ride it as quickly as this thing is built to go,” says Gray, the Ghost Work coauthor. “There is no organizing of the rights of workers and fair employment without involving civil society, and we haven’t done that yet.

    #Digital_labor #Travail #Intelligence_artificielle #Ethique

    • Je trouve admirable que, pendant que le discours des prometteurs et promotrices de l’intelligence artificielle et de l’informatisation à outrance insiste si souvent que cette informatisation, digitalisation, vont permettre de libérer le genre humain des tâches les plus répétitives et les moins satisfaisantes, en fait, en grattant un peu, on découvre que c’est le contraire, ce sont des humains qui nettoient fastidieusement les données pour que l’ordinateur fasse le boulot marrant de déduire de ces données propres des éléments statistiques intéressants.

  • Le web affectif. Une économie numérique des émotions
    https://journals.openedition.org/rfsic/3511

    L’ouvrage programmatique de Camille Alloing et Julien Pierre vise à poser plusieurs jalons théoriques et empiriques pour l’étude du « capitalisme affectif numérique ». L’organisation traditionnelle du travail établissait une frontière stricte entre la sphère professionnelle, caractérisée par la rationalité et le pragmatisme, et la sphère privée au sein de laquelle les émotions demeuraient confinées. Au contraire, les auteurs postulent que l’émotion constitue la pierre angulaire du paradigme actuel. Cette nouvelle logique opère à plusieurs niveaux.

    Au sein des organisations, les travailleurs au contact des clients sont tenus d’entreprendre un « travail émotionnel » conséquent, potentiellement coûteux et peu reconnu. De plus, comme l’illustre la création de postes de Chief Happiness officers, les salariés sont incités à convoquer leurs émotions au travail pour accroître leur performance. La gestion des émotions s’étend également à la sphère numérique, domaine que les auteurs proposent d’investiguer.

    Il convient de ne pas confondre #émotion et #affect. Alors que l’émotion fait référence au ressenti d’une personne, l’affect désigne la circulation d’une émotion. Comprendre ce qui provoque une émotion et déclenche sa contagion à d’autres individus constitue un enjeu majeur pour les géants du web. Ces questionnements, entamés au début des années 80 dans le domaine du marketing, sont réactualisés par les potentialités du numérique.

    L’ouvrage a pour objectif de documenter le « travail affectif », définit par les auteurs comme « l’ensemble des techniques qui visent à manipuler les émotions, le bien-être ou l’attachement ». À partir de leurs premiers terrains, ils offrent un aperçu de ces « techniques » affectives. L’usage d’emojis/émoticônes pour « taguer » des contenus web améliore tant la modération que le référencement. Ces contributions involontaires des internautes représentent la « dimension affective » du #digital_labor.

    De plus, les acteurs du web ont mis au point des dispositifs permettant de collecter à la fois des données émotionnelles issues du digital labor des usagers (clics, like etc.) et des données « métaboliques » par l’entremise des objectés connectés (comme les webcams, par exemple). Ces traces sont analysées afin de dresser un profil émotionnel complet de l’usager. Ce profil sert ensuite de base à l’élaboration de propositions commerciales adaptées et personnalisées.

    Ces dispositifs de traçage, de recueil et d’analyse engendrent plusieurs effets pervers. Tout d’abord, ils suscitent une réflexion éthique sur le respect de la vie privée. Deuxièmement, cette gestion numérique des émotions tend d’ores et déjà à glisser de la sphère commerciale vers des applications de gouvernance. Face au pouvoir grandissant des géants du web, des stratégies de braconnage existent. Les auteurs affirment ainsi la nécessité de la sensibilisation et de l’éducation au numérique.

    Enfin, déléguer le pouvoir de décision aux machines suscite de vives critiques, principalement en raison du fait que les modèles théoriques inscrits dans les spécifications techniques de ces outils ne sont pas exempts de biais. Par exemple, dans le but d’établir des profils d’utilisateurs, les expressions faciales recueillies par des webcams connectées sont comparées aux émotions universelles identifiées dans la littérature scientifique. Néanmoins, ces présupposés théoriques sont-ils réellement fiables ?

    Pour conclure, les travaux de Camille Alloing et Julien Pierre prolongent et enrichissent les réflexions actuelles sur le big data et le digital labor en s’intéressant à la « dimension affective » des données collectée, analysées et commercialisées. Combinant des perspectives critiques et pragmatiques, l’ouvrage ouvre des pistes de recherche prometteuses sur l’affectivité dans la sphère numérique.

    #CM

  • The Shadow Workforce of Facebook’s Content Moderation
    http://nymag.com/intelligencer/2019/02/the-shadow-workforce-of-facebooks-content-moderation.html

    As in Omelas, however, the joyousness of Facebook’s hundreds of thousands of advertisers depends wholly on the misery of a small number of other people: its content moderators. For his article, Newton spoke with several current and former employees of Cognizant, a “professional services vendor” contracted by Facebook to moderate its platform, removing the content that violates Facebook’s terms of service. In practice, this can mean spending your days scrolling through post after post of graphic porn, hate speech, and videos of death and violence. “People develop severe anxiety while still in training,” Newton writes, “and continue to struggle with trauma symptoms long after they leave,” but are given minimal support and job stability — each employee gets nine “wellness time” minutes per day, to be used if they feel traumatized and need to stop moderating. Meanwhile, “the conspiracy videos and memes that they see each day gradually lead them to embrace fringe views.” For their trouble, they are paid $28,800 a year, around 12 percent of the average salaried Facebook employee’s total compensation of $240,000.
    Get unlimited access to Intelligencer and everything else New York.
    Learn More »

    The moderators sign nondisclosure agreements that prevent them from talking about what they’d done for Facebook — or even, apparently, that they’d worked for Facebook at all. This theoretically protects private Facebook user data from leaking out. But it also has the effect of hiding the 1,500 content moderators from the outside world, preventing them from even describing the difficulty of their jobs, let alone agitating for better working conditions. Even full-time Facebook employees are apparently unaware of the extent to which Facebook contracts out its content moderation, and the conditions under which that moderation is taking place, despite its importance. “Why do we contract out work that’s obviously vital to the health of this company and the products we build?” one employee asked on an internal company message board.

    Rather than address its various mounting content issues with dedicated staff hires, the company farmed out moderation work to contractors, needing to maintain a cost structure that relied on low labor costs, and believing that eventually an “engineering solution” could be developed to keep the platform clean and safe. This bargain has worked out well for Facebook, which by 2016 was raking in an incredible $600,000 per full-time employee in net profit. It has worked out rather less well for the rest of us — particularly the contactor moderators with PTSD-like symptoms. (Facebook’s profit margins have been thinning over the last two years, naturally, as it expands its “security” team, which includes moderators.)

    The idea that you can keep your labor costs low by relying on software automation, creating the eye-popping profit margins that venture capitalists approvingly call “software margins,” is a foundational belief of 21st-century Silicon Valley. Albergotti quotes the mantra COO Sheryl Sandberg brought to Facebook from Google: “People don’t scale.” And it’s true that there are some tasks — like selling and placing digital ads — that are more efficiently and profitably done by software programs. But there aren’t that many tasks that programs can do as well as human beings, and not many programs that can be automated without the help and work of humans. Which means that any company bragging about automated solutions is likely hiding a much larger shadow workforce supporting those solutions, like the one Facebook employs through Cognizant.

    Such arrangements are endlessly common in Silicon Valley. Magically convenient services and devices are often subsidized not just by money-burning investors but also by exploitative labor arrangements. Amazon purchases arrive quickly in part because the company’s warehouse workers are relentlessly tracked and don’t take bathroom breaks; Uber rides are cheap in part because the median hourly wage of an Uber driver is $10. Obviously, being a paid Uber driver is no closer to being a chained-up child than riding in an Uber is to being in paradise, but you can begin to understand the bargain being struck by the citizens of Omelas in Le Guin’s story.

    The truth is that “software margins” (or what investors hope will eventually be software margins) are rarely achieved solely through automation and innovation. Most Silicon Valley titans, especially the software giants that have arisen over the last two decades, have become adept at externalizing their costs. Users contribute content for free. Contractors work for cheap. The burden of moderating content has for the last ten years been borne by someone — in some cases under-compensated contractors, in some cases users moderating content themselves for free, in some cases the victims of abuse or harassment, and, in some cases, the public sphere as as whole. Just rarely Facebook. If Facebook’s shadow-workforce practices — which have been widely reported by journalists and studied by academics well before the Verge’s story this week, and which are no different than content-moderation practices on many social networks — are being singled out now, it may be because the platform’s conveniences no longer seem worth the full social cost.

    #Digital_Labor #Facebook #Modération #Externalisation

  • Facebook moderators complain over ’Big Brother’ rules at Accenture facility in Austin - Business Insider
    https://www.businessinsider.com/facebook-moderators-complain-big-brother-rules-accenture-austin-201

    Some of Facebook’s content moderators are in revolt over new ’Big Brother’-style rules.
    In an open letter to Facebook employees, moderators from Austin, Texas complained about draconian working conditions that are eroding trust in the company.
    The letter highlights the gulf in working conditions between Facebook’s well-compensated, full-time employees and its legions of contractor content moderators.

  • L’ONU s’inquiète des conditions de travail des ouvriers du clic
    https://www.blogdumoderateur.com/onu-conditions-travail-ouvriers-clic
    http://www.ilo.org/wcmsp5/groups/public/---dgreports/---dcomm/---publ/documents/publication/wcms_645337.pdf

    L’étude publiée par L’Organisation internationale du travail des Nations Unies est la première sur ce sujet qui est pourtant un phénomène de grande ampleur. Les plateformes Amazon Mechanical Turk, Crowdflower, Clicworker ou Prolific rassemblent entre 45 et 90 millions de travailleurs. Ces travailleurs invisibles ont des conditions de travail qui sont particulièrement inquiétantes d’après l’étude. Elle porte sur 3500 travailleurs, répartis sur 75 pays.

    #digital_labor

  • Dans les coulisses du plus grand dépotoir au monde de déchets numériques | Slate.fr via @rezo
    https://www.slate.fr/story/165767/travailleurs-horreur-quotidien-philipines-moderateurs-contenu-choquant-images-

    C’est à ces petites mains du web que rend hommage The Cleaners, le premier documentaire de Moritz Riesewieck et Hans Block. Le film nous plonge dans le quotidien des modératrices et modérateurs philippins dont certains témoignages ont de quoi glacer le sang : il y a, par exemple, cette employée devenue experte dans « l’art » de la décapitation, qui, à force de visionnages, sait reconnaître dès le premier coup d’œil si une tête a été tranchée à coup de machette ou au couteau de cuisine… Cette autre se décrit comme une « sniper » et compare le visionnage de milliers de vidéos à « un virus envahissant son cerveau ».

    À voir à la fin de l’été sur Arte donc :
    https://www.imdb.com/title/tt7689936/mediaviewer/rm68899584

    La suite : « Pendant deux ans, il a nettoyé Facebook »
    https://www.slate.fr/story/165866/decapitations-censure-confidentialite-moderateur-facebook

    Autopromo, ft. Sarah T. Roberts & @antoniocasilli il y a qq mois : « Les tâcherons du clic » (@mdiplo, décembre 2017)
    https://www.monde-diplomatique.fr/mav/156/HENNETON/58116

    Voir aussi : https://seenthis.net/messages/599738

    #modération #médias_sociaux #digital_labor #inégalités #capitalisme_numérique

  • Google a « fait travailler » gratuitement les visiteurs d’un musée, et c’est ce que l’on appelle du « digital labor »

    http://scd.mashable.france24.com/sites/default/files/styles/mashable_983x554/public/thumbnails/image/google-digital-labor.jpg?itok=-bP7sZHq

    Début juillet, à Paris, le Grand Palais accueillait un événement monté en partenariat avec le ministère de la Culture et Google. À cette occasion, les visiteurs ont "mis la main à la pâte" gratuitement pour le géant de la tech.

    La manifestation gratuite s’intitulait Art#Connexion. Du 7 au 9 juillet, elle réunissait 15 expériences autour de l’intelligence artificielle (IA) et de l’art. Parmi elles, le dispositif #DrawToArt invitant les visiteurs à gribouiller un dessin afin que l’IA de Google identifie l’œuvre lui ressemblant le plus.

    Comment nous sommes-nous retrouvés à travailler gratuitement pour les géants de la tech, sans vraiment nous en rendre compte ? Alors que le fait de naviguer sur Internet nous semble la plupart du temps guidé par le plaisir et la découverte, il est important de rappeler que cette activité n’est en aucun cas rendue possible grâce à la générosité et l’ergonomie des plateformes en ligne. Au contraire, c’est bien grâce aux internautes et à leur utilisation d’Internet que les acteurs du numérique sont capables d’optimiser leurs services et de générer du profit.

    Cette forme d’exploitation peut sembler difficile à caractériser à partir du moment où elle ne ressemble pas à du travail conventionnel (comme celui qui peut vous mobiliser plusieurs heures par jour, concentré à réaliser des tâches précises pour lesquelles un employeur vous rémunère). Poster une photo sur Facebook, partager une pensée sur Twitter, jouer avec l’Autodraw de Google, cliquer sur un résultat de moteur de recherche ou même discuter sur Skype avec un cousin qui habite à l’autre bout du monde... Ces différentes actions sont plutôt associées à une libre gestion de son temps, et non à une mission qu’on nous aurait assignée.

    Pourtant, toutes produisent bien de la valeur à partir du moment où elles génèrent des métadonnées, et donc des métriques sur le comportement en ligne, exploitables par les « capitalistes du numérique » comme les appelle Antonio Casilli. Souvenez-vous de Captcha, ces petits tests d’identification que l’on retrouvait sur bon nombre de sites lors de l’inscription. En participant à ce petit exercice permettant aux sites de repérer les bots, les internautes travaillaient pour Google, qui cherchait dans le même temps à numériser sans frais des livres. C’est finalement exactement ce qui s’est à nouveau produit au Grand Palais, lorsque la firme de Mountain View a mobilisé des visiteurs en les laissant dessiner pour alimenter le machine learning et entraîner son intelligence artificielle.

    Avoir conscience de l’existence d’un digital labor est essentiel pour comprendre l’économie numérique de notre époque. Pour Antonio Casilli, c’est aussi un moyen de discuter ensemble de l’idée d’un revenu inconditionnel universel des internautes, qui pourrait éventuellement passer par le revenu de base inconditionnel tel qu’envisagé ces dernières années. Celui-ci serait une façon de récompenser les citoyens pour la nature collective de ce travail invisible, disséminé en un nombre incalculables de petits gestes qui font leur présence numérique quotidienne.

    #digital_labor #travail_immatériel #subjectivités_productives #intelligence_artificielle #GAFA #Google

  • Hackathons, une culture d’exploitation
    http://www.internetactu.net/a-lire-ailleurs/hackathons-une-culture-dexploitation

    Les hackathons sont devenus un des rituels compétitifs préférés de l’industrie. Ces concours où de petites équipes de codeurs construisent des produits technologiques lors de sessions de code marathon, relèvent de la culture de la Silicon Valley, rappelle Erin Griffith pour Wired. Une culture qui s’est largement diffusée puisque toutes (...)

    #A_lire_ailleurs #Usages #Coopération #digital_labor #innovation

  • Vers une portabilité des données de réputation des travailleurs des #plateformes ?
    http://www.internetactu.net/a-lire-ailleurs/vers-une-portabilite-des-donnees-de-reputation-des-travailleurs-des-pl

    Depuis plusieurs mois, certains syndicats européens ont décidé de se pencher sur la question des droits de travailleurs indépendants, notamment ceux de l’économie des plateformes, grandes pourvoyeuses de petits boulots et de #travail à la tâche. Des résolutions émergent localement dans différents pays d’Europe, à l’initiative de syndicats (par exemple, (...)

    #A_lire_ailleurs #Débats #confiance #digital_labor #données_personnelles #politiques_publiques

    • Avec (au moins) une surprise !…

      Valerio De Stefano (@valeriodeste), professeur en droit du travail à l’université KU Leuven, rappelait que contrairement à ce que l’on croit, la vie de nombreux travailleurs dépendent de cette économie de petits boulots, qu’elle ne fournit pas seulement un revenu complémentaire, mais un revenu de subsistance et qu’elle doit donc être régulée. Il suggérait notamment que, pour donner plus de pouvoir aux travailleurs des plateformes sur les termes de leur emploi, il faudrait leur donner le contrôle de leur notation, notation qu’ils ont souvent mis des années à construire. « La notation peut bloquer un travailleur sur une plateforme. Elle doit être portable. C’est la plus grande source de capital pour les travailleurs dans l’économie des plateformes. Si les travailleurs veulent aller de plateforme en plateforme, ils doivent être en mesure d’utiliser ailleurs les notes qu’ils ont obtenues. »

      … et des positions variées suivant les professions.

  • Amazon : l’idée d’un bracelet électronique pour ses salariés provoque un tollé
    https://www.rtbf.be/info/medias/detail_amazon-l-idee-d-un-bracelet-electronique-pour-ses-salaries-provoque-un-t

    Amazon a breveté un système électronique lui permettant, via un bracelet, de détecter les mouvements des mains de ses salariés dans ses entrepôts pour suivre leur travail, une idée qui suscite un tollé en Italie.

    Ce système de « traçage (...) des mouvements des mains d’un employé (...) pourrait être utilisé pour surveiller la réalisation de tâches assignées » comme l’inventaire et la préparation des commandes, expliquent les documents officiels relatifs à ce brevet, disponibles sur internet et révélés par le site spécialisé Geekwire.

    L’appareil est « prévu pour être porté (...) près de la main et pour émettre des vibrations » pour guider le salarié, poursuit le document.

    « La spéculation à propos de ce brevet est erronée », a réagi auprès de l’AFP une porte-parole d’Amazon. « Chaque jour, dans n’importe quelle entreprise dans le monde, les employés se servent de scanners à main pour faire l’inventaire et préparer les commandes », a-t-elle ajouté.

    « Placer ces équipements plutôt sur le poignet des employés leur permettrait d’avoir les mains libres et ne pas avoir les yeux rivés sur des écrans », fait valoir Amazon, estimant que si cette idée devait être un jour mise en oeuvre, elle améliorerait l’organisation pour les employés travaillant dans la préparation des commandes.

    Le concept a déjà suscité des réactions virulentes en Italie, notamment de la part du chef du gouvernement italien, Paolo Gentiloni, qui a estimé que « le défi, c’est un travail de qualité et non pas le travail avec un bracelet ».
    Des conditions de travail déjà décriées

    « Homme ou esclave ? Je veux restituer la dignité du travail, certaines multinationales exploitent, pressent et ensuite mettent au rebut. Ca suffit ! », a réagi de son côté, le leader de la Ligue du Nord, Matteo Salvini.

    Le géant du commerce en ligne a depuis longtemps la réputation d’entretenir des conditions de travail difficiles dans ses entrepôts et centres de distribution pour augmenter la productivité des employés et garantir des livraisons rapides aux clients.

    En 2015, le New York Times décrivait une culture d’entreprise « néfaste » chez Amazon, destinée à augmenter la productivité des employés, une description rejetée à l’époque par le patron du groupe Jeff Bezos.

    Amazon a publié jeudi ses résultats trimestriels en forte hausse, affichant un bénéfice net de 1,856 milliard de dollars et un chiffre d’affaires de 60,45 milliards.

    #Amazon #Surveillance #Digital_labor #Mais_j_en_peux_plus_de_ce_monde_de_merde

  • Derrière l’application de Google qui trouve votre sosie artistique, du digital labor (gratuit) pour entraîner son IA de reconnaissance faciale http://www.rtl.fr/actu/futur/l-application-de-google-qui-trouve-votre-sosie-artistique-souleve-des-inquietude
    http://media.rtl.fr/online/image/2018/0117/7791879937_l-application-google-arts-culture-est-en-tete-des-telechargemen

    (Le seul article un peu critique que j’ai trouvé provient donc de rtl.fr)

    La dernière version de l’application Google Arts & Culture est l’une des plus populaires du moment aux États-Unis. La raison ? L’ajout d’une fonctionnalité permettant aux utilisateurs de découvrir quel est leur sosie artistique. Intitulée "Is your portrait in a museum ?" ("Votre portrait se trouve-t-il dans un musée ?"), elle propose de comparer un selfie à des portraits célèbres réalisés par des peintres de renom.

    L’expérience repose sur la technologie de reconnaissance faciale Face Net. Développée par #Google, elle scanne la photo envoyée par l’utilisateur pour créer une empreinte numérique de son #visage et la comparer aux 70.000 œuvres de sa base de données. Une fois les correspondances trouvées, les résultats les plus pertinents sont affichés avec leur pourcentage de ressemblance.

    Cette fonction a largement emballé les internautes américains. Depuis sa mise à jour mi-décembre, #Google_Arts_&_Culture truste les premières places des applications les plus téléchargées aux États-Unis sur l’App Store d’Apple et le Play Store de Google. Disponible uniquement outre-Atlantique, elle fait l’objet d’une expérimentation par Google.

    (…) Devant la popularité de l’application, certaines voix se sont élevées aux États-Unis pour mettre en garde le public contre le véritable objectif poursuivi par Google. "Le stagiaire de Google qui a inventé cette application pour tromper les utilisateurs en les incitant à envoyer des images pour remplir sa base de données de reconnaissance faciale a certainement eu une promotion", a observé sur Twitter l’analyste politique, Yousef Munayyer. "Personne ne s’inquiète d’abandonner les données de son visage à Google ou vous estimez tous que c’est déjà le cas ?", s’est aussi émue l’actrice et activiste américaine, Alyssa Milano.

    Google propose régulièrement des outils ludiques et gratuits aux internautes pour faire la démonstration de ses progrès dans l’intelligence artificielle. Ces programmes permettent aussi à l’entreprise américaine de mettre ses réseaux de neurones artificiels à l’épreuve de neurones humains afin de les perfectionner à peu de frais. Les programmes Quick Draw ! et AutoDraw visaient notamment à améliorer la #reconnaissance_visuelle de ses algorithmes. La société utilise aussi la reconnaissance des caractères des #Captcha pour aider ses robots à déchiffrer les pages de livres mal conservés sur Google Book et les indexer par la suite à son moteur de recherche.

    (…)

    Interrogé par plusieurs médias américains sur la portée réelle de son application « Arts & Culture », Google se veut rassurant. Selon la firme américaine, les photos téléchargées par les utilisateurs ne sont pas utilisées à d’autres fins et sont effacées une fois trouvées les correspondances avec des œuvres d’art. La dernière expérience du géant américain illustre à nouveau les craintes suscitées par les progrès rapides de l’#intelligence_artificielle et plus particulièrement de la #reconnaissance_faciale, dont les applications ont pris une place grandissante dans nos vies ces derniers mois.

    Apple a fait entrer cette technologie dans la vie de millions d’utilisateurs cet automne en intégrant le dispositif #Face_ID à l’iPhone X pour déverrouiller l’appareil d’un simple regard. Dans le sillage de la pomme, un grand nombre de constructeurs travaille à généraliser ce système sur des smartphones à moindre prix. Facebook a recours à la reconnaissance faciale depuis décembre pour traquer les usurpations d’identité sur sa plateforme. Google l’utilise déjà dans son service Photos, utilisé par 500 millions d’utilisateurs, capable depuis peu de reconnaître les animaux de compagnies.

    Les défenseurs des libertés craignent que la généralisation de la reconnaissance faciale dans des outils utilisés à si grande échelle ne glisse vers une utilisation plus large par les publicitaires ou les autorités. En Chine, cette technologie est déjà utilisée pour surveiller les citoyens dans les endroits publics. 170 millions de caméras de surveillance sont installées à travers le pays. Un nombre qui doit atteindre 400 millions à horizon 2020. La plupart sont dotées de programmes d’intelligence artificielle pour analyser les données en temps réel et inciter les individus à ne pas déroger à la norme édictée par le pouvoir.

    #digital_labor #IA

    Et puis cf. le thread d’@antoniocasilli sur son fil Twitter :

    Avez-vous déjà vu, partagé, commenté les « art selfies » de l’appli @googlearts ? Savez-vous qu’ils utilisent votre visage pour constituer un fichier biométrique ? J’en veux pour preuve qu’ils ne sont pas disponibles en Illinois—état où les lois sur la biométrie sont plus strictes.

    https://twitter.com/AntonioCasilli/status/953662993480474624

    • Version optimiste, ft. John Berger :

      In one way, the art selfie app might be seen as a fulfillment of Berger’s effort to demystify the art of the past. As an alternative to museums and other institutions that reinforce old hierarchies, Berger offered the pinboard hanging on the wall of an office or living room, where people stick images that appeal to them: paintings, postcards, newspaper clippings, and other visual detritus. “On each board all the images belong to the same language and all are more or less equal within it, because they have been chosen in a highly personal way to match and express the experience of the room’s inhabitant,” Berger writes. “Logically, these boards should replace museums.” (As the critic Ben Davis has noted, today’s equivalent of the pinboard collage might be Tumblr or Instagram.)

      Yet in Berger’s story this flattening represents the people prying away power from “a cultural hierarchy of relic specialists.” Google Arts & Culture is overseen by a new cadre of specialists: the programmers and technology executives responsible for the coded gaze. Today the Google Cultural Institute, which released the Arts & Culture app, boasts more than forty-five thousand art works scanned in partnership with over sixty museums. What does it mean that our cultural history, like everything else, is increasingly under the watchful eye of a giant corporation whose business model rests on data mining? One dystopian possibility offered by critics in the wake of the Google selfie app was that Google was using all of the millions of unflattering photos to train its algorithms. Google has denied this. But the training goes both ways. As Google scans and processes more of the world’s cultural artifacts, it will be easier than ever to find ourselves in history, so long as we offer ourselves up to the computer’s gaze.

      https://www.newyorker.com/tech/elements/the-google-arts-and-culture-app-and-the-rise-of-the-coded-gaze-doppelgang

      Version réaliste, par Evgeny Morozov :

      Google vient de lancer une plateforme d’IA destinée aux entreprises qui veulent mettre en œuvre une infrastructure d’apprentissage automatique (machine learning) de afin de construire leurs propres modèles (contre rétribution, bien entendu). Il sait pertinemment qu’il est toujours rentable de s’attirer la sympathie des utilisateurs, par exemple en leur donnant des outils d’IA pour trouver des œuvres d’art qui ressemblent à leur visage (1). Ces instruments gagnent ainsi en précision et peuvent ensuite être vendus aux entreprises. Mais pour combien de temps encore Google aura-t-il besoin de cobayes ?

      https://blog.mondediplo.net/2018-01-27-Mark-Zuckerberg-vous-veut-du-bien

  • The Ghost of the Mechanical Turk | Jacobin
    https://www.jacobinmag.com/2017/12/middle-east-digital-labor-microwork-gaza-refugees-amazon

    It is significant that the World Bank thinks that Gaza and the West Bank are “particularly relevant” destinations for #microwork. In the global race to the bottom, the “bottom” is an open-air prison and an area under military occupation. According to their 2014 report, these sites pose “limited risks” to employers in terms of having to pay any full-time employment benefits or a minimum wage. Protections may be “risky” for employers. But making someone dependent for their survival on an algorithm with zero accountability is risky. Not paying them an adequate hourly rate to feed themselves or their family is risky. Irregular or excessive working hours resulting in repetitive strain, eye problems, or insomnia are risky.

    One of the big selling points of digital workplaces is also that they are blind to race and gender. But the inherent inequalities of these systems don’t go away just because participants remain anonymous. After Chinese labor camps were exposed for forcing prisoners to play profitable online games, gaming chatrooms began to use “Chinese gold-farmer” as a pejorative for worker-players trying to sell virtual goods. Syrian players in Shatila who viewed their gaming activities as leisure rather than work complained that their broken English or Arab names meant they were viewed by other players as unwanted guest workers or “gold-farmers.” Microworkers have no protection from similar dynamics on digital labor platforms.

    #digital_labor #Proche-Orient via @antoniocasilli

  • Dans les coulisses de la #modération du « 18/25 » de jeuxvideo.com
    http://www.lemonde.fr/pixels/article/2017/11/16/jeuxvideo-com-les-moderateurs-racontent-les-coulisses-du-forum-18-25_5215777

    (…) Tous racontent l’histoire de mesures prises dans la précipitation. Les modérateurs bénévoles du « 18-25 » auraient été prévenus le jour même, par un simple message privé. « Les explications sont restées floues », raconte Mickaël, 23 ans, le vétéran de l’équipe. « Chez Webedia, ils ont été des grosses billes sur le coup, y va plus franchement Nicolas (prénom modifié), 22 ans. On n’a eu des informations que jeudi soir, après une journée entière de censure durant laquelle les utilisateurs étaient perdus – et nous aussi. »

    Dans la nuit, une équipe de modérateurs salariés (aussi appelés « administrateurs ») est entrée en action. L’un des modérateurs bénévoles parle de dix postes en CDD. Contactés pour certains par Le Monde, ces « admins » ont invariablement expliqué ne pas avoir le droit de parler à la presse.

    Leur tâche, dans un premier temps : nettoyer les forums de fond en comble, sans faire dans le détail. Les insultes sexistes ou racistes sont systématiquement supprimées, mais aussi des termes jugés polémiques, comme « féministe » ou « Shoah », indépendamment du contexte dans lequel ils sont utilisés.

    « On a perdu pas mal de sujets parlant d’Hitler par exemple, et ce sur tous les forums, précise Nicolas. Ce qui a un peu énervé le modérateur du forum Histoire, par exemple. Ça s’est assoupli depuis, heureusement : les nouveaux salariés ont reçu de nouveaux ordres. »

    Mais la brutalité paye : dans une certaine mesure, l’ordre semble être aujourd’hui à peu près revenu sur le forum « 18-25 » de Jeuxvideo.com. Si l’on y trouve encore des messages misogynes et des blagues plus que douteuses, les appels au harcèlement semblent, pour le moment, contenus.

    *Pour combien de temps ? « De ce que j’ai entendu, les CDD courent jusqu’au 31 décembre », croit savoir Nicolas. Qui ne sait pas s’ils seront prolongés à cette issue.¨ « L’un des administrateurs est pour, semble-t-il presque regretter. Mais si les contrats sont prolongés, les bénévoles comme moi n’auront plus trop de raison d’être. »

    Les bénévoles n’ont plus à s’occuper des sujets agressifs qui pullulaient ces derniers jours et ont même été invités à repenser leur rapport au forum. « Animation, sujets à débat, relais entre les utilisateurs et les administrateurs… », énumère Thomas, modérateur expatrié à Londres. L’avenir qui se dessine pour eux semble d’abord être celui de gestionnaires de communautés.

    Du calme revenu, Thomas se félicite. Lui qui « soutient la cause féministe dans tous ses aspects » dit s’être porté candidat à la modération pour en finir avec ces débordements. Il regrette que les efforts de son équipe, lors des derniers mois, aient été si régulièrement niés.

    « Nous réclamions de meilleurs outils depuis longtemps », poursuit-il. Pour les modérateurs bénévoles, ce n’est pas leur bonne volonté qu’il faut mettre en cause, mais l’évolution trop rapide des forums.

    #digital_labor

  • Sur la propriété des données personnelles (et leur valeur marchande)

    https://linc.cnil.fr/vivrons-nous-demain-au-moyen-age

    Alors, nouveau système féodal ? En tout cas, il est intéressant de passer ces analyses au prisme de l’esprit du cadre européen de protection des données : le droit français (en particulier par la modification de l’article 1er de la Loi dite "Informatique et Libertés" suite à la Loi pour une République Numérique, ) et le droit européen (Règlement général à la protection des données) évitent soigneusement cette notion de propriété des #données_personnelles, qui peut paraitre séduisante de prime abord, mais est en réalité probablement une impasse : si l’expression « mes données » est une belle manière d’affirmer la souveraineté de l’individu sur ce qui le concerne au premier chef, tout ce qui vient en droit (et dans une moindre mesure en économie) avec la notion de propriété est extrêmement difficile à mettre en musique quand on parle de données, a fortiori de données personnelles. Par exemple les données génétiques d’un individu peuvent être considérées comme des données « pluripersonnelles » comme le rappelle la nouvelle publication de la CNIL sur le sujet (Le point CNIL : Les données génétiques, à la Documentation française, p. 41) : elles sont héritées et transmissibles, donc partagées avec les ascendants et descendants et peuvent porter atteintes à leurs droits. Comment dès lors "jouir et disposer de la manière la plus absolue" d’elles seul, pour reprendre la définition du droit de propriété du Code civil (article 544) ? 

    Le droit européen et français met plutôt en avant le pouvoir de contrôle des individus et leurs droits fondamentaux, par exemple par l’entremise du principe d’"auto-détermination informationnelle" et par l’existence, réaffirmée par le RGPD, des droits des individus sur les données les concernant (accès, suppression, portabilité, …). Peut-être disposons-nous déjà de la base juridique nécessaires aux Lumières du numérique ?

    Ces données ne seraient donc pas si « personnelles » ? Quid, du coup, de leur valeur ? Peut-on se contenter de dire qu’elle est extorquée par les plate-formes numériques ? Cf. Dominique Cardon dans son bouquin co-écrit avec @antoniocasilli, Qu’est-ce que le #digital_labor ? :

    Les plateformes d’intermédiation ne produisent pas un service substantiel (comme de fabriquer les contenus de programmes), mais procédural : agréger de la méta-information ou opérer de la mise en relation. J’ai parfois l’impression que dans le reproche fait à Google ou Facebook de « ne rien faire » pendant que les internautes « font le travail » peuvent s’entendre encore les présupposés de l’économie industrielle opposant le « vrai travail » au « faux service ». À ne pas prendre au sérieux l’importance cruciale prise aujourd’hui par les procédures d’intermédiation (hébergement, agrégation, classements, algorithmes, etc.), on risque toujours de penser qu’il suffirait d’agir du côté des plateformes, ou d’en créer de nouvelles d’un claquement de doigts, pour se libérer de la captation indue de plus-value par les GAFA (Google-Apple-Facebook-Amazon).

    Sans effet réseau, sans artefact de mise en relation, sans algorithme de recommandation, sans métrique de visibilité, nos productions numériques ne seraient plus du travail extorqué, mais elles auraient aussi perdu leur visibilité, leur réputation, les gratifications de l’échange et les honneurs du commentaire, bref, elles seraient sans aucune valeur, ni monétaire ni symbolique. Ce raisonnement d’économie « industrielle » fait comme s’il existait une valeur « unitaire » des productions individuelles, ou des données, des internautes, alors que, à l’unité, ces productions, ou ces données, sont sans valeur aucune. C’est leur transformation par un mécanisme d’agrégation, de calcul, de comparaison, de filtre, de classement ou de recommandation qui leur confère un sens (pour les internautes) et une valeur (pour les plateformes). Le service rendu par la plateforme, qui consiste à agréger les interactions et à automatiser la révélation d’une « intelligence collective » des productions unitaires grâce à des algorithmes, est négligé ou minoré dans ces travaux, alors que c’est lui qui rend valorisable le travail gratuit des internautes.

    • Evgeny Morozov et le « domaine public » des données personnelles, par @calimaq
      https://scinfolex.com/2017/10/29/evgeny-morozov-et-le-domaine-public-des-donnees-personnelles

      Au début du mois, l’essayiste biélorusse-américain Evgeny Morozov a donné une interview pour l’émission Soft Power, dans laquelle il résume de manière intéressante les positions assez iconoclastes qu’il défend à propos des données personnelles. Là où les militants numériques mettent l’accent sur la défense de la vie privée, Evgeny Morozov explique que l’enjeu principal est d’ordre économique et que le bras de fer avec les géants du numérique (GAFAM et autres) passe par le fait de considérer les données personnelles comme un « bien public » et de les faire relever d’un « domaine public ». C’est une idée qu’il avait déjà avancée dans un article remarqué paru dans le Guardian en décembre 2016, traduit en français par le Monde Diplomatique sous le titre « Pour un populisme numérique (de gauche) ». (https://blog.mondediplo.net/2016-12-15-Pour-un-populisme-numerique-de-gauche)

      (…) l y a beaucoup de choses à dire sur ces différentes propositions, mais je voudrais commencer par souligner l’impression « épidermique » que doit ressentir toute personne qui entend pour la première fois l’expression « domaine public des données personnelles ». En droit de la propriété intellectuelle, le domaine public constitue ce statut auquel les œuvres accèdent à l’issue de la période d’exclusivité, pour devenir librement réutilisables (moyennant le respect du droit moral), y compris à des fins commerciales. Dès lors, dire que l’on veut faire entrer les données personnelles dans un « domaine public » est de nature à susciter un certain malaise, car on voit mal comment les données personnelles, qui touchent à la vie privée des individus et à leur intimité, pourraient relever d’un tel droit d’usage généralisé. Mais ce n’est pas vraiment à cette « métaphore » du domaine public de la propriété intellectuelle qu’Evgeny Morozov rattache ses propositions. Ce qu’il décrit ressemble davantage au régime dit de la domanialité publique, qui régit les biens possédés par les personnes publiques. C’est le système qui s’applique notamment à l’occupation des trottoirs et des places publiques par des commerces (occupation temporaire du domaine public), moyennant des conditions à respecter et le versement d’une redevance.

  • Publication de notre livre : « Le Web Affectif : une économie numérique des émotions » | CaddE-Réputation
    https://cadderep.hypotheses.org/293

    Nous nous sommes alors interrogés sur les nombreux discours mettant en avant la performance de l’analyse et de l’activation des émotions via des dispositifs numériques pour : développer l’expérience utilisateur, affiner le ciblage des publics, personnaliser les interfaces et bien entendu attirer et orienter l’attention. Le point central de nos réflexions est suite à cela le suivant : les « émotions » ne peuvent être quantifiées ou activées, mais pour autant nous glissons d’une économie de l’attention vers une économie de l’impulsion. Autrement dit, le but des plateformes et de leurs annonceurs n’est plus (seulement) de nous faire lire/voir, mais de nous faire (ré)agir/ressentir.

    Par la suite, nos recherches nous ont amené à constater, via notamment le test de différentes applications, que ce n’était pas réellement des émotions qui étaient ainsi mesurées. Mais alors, pourquoi jouer sur ces leviers ? Pour produire un effet, une impulsion. La notion d’affect nous permet ainsi, de manière conceptuelle, d’agencer les différents discours, signes (likes, emojis, etc.), technologies autours d’un possible objectif : faire circuler en ligne ce qui nous affects afin de nous mettre en mouvement, de produire des effets sur nos représentations, notre intime, nos gestes voire nos corps eux-mêmes.

    Tiens, un livre que j’achète illico... dans une excellente collection de l’INA.

    #Emotions #Economie_attention #Digital_labor #Emojis

  • Digital Labor Studies Go Global: Toward a Digital Decolonial Turn | Casilli | International Journal of Communication
    http://ijoc.org/index.php/ijoc/article/view/6349/2149

    This article elucidates the global dimensions of #digital_labor. The field of study touching on platform-based activities has scaled up to reflect the increasing reliance of digital economies on supply chains outsourcing tasks to developing and emerging countries. To what extent can an economy predicated on data and value transfer from the Global South to the North be construed as “neocolonial”? Theoretical parallels with slavery, imperialism, and colonization fail to assess the historical uniqueness of new global inequalities. This article claims that the germane notion of “coloniality” (by relating to existing works at the intersection of race, gender, postcolonial, and subaltern studies) better addresses the dynamics of social exclusion and exploitation at play in Western and non-Western countries. I conclude by arguing for a “digital decolonial turn” pursuing the chief goal of digital labor studies: making invisible work visible.

    #mondialisation #décolonisation #inégalités (Nord/Sud) par @antoniocasilli, extrêmement intéressant en plus d’être un état de l’art des études sur le digital labor (ping @pguilli)

    • Va à l’encontre de ce qui est affirmé ici :

      Microtravailleurs de tous les pays, unissez-vous ! | Usbek & Rica https://usbeketrica.com/article/microtravailleurs-de-tous-les-pays-unissez-vous

      (…) Mais il présente aussi une forme de rupture avec la division internationale du travail déjà présente entre Nord et Sud économiques. Là où jadis le Nord conceptualisait et commandait des produits à un Sud qui exécutait, le microtravail renverse les hiérarchies existantes. Sur les plates-formes se côtoient freelancers indiens, serbes ou canadiens qui travaillent pour des entreprises de services pakistanaises, philippines ou américaines.

      Le microtravail s’inscrit également dans une évolution classique des processus de délocalisation, à un détail près : « Le freelancing numérique place désormais le poids de l’investissement du capital fixe (téléphones, ordinateurs, etc.) sur les travailleurs », souligne Mark Graham, chercheur au Oxford Internet Institute. La plupart des risques sont ainsi pris par le travailleur et non par l’entreprise. Si votre ordinateur est en panne, votre travail sera donné à un autre. Microtravail rimerait-il donc avec loi du plus fort ? À certains égards, oui, et la responsabilité en incombe, au moins en partie, aux plates-formes.

      #travail #micro-travail

  • « Le travail moderne, c’est un retour au tâcheronnage du XIXe siècle »

    Rencontre avec un collectif de livreurs à vélo en lutte

    Par Jef Klak

    Avec le concours de Jean-Baptiste Bernard

    http://jefklak.org/?p=4412

    Jérôme : L’outil numérique nous a été imposé comme outil de travail, et nous essayons de le retourner en arme. Comme à Marseille en mars dernier, face à Deliveroo : une quinzaine de livreurs ont décidé de réagir à une baisse marquée de la tarification de la livraison. Ils ont bloqué quatre restos marseillais, empêchant les autres livreurs de prendre livraison des commandes. Deliveroo a dû gérer le mécontentement des clients, puis les rembourser. Elle a aussi dû rembourser les restaurateurs, qui avaient préparé les repas. Un beau bordel !

    Quatre restos bloqués, ça n’a l’air de rien. Mais Marseille est une ville où le marché de la livraison est encore jeune : il n’y a que quarante restaurants partenaires. En bloquer 10 %, c’est déjà beaucoup. Surtout que le mouvement a pris : les livreurs débarquant devant les piquets se mettaient en grève à leur tour. Ça n’a évidemment pas plu à la plateforme, qui a « débranché » les contestataires dès le premier soir. Sans avoir les moyens de ses ambitions : les livreurs désactivés faisaient partie de ceux qui travaillaient le plus, si bien qu’elle a annulé leur déconnexion dès le lendemain. Le mouvement a continué, et Deliveroo a finalement craqué.

    Ce type de protestation se généralise, avec des grèves en Angleterre, des manifs en Allemagne, des blocages en Italie… À chaque fois, une soirée suffit à mettre une pagaille monstre. C’est révélateur de la fragilité de cette économie : quinze livreurs bloquent quatre restos, et boum ! l’appli est dans les choux.

  • The secret lives of Google raters | Ars Technica
    https://arstechnica.com/features/2017/04/the-secret-lives-of-google-raters

    Who are these raters? They’re carefully trained and tested staff who can spend 40 hours per week logged into a system called Raterhub, which is owned and operated by Google. Every day, the raters complete dozens of short but exacting tasks that produce invaluable data about the usefulness of Google’s ever-changing algorithms. They contribute significantly to several Google and Android projects, from search and voice recognition to photos and personalization features.

    Few people realize how much these raters contribute to the smooth functioning act we call “Googling.” Even #Google engineers who work with rater data don’t know who these people are. But some raters would now like that to change. That’s because, earlier this month, thousands of them received an e-mail that said their hours would be cut in half, partly due to changes in Google’s staffing policies.

    Though Google boasts about its army of raters, the raters are not Google employees. Instead, they are employed by firms who have contracted them to Google, full time, for years on end. These raters believe that Google has reaped significant benefits from their labor without ensuring their jobs are secure and stable. That’s why 10 raters came to Ars Technica to tell the story of what their lives are really like.

    Du #digital_labor derrière les requêtes Google (et de la politique salariale de cette dernière)

    • The hidden human labour behind search engine algorithms
      http://blogs.lse.ac.uk/businessreview/2017/04/22/the-hidden-human-labour-behind-search-engine-algorithms

      The algorithmic production process requires work from highly trained professionals, such as top-level computer scientists and software engineers. Their work also becomes entangled with the input of low-skilled workers necessary for the customisation, testing, adaptation and sustainability of search in local markets worldwide.

      At least three types of search labour can be identified in Google’s global production process. First, the paid work of in-company engineers. This is the most celebrated aspect of algorithmic production and a major part of the story of Google’s technical superiority. Second is the non-paid labour of internet users, which contributes to value generation of the company. Simply put, the more people use the search engine, the more data the company collects, analyses, packages, and ultimately sells to advertisers. Third is the least transparent and discussed labour performed by “search quality raters” and “precision evaluators” hired via third party companies specialised in crowdsourcing global workforces. Google performs so-called precision evaluations and quality assessments of algorithmic changes on a regular basis. According to the latest data published by the company, it performs around 40,000 evaluations a year.

      (…)

      Unpacking the layers of labour processes behind algorithmic production has wide scholarly implications and potential policy impact in the field of digital literacy, market competition, transparent, fair, innovative and open digital economy. In the past few years, multiple European Union anti-trust investigations targeted three key areas: Google’s comparison shopping service, pre-installation of Google’s applications and services on Android OS, and restriction of third-party websites from displaying search ads from Google’s competitors.

      Google built its public image on separating the so-called organic, or “untampered” search results, from paid search results or ads. This division becomes less visible from a labour perspective. Tracing and mapping the input of precision evaluators delivered for algorithmic calculations of highly skilled engineers is hidden behind a wall of trade secrets. Thus the algorithmic ranking problem ceases to be a technical problem. Transparency of algorithmic calculations is also a political and economic issue since it affects visibility of actors seeking public exposure and impacts the advertising revenue flow.

  • Mediao fait émerger l’information pertinente grâce à l’intelligence collective
    https://mediao.fr
    https://twitter.com/Mediao_fr

    Mediao est une plateforme web permettant de faire émerger les informations pertinentes, grâce à l’intelligence collective.

    Une nouvelle plateforme qui a l’air de faire comme Seenthis mais qui n’est pas encore sortie et qui participe à un incubateur étudiants-entreprenariat à l’université de Bordeaux…

    Il y a une réunion publique ici demain soir pour présenter le projet IRL. Mais je ne peux pas y aller à priori, j’ai le fiston.

    Quelqu’un sur twitter pour demander c’est quoi la différence avec Seenthis ? (à part que c’est fait par des jeunes avec un logiciel exprès créé par eux je suppose)

    Et si c’est en logiciel libre ? Ou si c’est un truc privé ?
    Et si les gens auront le contrôle sur leurs données et la licence de ce qu’ils postent ?
    Et d’autres questions qui vous viennent à l’esprit.

    cc @seenthis @arno @monolecte et autres qui ont twitter…

    • Éléments de réponse :

      Merci pour vos questions très pertinentes !
      Je vais tenter d’y répondre ici, même s’il sera bien plus simple que nous discutions de vive-voix de ces questions très pointues (on organisera d’autres événements d’ici peu ;) ).

      Mediao fonctionne avec du code maison, et s’inspire de solutions libres.
      Par exemple, nous reprenons certaines parties du code de MyWebIntelligence, un moteur puissant de hiérarchisation de contenus mais très peu connu, créé par un chercheur du laboratoire Mica (à l’Université Bordeaux-Montaigne), et dont le code est dispo sur Github, en licence MIT.
      Et nous traduisons les parties qui nous intéressent en Python, puisque c’est le langage que nous utilisons pour la partie algorithmique.

      Dans l’équipe, nous sommes très partisans du libre. La seule question qui nous préoccupe si l’on partage le code entier librement, c’est la ré-utilisation potentielle de celui-ci par des géants du web.
      Mais dans l’idéal, on aimerait que le code entier soit accessible par toutes et tous. Donc on réfléchit beaucoup à cela. :)

      Par ailleurs, Mediao est assez différent des solutions existantes.
      Le fonctionnement est assez simple : d’abord, les algorithmes parcourent le web, et établissent une liste des contenus. Si l’algorithme oublie des sources, les utilisateurs peuvent les rajouter, pour que les contenus soient listés sur Mediao.
      Ensuite, nous sollicitons les utilisateurs pour effectuer des contrôles très objectifs (est-ce que le contenu est sourcé ? Est-ce que l’article est juste un copié-collé d’une dépêche d’agence de presse ? Est-ce que le contenu est une publicité ?).
      Et donc grâce à ces retours, les algorithmes apprennent, et parviennent à faire émerger les informations pertinentes.

      Pour résumer assez simplement le processus de tri, il se situe entre le simple like, qui est peu qualitatif, et le commentaire textuel, qui est peu exploitable (pour le moment).

      Et on se démarque de SeenThis, parce que nous sommes orientés beaucoup plus pour le grand public. Par exemple, nous voulons vraiment que l’utilisation de Mediao soit simple, rapide, et efficace pour chaque utilisatrice et utilisateur. Pour cela, nous nous adaptons au temps disponible de chacun.e, nous proposons des thématiques selon les intérêts de chacun.e (sans créer de bulles de filtrage !), etc.
      De même, Mediao n’a pas vocation a défendre un but militant -autre la nécessité de faire émerger des contenus fiables et pertinents.
      Mais pour autant, je ne pense pas que nous soyons concurrents directs avec la solution proposée par Seenthis. C’est plutôt complémentaire.

      Voilà, est-ce que ça répond à tes questions ? :)

      A bientôt,

    • Le fonctionnement est assez simple : d’abord, les algorithmes parcourent le web, et établissent une liste des contenus. Si l’algorithme oublie des sources, les utilisateurs peuvent les rajouter, pour que les contenus soient listés sur Mediao.
      Ensuite, nous sollicitons les utilisateurs pour effectuer des contrôles très objectifs (est-ce que le contenu est sourcé ? Est-ce que l’article est juste un copié-collé d’une dépêche d’agence de presse ? Est-ce que le contenu est une publicité ?).
      Et donc grâce à ces retours, les algorithmes apprennent, et parviennent à faire émerger les informations pertinentes.

      #digital_labor donc ! @antoniocasilli

    • Tout à fait @ktche d’où un questionnement sur le fonctionnement de ce qu’il y a derrière, est-ce que ce serait associatif et donc « l’IA » appartiendrait à une structure non marchande et servirait à du bien commun ? Ou bien est-ce que le résultat final (logiciel + base d’apprentissage co-construite) appartiendrait à une ou des personnes privées, qui pourraient donc ensuite l’utiliser pour d’autres besoins que le truc de départ, vendre des services autour, etc.

    • Alors pour commencer Mediao, on est en association loi 1901, donc sans but lucratif. Si jamais on évoluait, à cause de restrictions du statut associatif, ce serait vers une coopérative (SCOP ou SCIC), ce qui empêcherait de facto la distribution de dividendes ou autre.
      Et dans tous les cas, nous voulons associer les membres de la communauté dans les choix que nous devrons faire. En SCIC par exemple, on peut créer une instance décisionnaire avec l’ensemble des « clients », qui a autant de poids que l’équipe permanente. Et ça nous semble assez viable comme modèle de partage du pouvoir décisionnaire.

  • 01 - Partage, digital labor et surveillance au temps du numérique : Pratiques paradoxales du capitalisme informationnel - Centre d’Enseignement Multimédia Universitaire (C.E.M.U.) Université de Caen Normandie - Vidéo - Canal-U
    http://www.canal-u.tv/video/centre_d_enseignement_multimedia_universitaire_c_e_m_u/01_partage_digital_labor_et_surveillance_au_temps_du_numerique_pratiques_par

    Serge Proulx (professeur émérite, Université du Québec à Montréal)

    Résumé : Nous souhaitons décrire et articuler trois types de pratiques connectées, qui prennent toujours davantage d’importance aujourd’hui : pratiques dites de partage qui ouvrent vers les contradictions du modèle de l’économie collaborative ; pratiques dites de digital labor qui mettent en scène diverses formes de travail invisible constituant le back store de l’organisation de l’économie numérique ; pratiques de surveillance qui se déploient à de multiples niveaux (sousveillance entre internautes et vis-à-vis des contrôleurs des plateformes ; surveillance organisationnelle et commerciale de la part des entreprises géantes de l’Internet sur leurs clients ; surveillance étatique de masse exercée sur les bases de données de ces entreprises et sur la vie privée des individus ; surveillance internationale et hacking entre États et entre organisations).

    Nous chercherons à mettre en relief les conséquences et la dimension paradoxale de ces diverses pratiques connectées. Le défi analytique consiste à tenter de penser ensemble ces diverses pratiques. Ce qui veut dire qu’il nous faut chercher à identifier la totalité sous-jacente à l’ensemble de ces pratiques. Nous formulons l’hypothèse que ce sont les formes contemporaines du capitalisme – financier, prosumer, informationnel et cognitif – qui constituent cette nouvelle totalité dont il faut non seulement analyser le fonctionnement mais aussi penser en même temps les alternatives, de manière à pouvoir identifier la capacité d’agir citoyenne dans un tel contexte.

    #économie_collaborative #partage #surveillance #digital_labor

  • Dans les ateliers de la #modération en continu
    http://www.humanite.fr/de-quoi-cauchemardent-les-nettoyeurs-invisibles-de-la-toile-635868

    Sarah T. Roberts, enseignante et chercheuse aux États-Unis, a rencontré ces travailleurs invisibles, qu’ils soient dans la #Silicon_Valley ou dans des centres d’appels aux #Philippines.

    Certains tentent de trouver un sens à ce qu’ils font et m’ont dit : « Je peux le supporter, je fais cela pour protéger les autres, que vous n’ayez pas à voir toutes ces horreurs. » Mais je n’ai rencontré personne qui se sente bien. Cette #violence rejaillit sur leur #vie_privée, leur sommeil. Certains ont sombré dans l’alcool ou la dépression… On ne connaît pas non plus les effets à long terme de ce travail sur les gens. Et, bien entendu, aucun de ces travailleurs n’est formé, préparé à ce qu’il va devoir regarder au quotidien. Il n’y a aucun suivi, aucune aide. Le pire est qu’ils ne peuvent même pas en parler à leurs proches. Deux d’entre eux ont récemment été déclarés en incapacité totale de travailler à la suite d’une expertise médicale et psychologique. Depuis qu’ils ont dû voir des vidéos de viols de jeunes enfants, ils souffrent de stress post-traumatique et ont demandé plusieurs fois à être changés de service. Juste avant le Nouvel An, ils ont porté plainte contre Microsoft, leur employeur. Ce sont les seuls à voir pu le faire puisque dans toutes les autres plateformes, les modérateurs de contenu sont employés par des sous-traitants, ce qui permet aux géants du Web de ne pas être tenus directement responsables. Là, ils travaillaient de plein droit pour Microsoft. On ne sait pas encore quand le procès aura lieu, mais je reste assez surprise que la multinationale ne leur ait pas versé une belle somme d’argent assortie d’une clause de non-divulgation et choisisse de se risquer en justice…

    #travail #entreprise #digital_labor via @cuisineanxious

    Autre entretien avec la dame dans Usbek & Rica
    https://usbeketrica.com/article/les-eboueurs-du-web-moderateurs-invisibles-des-reseaux-sociaux

  • Meet YouTube’s Hidden Laborers Toiling to Keep Ads Off Hateful Videos
    https://www.wired.com/2017/04/zerochaos-google-ads-quality-raters

    Taken together, the scope of the work and nuance required in assessing videos shows Google still needs human help in dealing with YouTube’s ad problems. “We have many sources of information, but one of our most important sources is people like you,” Google tells raters in a document describing the purpose of their ad-rating work. But while only machine intelligence can grapple with YouTube’s scale, as company execs and representatives have stressed again and again, until Google’s machines—or anyone else’s—get smart enough to distinguish, say, truly offensive speech from other forms of expression on its own, such efforts will still need to rely on people.

    “We have always relied on a combination of technology and human reviews to analyze content that has been flagged to us because understanding context in video can be subjective,” says Chi Hea Cho, a spokesperson for Google. “Recently we added more people to accelerate the reviews. These reviews help train our algorithms so they keep improving over time.”

    #digital_labor #google #publicité #IA

    • They read comment sections to flag abusive banter between users. They check all kinds of websites served by Google’s ad network to ensure they meet the company’s standards of quality. They classify sites by category, such as retail or news, and click links in ads to see if they work. And, as their name suggests, they rate the quality of ads themselves.

      (…) In March, however, in the wake of advertiser boycotts, Google asked raters to set that other work aside in favor of a “high-priority rating project” that would consume their workloads “for the foreseeable future,” according to an email the company sent them. This new project meant focusing almost exclusively on YouTube—checking the content of videos or entire channels against a list of things that advertisers find objectionable. “It’s been a huge change,” says one ad rater.

      Raters say their workload suggests that volume and speed are more of a priority than accuracy. In some cases, they’re asked to review hours-long videos in less than two minutes. On anonymous online forums, raters swap time-saving techniques—for instance, looking up rap video lyrics to scan quickly for profanity, or skipping through a clip in 10-second chunks instead of watching the entire thing. A timer keeps track of how long they spend on each video, and while it is only a suggested deadline, raters say it adds a layer of pressure. “I’m worried if I take too long on too many videos in a row I’ll get fired,” one rater tells WIRED.

      (…) “We won’t always be able to tell you what [each] task is for, but it’s always something we consider important,” the company explains in orientation materials for ad raters. “You won’t often hear about the results of your work. In fact, it sometimes might seem like your work just flows into a black hole … Even though you don’t always see the impact, your work is very important, and many people at Google review it very, very closely.”

      (…) To be sure, not all ad raters find fault with the issues raised by some of their fellow workers. The $15-per-hour rate is still above most cities’ minimum wages. One ad rater told me he was grateful for the opportunity ZeroChaos gave him. “[ZeroChaos] didn’t care about a criminal background when even McDonald’s turned me down,” the rater said. Multiple raters said they’d been close to homelessness or needing to go on food stamps when this job came along. [mais dans le même temps ne sont pas assurés de faire suffisamment d’heures dans la semaine (minimum de 10h/semaine et jusqu’à 29h/ possible) et interdits de bosser pour une autre boîte)

      (…) But churning through human ad raters may just reflect best practices for making AI smarter. Artificial intelligence researchers and industry experts say a regular rotation of human trainers inputting data is better for training AI. “AI needs many perspectives, especially in areas like offensive content,” says Jana Eggers, CEO of AI startup Nara Logics. Even the Supreme Court could not describe obscenity, she points out, citing the “I know it when I see it” threshold test. “Giving ‘the machine’ more eyes to see is going to be a better result.”