• Corriger les biais des systèmes techniques n’est pas si simple, nous rappelle AlgorithmWatch en prenant l’exemple des annonces publicitaires de Meta. Car pour les corriger, il faut pouvoir les mesurer. Et le problème, c’est que toutes les catégories publicitaires doivent l’être selon leurs propres caractéristiques. Pour des annonces publicitaires localisées, il faut pouvoir corriger les biais de localisation selon les distributions des populations locales, pour les annonces d’emploi, selon les spécificités de genre ou de catégories sociales, pour les annonces liées aux revenus, disposer d’informations sur les revenus, etc. La tâche est immense et il est probable que les plateformes ne réagissent que sous le coup de condamnation, comme vient de le faire Meta sur les annonces immobilières aux Etats-Unis seulement.

    Face à ces problèmes récurrents, il n’est pas sûr que les rapports d’audit ou de transparence, telles que demandés aux BigTech suffisent. D’abord et avant tout parce qu’elles mettent dedans ce qui les arrange : elles définissent les normes de leurs contrôles (et chacune le fait différemment), choisissent leurs auditeurs et produisent les données qu’elles souhaitent partager, au risque d’un audit-washing et d’une inflation de rapports qui ne nous apprennent pas grand chose et qui ne permettent pas de faire levier pour agir. Et ce au détriment d’examens externes et indépendants, rendus de plus en plus difficiles...

    https://hubertguillaud.wordpress.com/2023/11/28/resoudre-les-biais-nest-pas-si-simple

  • Résoudre les biais n’est pas si simple ! | Hubert Guillaud aka @hubertguillaud
    https://hubertguillaud.wordpress.com/2023/11/28/resoudre-les-biais-nest-pas-si-simple

    Enfin, il y a d’innombrables autres biais dans les catégories de publics que ces systèmes produisent à la volée, par exemple quand une personne est identifiée comme s’intéressant aux jeux d’argent et de paris en ligne et qui va être sur-sollicitée sur ces questions, au risque de renforcer ses dépendances plutôt que de le protéger de ses vulnérabilités (ou d’autres vulnérabilités, comme le montrait The Markup, quand ils analysaient les catégories de la plateforme publicitaire Xandr – j’en parlais là), et l’amplification des biais risque d’être encore plus forte et plus difficile à corriger quand les publics cibles sont particulièrement spécifiques. Sans compter que finalement, c’est le but du ciblage publicitaire de produire des catégorisations et donc de la discrimination : ainsi quand on cherche à montrer une annonce à des cibles ayant tel niveau de revenu, c’est bien à l’exclusion de tous les autres (pour autant que ce ciblage fonctionne, ce qui est bien plus rarement le cas qu’énoncé, comme je l’évoquais en observant les troubles du profilage).

    Selon la loi européenne sur les services numériques, les plateformes ne sont plus autorisées à cibler des publicités en utilisant des catégories de données “sensibles”, comme la race, le sexe, la religion ou l’orientation sexuelle et doivent atténuer les risques systémiques découlant de leurs services. Reste que l’approche extrêmement fragmentaire de Meta pour atténuer les biais, tels que le propose le VRS, risque d’être difficile à appliquer partout, faute de données permettant de corriger les biais disponibles. Le débiaisage pose la question de quelles corrections appliquer, comment les rendre visibles et jusqu’où corriger ?

  • Les plateformes des Big Techs font un peu ce qu’elles veulent en toute impunité. Sous prétexte de fournir de grands services à tous qui semblent universels et à notre avantage, elles nous leurrent avec la complaisance des autorités qui laissent faire. A l’image des ajustements incessants de leurs outils de recommandation, qu’elles polluent de publicités et qu’elles orientent dans le sens de leurs intérêts. C’est ce que Cory Doctorow appelle « l’emmerdification ».

    Pour résoudre ces problèmes, l’auteur d’"Internet Con" propose de contraindre les plateformes à plus d’interopérabilité, à exiger une forme de neutralité des résultats et au régulateur à mieux surveiller leurs pratiques pour les contraindre dès qu’elles s’écartent de ces règles. Il est tant de limiter plus activement les pratiques anticoncurrentielles des Big Tech, de limiter l’essor du « capitalisme de commandement »...
    https://hubertguillaud.wordpress.com/2023/11/16/reguler-le-capitalisme-de-commandement

  • L’expérience est tellement édifiante qu’elle devrait interroger ceux qui rêvent des promesses que leur fait la technologie. Quand on compare les résultats de deux algorithmes de reconnaissance faciale depuis une même image de suspect, tournant sur la même base de données d’images de résultats, et bien apprenez qu’aucun des 2 ne renvoie dans leurs 10 premières correspondance une personne similaire ! Selon le système utilisé, vous n’aurez donc pas les mêmes suspects en retour !

    Ces systèmes qui produisent toujours des résultats sont en grande partie défaillants. Et ce n’est pas seulement la technique qui est défaillante (qui est « vendue » comme une technique d’analyse des traits du visage, alors qu’elle est sensible à bien d’autres éléments comme les poses, la qualité des images, etc.), mais la façon même dont elle produit du résultat, en n’expliquant jamais les raisons de ses limites. Et le pire, c’est qu’il n’y a pas que la technique qui est défaillante. Les « humains dans la boucle », ceux qui utilisent ces systèmes sont capables de croire en toute confiance en leurs capacités à travailler avec la machine quand celle-ci, bien souvent ne propose qu’amplifier leurs biais et leur confiance en eux.

    Regardons donc comment la reconnaissance faciale fonctionne, ou plutôt comment elle échoue, c’est le seul moyen de bien saisir que cette technologie n’a rien de magique, au contraire. https://hubertguillaud.wordpress.com/2023/11/21/la-reconnaissance-faciale-en-ses-limites #reconnaissancefaciale

  • Je suis toujours frappé de constater combien les services publics sont peu démocratiques. Les usagers n’y sont pas représentés. Ils ne décident rien des choses qui les concernent. Ils ne contrôlent pas non plus l’impact des actions engagées par l’administration.

    Pourquoi les services publics sont-ils si peu démocratiques ? Pourquoi devraient-ils le devenir ? Voilà les questions auxquelles tente de répondre le professeur de droit, Thomas Perroud dans son livre, "Services publics et communs : à la recherche du service public coopératif". Dans le pays "le plus animé par l’idée d’égalité, le rapport à la puissance publique est probablement le plus inégalitaire dans son vécu", explique-t-il, dans un livre qui vise à remobiliser les citoyens afin qu’ils arrêtent de se prêter aux consultations pour les convier à réclamer le pouvoir, seul à même de limiter l’arbitraire administratif et politique. Les défis qui sont devant nous, à savoir ceux du climat et de l’opacité du calcul, nécessitent plus que jamais de trouver des pratiques permettant de modifier la relation administrative. Il nous faut passer des services publics aux communs, et pour y parvenir, il faut faire une place inédite aux usagers.

    Le principe démocratique devrait toujours être un objectif de service public, rappelle le professeur de droit. « L’intérêt central du commun est non seulement d’apprendre la démocratie et l’égalité, mais aussi d’apprendre à l’individu à orienter son comportement par des motifs alignés sur l’intérêt général ». C’est par la démocratie qu’on apprend à prendre soin des autres, à tenir compte des autres. C’est par la démocratie qu’on apprend la démocratie.
    https://hubertguillaud.wordpress.com/2023/10/10/cest-encore-loin-les-communs

  • Le numérique tient-il plus d’une barrière, d’une possible nouvelle frontière dans la mondialisation ou au contraire, est-elle l’interface, le liant d’une nouvelle géopolitique dont les frontières se recomposeraient en dehors de toute géographie ? C’est la question que pose Ophélie Coelho dans son livre « Géopolitique du numérique ». Pour elle, le numérique est une couche supplémentaire de puissance et de rivalités, entre Etats, mais aussi entre Etats et multinationales. Il est à la fois l’outil d’affrontement des différents blocs du monde contemporain et le coeur de la domination.

    La grande question de cette géopolitique, c’est surtout la montée d’un pouvoir privé qui vient renforcer plus que perturber les équilibres géopolitiques en cours. Le numérique nous confronte à une puissance impériale inédite qui fait émerger un nouveau pouvoir au sein des blocs géopolitiques, un pouvoir particulièrement hégémonique et monopolistique... Une forme de privatisation du pouvoir, un colonialisme technique qui déstabilise la démocratie libérale elle-même, comme s’en inquiète Anu Bradford dans son livre, « Digital Empires ». Et qui pose la question de la régulation de ce qui apparaît comme un nouvel impérialisme. #numérique #géopolitique #régulation #impérialisme

    https://hubertguillaud.wordpress.com/2023/10/30/de-limperialisme-numerique

  • Dans un livre lourd, épais et gris, en forme de pierre tombale, Julian Bleecker, Nick Foster, Fabien Girardin et Nicolas Nova signent The Manual of Design Fiction (Near Future Laboratory, 2022), une somme – superbe ! – qui hésite entre l’histoire et l’épitaphe du Design Fiction. Cette rétrospective évoque les travaux les plus remarquables qui ont rythmé son déploiement tout en pointant quelques-unes de ses limites de cette forme d’innovation par le design.

    Rappelons donc que le design fiction consiste à créer des prototypes plausibles pour mieux évoquer et interroger les conséquences de nos choix à venir. C’est une sorte d’objet prospectif (sans être une preuve de concept), un “un moyen de développer une compréhension plus profonde d’un monde en mutation”. Une proposition pour interroger le monde, à l’image de l’affiche pour drone perdu… qui rappelle que même dans la modernité, celle-ci continuera à dysfonctionner comme aujourd’hui. Il a pour mission de montrer ce qu’on ne voit pas au premier abord. Il consiste, comme disait l’auteur de SF (et grand complice de la bande du NFL) Bruce Sterling dans Objets bavards à faire de la science-fiction avec des prototypes, pour tenter, par des objets, d’avoir le même impact que la SF a eu sur la production de connaissance. Et avec eux, à questionner, par l’humour, l’ironie et la satire, les promesses de la technique, comme pour la faire redescendre sur terre.

    Derrière le manuel pour apprendre à utiliser la fiction par le design, pourtant, pointe une forme de nostalgie. A l’heure où le futur est produit dans des tableurs Excel, des slides, des rapports de tendance, des scénarios, selon des méthodes analytiques et linéaires, le design est de plus en plus convoqué pour rendre ces scénarios plus productifs. Bleecker, Nova, Girardin et Foster paraissent alors comme les derniers représentants d’une méthode vertueuse, généreuse, qui ne visait pas son instrumentalisation, mais souhaitait donner à lire autrement d’autres rapports au monde. Des outils pour chercher des solutions parmi d’autres. C’est en cela que le livre ressemble finalement à un tombeau, une dernière célébration enthousiaste d’un design fiction originel qui est certainement en train de disparaître, assimilé par les méthodes marketing, vidé de ses questionnements sociaux et politiques. Le Manuel semble finalement un appel pour revenir à un Design Fiction originel, avant qu’il ne disparaisse. Une célébration à regrets.

    Les 4 amis défendent un design fiction qui interroge et questionne plus qu’il ne solutionne... Mais ils nous montrent peut-être, dans cette célébration, qu’à une époque où les réponses sont déjà là, formuler des questions semble être devenu un non enjeu. Peut-être parce que quand les réponses sont là, l’enjeu n’est pas d’améliorer les questions, mais de définir des limites.

    Plus de détails par là => https://hubertguillaud.wordpress.com/2023/02/20/tombeau-pour-le-design-fiction #design

  • Retour sur la 4 séance du cycle "Dématérialiser pour mieux régner" du Mouton Numérique. Au programme : regarder au-delà des services publics français, pour voir comment d’autres, en Europe, portent la lutte contre les algorithmes de contrôle et de profilage de l’action sociale. L’occasion de questionner, avec les allemands d’Algorithm Watch ou des associations néerlandaises et polonaises, les limites de leurs actions.

    On y apprend que la contestation prend du beaucoup temps et coûte de l’argent. On y apprend que partout, les systèmes se déploient et s’intensifient. On y questionne les limites de la contestation. La contestation est-elle le levier pour généraliser les systèmes ou les défaire ? La contestation vise-t-elle a améliorer des systèmes partout déficients ou faire reculer la surveillance ?

    “Il faut retourner l’éclairage intégral que les agences braquent sur les citoyens pour tout connaître d’eux, sur les agences elles-mêmes pour obtenir d’elles la même transparence que celle qu’elles demandent aux allocataires”.

    La suite, c’est par là =>
    https://hubertguillaud.wordpress.com/2023/02/04/a-quoi-servent-les-luttes-contre-la-numerisation #dématérialisation #contrôle #technoluttes

  • Ce que la surveillance change au travail : https://hubertguillaud.wordpress.com/2023/01/30/ce-que-la-surveillance-change-au-travail

    Retour sur le livre que la sociologue américaine, Karen Levy consacre aux routiers et à la transformation de leur métier par la surveillance numérique : Data Driven. L’occasion de saisir comment la surveillance change le travail, en concentrant responsabilités et injonctions contradictoires sur le dernier maillon de la chaîne logistique ! La technique est convoquée pour réduire le fossé entre la loi et la pratique, mais en réalité, elle déplace cet écart et met la pression sur les ouvriers spécialisés du système, en rendant certaines règles plus strictes à briser que d’autres. Cette surveillance ne s’intéresse pas aux conditions de travail, mais vise seulement à aligner les travailleurs aux objectifs des entreprises. Car derrière la régulation qui impose l’outil, ce sont les entreprises qui ont profité du déploiement de ces nouveaux outils qui transforment la gestion à distance des employés. Les nouvelles données sont très vites rendues productives. Le micro-management par les capteurs est viscéralement agressif. Il déplace le conflit entre le travailleur et son patron sur celui entre la machine et le travailleur, au détriment des luttes collectives comme des protections légales. C’est désormais au seul routier d’assumer les contradictions que la société lui impose. #travail #surveillance

  • “Quand on voit le niveau de dysfonctionnement de l’automatisation actuelle, on n’a pas envie de voir ce que donnera plus d’automatisation encore !” “Mais pourquoi font-ils ça ?” C’est la grande question ou le cri du coeur qui vient naturellement à qui comprend le délire du contrôle social automatisé que pratique la CAF. C’est la question à laquelle ont tenté de répondre la Quadrature, Changer de Cap et le sociologue Vincent Dubois à l’invitation du Mouton Numérique pour la 3e édition du cycle de rencontres Dématérialiser pour mieux régner. C’est à lire par ici : https://hubertguillaud.wordpress.com/2023/01/20/le-controle-social-automatise-dans-la-plus-grande-opacite #dematerialisation #caf #quadrature #controlesocial

    • L’efficacité de ces échanges [de #données] a considérablement progressé avec la possibilité de croiser les NIR, le numéro de sécurité sociale des usagers (et Dubois de rappeler pour l’anecdote que la possibilité de ce croisement a été rendue possible par un amendement du député du parti communiste, Jean-Pierre Brard en 1995, qui voulait que l’administration l’utilise pour lutter contre la fraude fiscale). A la fin des années 70, lors du scandale Safari, la menace était que toutes les données soient concentrées en un seul endroit. Mais cela ne s’est pas passé ainsi. “C’est le croisement de données qui s’est imposé, avec des données qui sont bien plus importantes, volumineuses et précises qu’elles ne l’étaient en 1978”. Le second type de contrôle qui existe, c’est le contrôle sur pièces, à la demande des agents. Le 3e, c’est le contrôle sur place, l’enquête à domicile, qui mobilise des techniques quasi policières, voir plus intrusives que les enquêtes policières, puisque les agents de la CAF ont le droit de s’introduire au domicile, de procéder à des enquêtes de voisinage, procèdent à un interrogatoire des administrés…

      .... les aides sociales sont de plus en plus conditionnées. Dans les années 90, une volonté de restriction des droits pour limiter les dépenses publiques s’est mise en place, qui est allée de pair avec la diabolisation des personnes qui perçoivent des aides. Les algorithmes sont le reflet de ces politiques.

      .... La CAF procède à 31,6 millions de contrôles automatisés par an pour 13 millions d’allocataires !

      ... Le contrôle automatisé est donc massif et induit une suspension des droits qui peut durer des mois. [oui, oui, et oui, je sors d’en prendre, avec rétablissement des droits coupés. on ne s’en sort que si on n’est pas désocialisé, avec capacité d’emprunt, voir l’article !]

      .... le #non_recours risque surtout d’être la pilule pour faire accepter le scoring.

      par ailleurs dire

      l’allocataire n’est pas au courant du passage d’un contrôleur et si l’allocataire n’était pas à son domicile, la CAF considère que le contrôle a été refusé !

      me parait faux, en théorie (loi) les allocataires doivent être prévenus (en général un mot dans la boite aux lettres physique annonçant le passage de l’agent de contrôle)

      merci pour ce(s) cr @hubertguillaud !

      #toctoc

      #visites_domiciliaires #allocataires #RSA #APL #CSS #santé #revenu #datamining #statisitiques_préventives #score_de_risques #scoring #guerre_aux_pauvres