---
tags: weeknotes
---
Weeknotes #11
=============
Bon ça y est, j'ai perdu le rythme des weeknotes. J'essaie de m'y remettre.
## Dataviz
Sur la plateforme Observable, Visionscarto suit le succès de la pétition pour la dissolution de la BRAV M:
https://observablehq.com/@visionscarto/pour-la-dissolution-de-la-brav-m.
Thomas Bizet de la CNIL publie chaque année une cartographie des contrôles de la CNIL grâce à l'outil umap et le jeu de données en open data: http://umap.openstreetmap.fr/fr/map/cartographie-des-controles-de-la-cnil-par-annee-et_83366#8/46.433/3.912.
## Data journalism
Sur FranceTVInfo, Mathieu Mathieu Lehot-Couette et Léa Prati reviennent sur les méthodologie des différents classements des lycées publiés dans les médias. C'est super intéressant d'avoir des papiers méthodologiques dans la presse grand public.
https://www.francetvinfo.fr/bac/classement-des-lycees/infographies-prime-au-prive-et-aux-milieux-favorises-ce-que-revelent-les-classements-des-lycees_5744093.html
Les data journalistes de la presse régionale s'associent au sein de l'initiative data+local pour mener des enquêtes. Un exemple avec les revenus des coursiers des plateformes de livraison dans les villes moyennes
https://www.republicain-lorrain.fr/social/2023/04/03/salaires-concurrence-precarite-accidents-la-face-cachee-des-livreurs-a-velo-en-lorraine
## IA, ChatGPT, fatigue
Je commence à avoir une vraie fatigue mentale autour du sujet ChatGPT. Bien sûr, le débat est passionnant mais ça part vraiment dans tous les sens et les gens continuent d'avoir une relation de fascination à la technologie.
### Plaintes à la CNIL
David Libeau a déposé une plainte contre ChatGPT à la CNIL: https://blog.davidlibeau.fr/jai-depose-une-plainte-a-la-cnil-contre-chatgpt et Eric Bothorel lui a emprunté le pas : https://www.liberation.fr/economie/economie-numerique/informations-erronees-sur-les-personnes-le-depute-eric-bothorel-saisit-la-cnil-contre-chatgpt-20230412_YHV45ISLNRD25DTULQZIV5BJ6I/. Je trouve la démarche vraiment intéressante.
### Moratoire
Depuis 3 semaines et la publication d'un appel à un moratoire sur l'IA par le Future of Life Institute (https://futureoflife.org/open-letter/pause-giant-ai-experiments/), tout le monde s'est exprimé sur le sujet. C'est évidemment très intéressant (et très énervant) de constater que quand l'avertissement vient d'un think tank long-termiste, cela fait la une des médias grand public du monde entier alors que ça fait des années que de nombreux chercheurs et chercheuses (Timnit Gebru, Kate Crawford, Emily Bender, etc) alertent sur les dangers réels et concrets de ces technologies sans rencontrer le même écho.
Timnit Gebru a justement souligné la référence trompeuse au papier des stochastic parrots dans la lettre du ouverte du Future of Life Institute: https://dair-community.social/@timnitGebru/110110514253524755. Ce phénomène de citation abusive est assez répandu https://fediscience.org/@ct_bergstrom/110110605618269016.
Parmi les réactions, il y a ceux qui comme Yudlowski dans le Time (https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough) reprennent les arguments du Future of Life institute sur le développement d'une intelligence artificielle générale pour dire qu'il faut aller plus loin et réguler l'usage des GPU.
> Shut down all the large GPU clusters (the large computer farms where the most powerful AIs are refined). Shut down all the large training runs. Put a ceiling on how much computing power anyone is allowed to use in training an AI system, and move it downward over the coming years to compensate for more efficient training algorithms.
Même si je n'adhère pas à l'argumentation, la proposition de réguler l'usage des GPU a au moins le mérite d'être claire.
De l'autre côté, il y a ceux et surtout celles qui déconstruisent l'idée que nous sommes en train de construire une intelligence artificielle générale. On peut notamment lire la tribune de Timnit Gebru, Emily Bender, Angelina McMillan-Major, Margaret Mitchell (https://www.dair-institute.org/blog/letter-statement-March2023) et l'édito de Lucie Ronfaut dans Règle30 qui reprend largement les arguments de Gebru et al.: https://mailchi.mp/numerama/pas-besoin-d-apocalypse-pour-critiquer-l-ia?e=ba1afd751b
> "Il est dangereux de nous distraire avec des fantasmes d'un futur prospère ou catastrophique à cause de l'IA. Ce genre de vocabulaire nous fait croire que ces logiciels sont capables de plus de choses qu'en réalité, et qu'ils seraient des êtres capables de sentiments et d'intelligence", affirment-elles. "Non seulement cela nous pousse à abandonner tout esprit critique vis-à-vis de systèmes comme ChatGPT, mais cela permet aussi de détourner l'attention sur qui est vraiment responsable de cette situation. Le problème ce ne sont pas les objets technologiques, c'est qui les construit, et comment."
### Et aussi
Le centre internet et société organise une journée sur la régulation de L'IA le 23 mai https://cis.cnrs.fr/reguler-l-intelligence-artificielle. A tous les coups, j'aurais pas le temps d'y aller mais ça doit être intéressant.
Cette caricature dénichée par freakonometrics est très bien vue: https://marketoonist.com/2023/03/ai-written-ai-read.html
## Sociologie
L'actualité française est marquée par un débat sur le maintien de l'ordre et les violences policières. Pendant la crise des gilets jaunes, j'avais lu l'article d'Olivier Filleule et Fabien Jobard sur la stratégie française de maintien de l'ordre dans La Vie des Idées (https://laviedesidees.fr/Un-splendide-isolement.htm). Ça fait partie des articles que j'ai lu il y a quelques années et auxquels je pense souvent en lisant l'actualité politique française.
## Économie
Les Décodeurs reviennent sur l'audition de d'Augustin Landier et David Thesmar devant la commission d'enquête parlementaire sur les Uber files https://www.lemonde.fr/les-decodeurs/article/2023/04/13/universitaires-ou-lobbyistes-des-economistes-rattrapes-par-leurs-contrats-avec-uber_6169390_4355770.html
De mon point de vue, c'est évident que même si l'étude n'a pas été publiée dans un journal académique et qu'il y avait bien une note expliquant que Thesmar et Landier avaient un contrat avec Uber, Uber achète le prestige des académiques et cette étude joue sur la confusion entre consulting et travaux universitaires.
A l'époque, j'ai moi-même utilisé les résultats de l'étude de Krueger et Hall (https://www.nber.org/system/files/working_papers/w22843/w22843.pdf) dans un dossier documentaire pour le concours d'entrée à l'école normale supérieure (https://www.ens.psl.eu/IMG/file/concours/2017/BL/2017_BL_sujet_sciences%20sociales.pdf) sans me poser de questions parce que de mon point de vue de l'époque, Alan Krueger étant un grand universitaire reconnu par ses pairs. Aujourd'hui, je ferais plus attention avant d'utiliser une étude avec des étudiants.
Je suis très étonné que le comportement de Thesmar et Landier ait été si peu condamné publiquement par les économistes académiques et n'ait pas donné lieu à un débat plus large sur la déontologie académique. Peut être qu'il faudrait inventer une sorte de registre de déclaration de consulting des académiques, un peu sur le modèle de la base Transparence-santé (https://transparence.sante.gouv.fr/pages/accueil/).
## Open data
La direction générale de la fonction publique (DGAFP) publie maintenant un historique des offres d'emploi de la place de l'emploi public (renommée choisirleservicepublic.gouv.fr depuis le 14 avril) sur data.gouv.fr: https://www.data.gouv.fr/fr/datasets/les-offres-diffusees-sur-la-place-de-lemploi-public/. Il y a plein de valeurs manquantes mais le jeu de données est très intéressant.
## Mastodon et réseaux sociaux
La Revue des médias (publiée par l'INA) a interrogé des spécialistes des réseaux sociaux pour imaginer un réseau social idéal. La plupart des personnes interrogées mettent en avant Mastodon et Reddit:
https://larevuedesmedias.ina.fr/meilleurs-reseau-sociaux-toxicite-algorithme-moderation-twitter-facebook-tiktok-reddit-tumblr-mastodon
Les personnes interviewées insistent beaucoup sur la possibilité sur la possibilité de choisir l'algorithme et d'éviter les interactions violentes mais insistent peu sur la decouvrabilité de nouveaux contenus.
## Lectures en cours
Comme d'habitude, j'ai encore beaucoup de lectures en cours et notamment:
* La nouvelle enquête sur les travailleurs du clic: https://theconversation.com/enquete-derriere-lia-les-travailleurs-precaires-des-pays-du-sud-201503
* L'étude sociologique sur la pseudonymisation des décisions de justice: https://journals.openedition.org/reset/4731
* https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/
* La note du PEREN sur ChatGPT: https://www.peren.gouv.fr/rapports/2023-04-06_Eclairage%20sur_CHATGPT_FR.pdf
## Voir aussi
* [Historique des weeknotes](https://hackmd.io/@pac?tags=%5B"weeknotes"%5D)