IA: une liste de lecture
Dernière mise à jour: 28 mars 2025
Cette page a vocation à évoluer au fil de mes lectures. C'est avant tout une manière pour moi de garder une trace d'articles intéressants, et j'espère que cela peut être utile à d'autres pour se faire un aperçu de ce sujet complexe.
Contenu:
- Qu’est-ce que l’IA?
- Capacités
- Utilisation
- Copyrigth
- Travail caché
- Impacts environnementaux
- Désinformation
- Slop
- Surveillance
- Sécurité & Alignement
- Marché
- ADMS
Qu’est-ce que l’IA?
What is AI? (MIT Technology Review, Juillet 2024): Un long article pour présenter les points de vue très différents que des expert·es ont sur ce qu’est l’IA. Difficile d’en tirer une conclusion si ce n’est qu’il y a des désaccords fondamentaux et qu’ils reflètent davantage des différences d’idéologies que de maîtrise du sujet.
Cette page rassemble surtout des actualités sur l’IA générative, et en particulier sur les LLMs.
Capacités
Il est très difficile de parler des capacités des IA génératives, entre autre parce que:
- De nouveaux modèles sortent en permanence
- Des progrès réels sont survendus par les discours marketing
- De meilleures performances dans des benchmarks ne signifie pas forcément que les performances vont sembler meilleures à l’usage
- Certains aspects de la qualité de ces IA générative sont très subjectifs
- Il y a énormément de types d’utilisation
- Les utilisateurs ne savent souvent pas quel modèle iels utilisent
Pour comparer les différents LLMs, il existe:
- Chatbot Arena qui classe de nombreux chatbots sur base des préférences exprimées par des utilisateurs
- Open LLM Leaderboard compare de nombreux modèles à poids ouverts selon une série de benchmarks.
Things we learned about LLMs in 2024: Un bon aperçu de l’évolution des LLMs en 2024 par Simon Willison.
De manière générale, le blog de Simon Willison est une bonne source d’information sur les performances des LLMs.
Nouveaux modèles et développements
Faire le suivi des nouveaux modèles semble peine perdue, mais voici néanmoins quelques articles intéressants:
Inside Google’s Two-Year Frenzy to Catch Up With OpenAI (Wired, mars 2025): Wired a récolté des interviews d’une cinquantaine d’employés de Google pour retracer les dernières années de développement de leur IA générative. L’entreprise a réaffecté une grande partie de ses ressources et abandonné beaucoup de ses mesures de précaution pour tenter de rattraper OpenAI. Aucune mention cependant du travail externalisé pour l’annotation des données, ce qui a pourtant dû être une part importante du travail fourni.
DeepSeek FAQ (Stratechery, janvier 2025): DeepSeek est une famille de LLMs développés par une entreprise chinoise. Ce sont les premiers modèles “open-source” dont les performances égalent celles des modèles les plus performants de OpenAI et Anthropic (à l’exception probablement du modèle o3 d’OpenAI, qui n’est pour l’instant accessible qu’à une poignée de chercheurs·euses). Les interdictions d’export imposées par les US font que DeepSeek a été développé sur des GPUs d’ancienne génération. Cela a forcé les développeurs à de nombreuses innovations sur l’architecture des modèles et à un important travail d’optimisation (“an insane level of optimization” d’après Ben Thompson). Le résultat est un modèle non seulement très puissant, mais aussi beaucoup moins énergivore que les modèles concurrents, tant à l’entraînement qu’à l’inférence.
D’après Ben Thompson, DeepSeek a probablement utilisé abondamment les données générées par les modèles de OpenAI et Anthropic, comme source d’entraînement.
Thoughts On A Month With Devin (Answer.AI, janvier 2025): Devon est l’un des premiers “agents” IA, un programme censé pouvoir réaliser des tâches complexes de A à Z au point de pouvoir vous remplacer au travail. La spécialité de Devon est la programmation, mais d’après les tests de l’équipe d’answer.ai les résultats ne sont pas fameux: le programme n’a su compléter que 3 des 20 tâches demandées.
Even more telling was that we couldn’t discern any pattern to predict which tasks would work. Tasks that seemed similar to our early successes would fail in unexpected ways.
Hallucinations
Les LLMs produisent du texte mot par mot, en associant à chaque mot une probabilité d’apparaitre après les mots précédents. Cette approche produit des textes vraisemblables, mais qui ne sont pas toujours factuellement corrects. On parle alors d’hallucinations. D’après certain•es chercheur•ses, ces hallucinations sont inévitables (LLMs Will Always Hallucinate, and We Need to Live With This, septembre 2024).
Voici quelques exemples d’hallucinations et des problèmes qu’elles posent:
AI-powered transcription tool used in hospitals invents things no one ever said (AP, octobre 2024): Des hôpitaux aux US utilisent un outil de transcription automatique pour garder une trace écrite des consultations. Cet outil, basé sur le modèle Whispers d’OpenAI, invente parfois des phrases entières. De plus, l’audio original est supprimé pour des raisons de confidentialité, ce qui rend impossible de vérifier la véracité des transcriptions.
AI Search Has A Citation Problem (Columbia Journalism Review, mars 2025): Une équipe de l’université de Columbia a testé 8 LLMs dotés de capacités de recherche. Les LLMs recevaient un extrait d’un article de presse et devaient trouver la source de cet extrait (titre, publication, url). Les réponses étaient fausses dans plus de 60% des cas. Les versions payantes avaient de pires résultats que les versions gratuites. Les LLMs inventent de faux liens ou des liens vers les mauvais articles. Ce problème persiste même dans les cas où il existe un accord de licence entre le média et l’entreprise fournissant le LLM.
Dans la même veine, la BBC a évalué plusieurs LLMs à travers 362 questions sur l’actualité en demandant d’utiliser la BBC comme source de préférence. 19% des réponses contenaient des erreurs factuelles, et 13% des citations étaient soit transformées soit purement inventées (source: BBC, janvier 2025).
Le chatbot d’Amazon veut rediriger les utilisateurs qui expriment des pensées suicidaires vers une ligne de prévention du suicide, mais hallucine de faux numéros de téléphone (Futurism, février 2025).
Utilisation
19% des français utilisent chatgpt: Un Français sur cinq a déjà utilisé ChatGPT - Odoxa. En février 2025, OpenAI annonce avoir 400 millions d’utilisateurs par semaine (source: Reuters).
OpenAI/chatGPT a probablement plus d’utilisateurs que tous les autres LLMs combinés (Edward Zitron, février 2025).
Les Belges sont moins optimistes que la moyenne par rapport à l’IA: 41% des Belges pensent que l’IA aura un impact positif sur leur vie, contre 61% en moyenne dans le monde. (Global opinions and expectations about AI, enquête Ipsos, janvier 2022)
Il semble que mieux connaître le fonctionnement des IA ferait qu’on l’utilise moins (The Conversation, janvier 2025). Un résultat surprenant, et je n’ai pas accès à l’article original pour en savoir plus.
Une étude de Microsoft research montre que les personnes qui utilisent plus d’IA générative ont le sentiment de moins utiliser leur esprit critique et d’être moins capables d’évaluer la qualité du résultat de l’IA par eux-mêmes. Source: L’étude originale, et Un article de 404media. L’étude se base uniquement sur des questionnaires où les participant.es évaluent leur propre utilisation de l’IA et leur esprit critique.
D’après Anthropic (janvier 2025), 37% de l’utilisation professionnelle de leur LLM se fait dans le domaine de l’informatique, 10% dans le domaine des arts & media et 9% dans le domaine de l’éducation:
Un bémol par rapport à cette étude: Anthropic est peu connu du grand public, et leur LLM est réputé pour être le meilleur pour les tâches de programmation. Il est donc probable que cette étude ne reflète pas l’utilisation de ChatGPT, le LLM le plus populaire, et surreprésente l’usage pour la programmation.
Copyrigth
Des contenus utilisés pour l’entraînement
Meta pirate du contenu pour entrainer son IA (Reuters, janvier 2025): Grâce aux communications internes de Meta, obtenues dans le cadre d’un procès concernant les données d’entraînement de son IA, il apparaît que Meta a utilisé la plus grande base de données de livres piratés (LibGen) pour entraîner son IA.
Meta knowingly used a version of LibGen for which Mr. Bashlykov had written a script “to remove copyright information,” including “the word copyright, the word ‘acknowledgments,’ and matches upon phrases and lines in… the book that did that”
Tout cela avec la validation de Mark Zuckerberg.
memo to Meta’s AI decision-makers noting that after “escalation to MZ,” Meta’s AI team “has been approved to use LibGen”
Meta ne sont pas les seuls à entraîner leur LLMs sur des données dont ils ne possèdent pas les droits. Dans une lettre au parlement britannique, OpenAI déclare “it would be impossible to train today’s leading AI models without using copyrighted materials” (parliament.uk).
En s’adressant au gouvernement américain, OpenAI et Google demandent de légiférer pour les laisser ignorer les droits d’auteur des données d’entraînement. Leur argument: les chinois vont le faire, alors si on ne veut pas se faire dépasser, on doit le faire aussi (The Verge, mars 2025).
Every AI Copyright Lawsuit in the US (The Verge, décembre 2024)
Il existe un standard pour interdire l’accès à son site web aux IA, mais il semble peu respecté par les développeurs de LLMs (Tow Center for Digital Journalism). Il est cependant difficile de prouver qu’un LLM est entrainé sur des sites qui en interdisent l’accès, car même si le LLM reproduit un contenu “interdit”, ce contenu pourrait avoir été récupéré via des copies sur d’autres sites.
Open Source devs say AI crawlers dominate traffic, forcing blocks on entire countries (Ars Technica, mars 2025): En plus d’utiliser des contenus sans autorisation, les entreprises développant des LLMs mettent à mal de nombreux projets open source en inondant leurs serveurs de requêtes pour récupérer des données d’entrainement.
Des contenus générés par l’IA
To Whom Does the World Belong? (Boston Review, décembre 2024): A qui appartient le contenu généré par une IA? Les développeurs, les entreprises, les utilisateurs, les IA elles-mêmes, tout le monde? Peut-être que la notion de propriété intellectuelle n’est pas adaptée au contenu généré par une IA.
we can’t afford to wait for all the money and power to accrue to Silicon Valley and then get together to have a big think about redistributing. We need to consider these rules now and work immediately toward a new intellectual property framework
Cette question a une grande importance, les IA génératives peuvent générer de la propriété intellectuelle plus rapidement que jamais, et d’après une étude de 2010, “The value of intellectual property exceeds 65% for Fortune 500 companies and exceeds 90% for certain technology-based companies within the list” (cité depuis The Value of Intellectual Property).
Pour l’instant, aux US, la décision des juges est que les contenus générés par de l’IA ne sont pas protégés par un copyright (Reuters, mars 2025)
Mais aussi…
People are using Google’s new AI model to remove watermarks from images (Techcrunch, mars 2025): Il semble que Gemini soit très efficace pour enlever les “watermarks” sur les images, ce qui facilite le vol d’images.
Travail caché
Sur le travail d’annotation:
- AI Is a Lot of Work (The Verge, juin 2023)
- OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic (Time, janvier 2023)
Becoming a chatbot (The Guardian, décembre 2022): Derrière un chatbot pour une agence immobilière se cachaient 60 personnes qui relisaient les réponses du chatbot et prenaient le relais quand nécessaire.
Impacts environnementaux
Consommation électrique
Powering Artificial Intelligence (Deloitte, novembre 2024): Deloitte estime que la consommation électrique liée à l’IA a augmenté de 47% par an entre 2020 et 2023, et devrait continuer à augmenter de 28% à 44% par an pendant les années à venir.
Data center emissions probably 662% higher than big tech claims (The Guardian, septembre 2024): Les déclarations des GAFAM sur leur empreinte carbone sont trompeuses car elles se basent sur l’achat massif de certificats verts pour compenser leur émissions réelles. Les émissions réelles de leurs data centers sont beaucoup plus élevées: probablement 3x plus pour Google, 21x plus pour Microsoft et 3000x plus pour Meta. On parle ici de toutes les activités des data centers, pas seulement celles liées à l’IA.
AI needs so much power, it’s making yours worse (Bloomberg, décembre 2024): Les data centers semblent créer des distorsions sur le réseau électrique environnant (en ajoutant des harmoniques sur le courant alternatif), ce qui peut endommager les appareils électriques des habitants.
Ce ne sont pas les impacts environnementaux qui vont freiner les géants de l’IA. L’ancien CEO de google le dit clairement: “We’re not going to hit the climate goals anyway because we’re not organized to do it […] I’d rather bet on AI solving the problem, than constraining it and having the problem.” (Eric Schmidt, cité depuis Mashable, octobre 2024)
EcoLogits propose d’estimer la consommation énergétique d’une requête à un LLM.
Consommation d’eau
Le sujet de la consommation d’eau est complexe. Les data centers utilisent en effet beaucoup d’eau pour refroidir les serveurs, mais l’impact de cette consommation va dépendre de la région, de la source de l’eau, de ce qu’elle devient après utilisation (relachée à plus haute température, évaporée ?), etc.
Cela dit, dans certains cas les data centers semblent avoir un impact direct sur l’accès à l’eau dans la région. Par exemple à Colón, au Mexique, une zone semi-aride où Microsoft, Google et Amazon construisent des data centers grâce aux aides de la région. Microsoft a obtenu le droit d’utiliser l’équivalent de 24% de la consommation d’eau de la commune, alors que les fermiers de la région ont perdu leurs récoltes à cause de sécheresses successives. (Thirsty data centres spring up in water-poor Mexican town, Context, septembre 2024)
Désinformation
Le réseau de désinformation prorusse « Portal Kombat » contamine les IA génératives (next, mars 2025): La Russie utilise un réseau de plusieurs centaines de sites web pour diffuser de la désinformation et du contenu pro-russe. Ce réseau publie près de 10.000 articles par jour, et il semble qu’un de ses objectifs soit de contaminer les données d’entrainement des LLMs. D’après un audit de NewsGuard cette stratégie fonctionne: les principaux LLMs répètent de fausses informations publiées par ce réseau russe dans 33% des tests.
Slop
Quand l’IA slope tout (le pavé numérique, mars 2025): Les outils de génération de vidéo sont utilisés pour inonder les réseaux sociaux. Ces réseaux ne semblent pas vouloir lutter contre cela.
Une vidéo donnant une idée de l’ampleur du phénomène sur youtube: La sagesse selon YouTube : plongée dans un océan de contenu généré par IA (Monsieur Phi, octobre 2024)
Surveillance
L’Oracle de l’Empire (Le Grand Continent, janvier 2025): Dans un discours à propos du projet Stargate (100 milliard d’investissement dans les data centers IA aux US), Larry Ellison (fondateur d’Oracle, un des hommes les plus riches du monde) annonce vouloir filmer tout le monde en permanence et tout analyser via de l’IA:
Nos caméras, ce sont simplement deux objectifs fixés à votre veste et liés à votre smartphone, le tout directement sur votre corps. La caméra est toujours allumée. Vous ne pouvez pas l’éteindre.
Les citoyens aussi se comporteront mieux car nous enregistrons et rapportons tout ce qui se passe. Et c’est inévitable. Les voitures ont aussi des caméras.
Sans travail humain, pas de malveillance humaine, pas d’erreur humaine — et pas de coût humain.
En Belgique, le nouveau gouvernement prévoit d’utiliser la reconaissance faciale et d’étendre les possibilités d’utilisation des caméras de surveillance (Accord de coalition fédérale 2025-2029, p145). C’est apparemment la France qui a poussé pour que ce genre de surveillance par IA soit autorisé en Europe (Investigate Europe, janvier 2025).
La commune de Vernon en France offre un exemple de discours sur les caméras de surveillance couplées à de l’IA. Le maire y tient ces propos: “ça va nous aider face aux problèmes d’incivilités. Demain, une caméra pourrait détecter un mégot de cigarette jeté par terre. J’ai demandé à des prestataires de faire des propositions pour trouver le bon algorithme.” (source: Le Parisien, janvier 2025)
A travers son API “Cloud Vision AI”, Google propose de déterminer l’âge, l’orientation politique ou encore les centres d’intérêt d’une personne sur base d’une photo. On ne sait pas quelle est la précision de cet outil, mais on peut le tester soit-même sur https://theyseeyourphotos.com/.
En février 2025, Google change ses principes de gouvernance pour s’autoriser à développer de l’IA dans le domaine de l’armement et de la surveillance (Le monde).
L’entreprise Cellebrite vend à la police un outil pour déverrouiller les téléphones. Cet outil vient maintenant avec une IA censée résumer les messages et identifier les activités suspectes, ce qui semble peu prudent étant donné que ce genre d’IA pourrait halluciner et inventer des “preuves” (techdirt,mars 2025).
Sécurité & Alignement
Quand les développeurs d’IA parlent des risques liés à l’IA, iels parlent souvent de ce qu’on appelle le problème “d’alignement”. C’est-à-dire, comment s’assurer que l’IA fasse effectivement ce que l’on veut qu’elle fasse, et pas autre chose. Plus on donnera de capacité aux IA d’effectuer des actions et de prendre des décisions ayant un impact réel, plus ce risque sera important. Malheureusement, il semble que plus les IA deviennent performantes, plus il est compliqué de comprendre comment elles fonctionnent et donc de s’assurer qu’elles sont alignées.
AI Safety for Fleshy Humans (Nicky Case & Hack Club): Long article (encore en cours d’écriture) sur les risques liés à l’alignement de l’IA.
o1 et Claude sont-ils capablent de nous manipuler (Monsieur Phi, décembre 2024): Vidéo vulgarisant les résultats des deux articles suivants:
- Frontier Models are Capable of In-context Scheming (synthèse)
- Alignment faking in large language models (synthèse)
Ces articles observent que Les LLMs actuels montrent des comportement problématiques quand mis face à des objectifs contradictoires. Par exemple:
- Sandbagging: l’IA bride ses capacités quand on indique que des capacitées plus élevées mèneront à un réentrainement
- Alignment faking: l’IA répond de manière différente dans un environnement de test que dans un environnement de production
Critique du problème d’alignement
De nombreuses personnes critiques de l’IA considèrent que le problème d’alignement est une diversion qui nous empêche de parler des problèmes actuels liés aux IA, et qui véhicule l’idée que les IA “superintelligentes” sont imminentes, ce qui est très controversé.
Marché
Les LLMs sont jusqu’à présent très loin d’être profitables. OpenAI a dépensé près de 9 milliards en 2024 et n’a généré que 3,7 milliards en revenus (OpenAI Is Growing Fast and Burning Through Piles of Money, NYT, septembre 2024). Anthropic aurait de son côté 5,6 milliards de pertes et moins d’un milliards de revenus pour 2024 (source: Reuters).
ADMS
Cette liste de lecture se concentre surtout sur l’IA générative et en particulier les LLMs, mais il me semble important de parler aussi des systèmes de décision automatisée (ADMS, pour Automated Decision Making Systems).
Quand on parle d’ADMS, on ne s’intéresse pas vraiment à comment fonctionne le système (quel algorithme), mais plutôt à ses conséquences. Par exemple, un algorithme qui identifie des déclarations fiscales à contrôler en priorité est un ADMS, qu’il soit basé sur des règles simples ou un modèle de deep learning.
Les ADMS sont de plus en plus couramment utilisés, et leurs conséquences peuvent être très importantes, en particulier quand elles sont déployées dans des services publics. Ces dernières années ont déjà montré plusieurs échecs de ces systèmes, qui ont souvent mené à des pertes de droits pour des personnes déjà précaires. Pourtant, ces systèmes continuent à être déployés.
Quelques exemples:
- Entre 2014 et 2020, des milliers de familles néérlandaises ont été accusées de fraude par un système automatisé et ont perdu leurs allocations familiales. Cela a fait tomber le gouvernement en 2021. 4 ans plus tard, la plupart des familles n’ont pas encore été dédommagées.
- Machine Bias (Propublica, mai 2016): Un outil utilisé par des tribunaux pour estimer un risque de récidive a un fonctionnement secret et semble biaisé contre les personnes noires.
- l’assurance-maladie coupe dans les indemnités de milliers d’usagers (Mediapart, janvier 2025): En France, un nouveau système automatique de paiement des indemnités de l’assurance-maladie testé dans quelques départements dysfonctionne et des milliers de personnes se retrouvent sans indemnités depuis plusieurs mois.
- Les banques utilisent des algorithmes pour fermer de manière automatisée des comptes qui présentent des comportements suspects. C’est fait dans un objectif de lutte contre la fraude et le blanchiment d’argent, mais ces systèmes souffrent d’un très grand nombre de “faux positifs”, c’est-à-dire des comptes fermés alors qu’ils ne devaient pas l’être. Les conséquences pour les individus et organisations qui perdent leur compte de cette manière peuvent être graves. (Dans les Algorithmes, mars 2025)
Sur le sujet, il est intéressant de suivre le travail de AlgorithmWatch.