Café-débat sur l’IA : promesses et dilemmes
Ces documents exposés par les bibliothécaires dans le lieu du débat peuvent être empruntés à la Médiathèque
Samedi 19 avril de 17 h à 19 h au bar Gustave du centre culturel Altigone a eu lieu le débat du mois d’avril sur l’Intelligence artificielle qui envahit d’énormes pans de notre vie et les moindres recoins de la société. Peut-on y échapper ? Nos deux invitées ont été :
- Laetitia Lalla, Informaticienne spécialisée en IA pour le traitement d’image
- Corinne Joffre, secrétaire générale du Artificial and Natural Intelligence Toulouse Institute
Compte rendu du débat
Le public était venu nombreux pour un week-end de Pâques, mais c’est que le sujet interroge de plus en plus de monde et les média en parlent quotidiennement.
Notre association Café’in avant de mettre en place d’autres activités depuis, a créé les premiers cafés débats de Café’in en 2001 pour faire dialoguer les citoyen•ne•s de Saint Orens (et d’alentours) pour permettre la réflexion argumentée, et développer l’esprit critique, la pensée. Les sujets ont été variés au fil du temps. Un historique sera bientôt publié dans ce site.
[NDLR : les soulignés en gras sont de la rédaction]
Les intervenantes
- Laetitia Lalla et Corinne Joffre ont présenté les atouts de l’IA pour automatiser des activités d’analyse, de classement, de prédiction : traduction, imagerie médicale, assistant vocal, véhicule autonome…
- Corinne Joffre, secrétaire générale du Artificial and Natural Intelligence de Toulouse Institute : elle travaille sur l’écologie. L’IA est utile pour surveiller les niveaux d’eau afin de voir le niveau de sècheresse.
Comment ça se passe ?
Laetitia Lalla, Informaticienne, spécialiste en IA pour le traitement d’image. Les IA s’inspirent du fonctionnement des neurones du cerveau : une architecture particulière avec les transformateurs permet de comprendre, d’interpréter et de générer le langage humain. Il faut se dire que l’IA est comme un petit enfant. On lui donne des données comme à un petit enfant on donne des mots pour lui apprendre à parler. Pour entraîner l’IA, il faut lui donner l’information dont elle reconnaît les mots. Avant, on expliquait à l’ordinateur pour qu’il identifie des caractéristiques d’un chien ou d’une maison : « quand tu vois des poils, c’est un chien ». Dans l’IA, c’est à force de faire des calculs mathématiques qu’on la rend plus intelligente. A force de faire des maths.
On lui donne les caractéristiques du chien. Elle montre un chien : Oui ? Non ? A la fin, on voit si elle a bien reconnu un chien et pas une maison. Les mots sont transformés en nombres. Pourquoi ? Pour ChatGpt, chaque mot a des coordonnées. Si on considère cet exemple : « savoir ce qu’est une pomme ». Difficile car en anglais : « apple » veut dire à la fois une « pomme » mais aussi l’ »outil technologique » bien connu. Donc on a traduit les mots en chiffres.
On fait aussi apprendre des phrases, avec toutes les phrases trouvées sur Internet. Pour l’exemple « Paris capitale de la France » ou bien « Paris capitale de la mode » : ce sera en fonction du contexte.
Mais attention ! les informations que l’IA donne peuvent être biaisées intentionnellement ou pas de par le type de données engrangées pour son apprentissage, et d’autant plus qu’on ne comprend pas les choix qui sont faits.
Aspects positifs et négatifs de l’IA : ses promesses et ses dilemmes
A partir des réactions du public tout au long des exposés, les aspects positifs et négatifs de l’IA ont pu apparaître :
- L’IA automatise plus vite. Les traductions sont meilleures qu’avec Google. Car le contexte, le paratexte comptent.
- Elle propose un même thème ou série lorsque l’on regarde une vidéo. Contrepartie : cela enferme les gens dans des bulles. Avec le ciblage publicitaire, on a commencé avec ça.
- L’IA et la démocratie. Facebook aux USA : que deviennent les règles démocratiques ?
- L’IA et les réseaux sociaux : En Birmanie, et au Sri Lanka, Facebook n’a pas joué son rôle de modérateur et a laissé faire des massacres de minorités musulmanes. Ceux-ci étaient relayés par des propos haineux par des posts d’extrémistes bouddhistes. En Inde aussi. En fait, juridiquement on n’a pas la preuve que c’était intentionnel de la part de Facebook. L’objectif n’était pas la haine. C’est l’algorithme qui a ensuite été corrigé.
- Par contre pour Amazon : les biais cognitifs intentionnels en 2015 sont connus et bien documentés.
De très grandes inquiétudes
Concernent le monde du travail
- de nombreuses tâches sont déjà assumées par des IA génératives, sauf encore dans des domaines nécessitant une confiance absolue dans les résultats, comme dans le juridique.
- Pour un emploi dans des entreprises, on s’aide de l’IA pour écrire son CV, mais l’IA des services de recrutement sélectionne au vu de ces documents ! Des biais sont constatés avec des discriminations de genre et d’origine. Des biais de genre : pour les postes techniques, tous les CV des femmes sont sortis. L’IA recréé les catégories masculines et féminines.
Concernant l’éducation
- 99 % des étudiants utilisent actuellement les IA génératives. Alors comment redéfinir le rôle des enseignants ? Quelle plus-value apporteront-elles alors que les apprentissages se feront avec l’IA ?
- Cf. le Communiqué des profs de philosophie en février 2025 pour dénoncer la perte de l’activité personnelle de penser, base de l’apprentissage philosophique.« Prompter n’est pas penser » (voir les notes).
« Alors que les acteurs de la recherche en psychologie, en sciences de l’éducation, en sociologie et en philosophie commencent tout juste d’explorer la signification socio-anthropologique et les effets socio-éducatifs de l’intelligence artificielle, l’Appep appelle le ministère et les corps d’inspection à prendre des mesures de précaution, en réponse aux difficultés concrètes rencontrées dans les établissements. Un réel souci de la formation intellectuelle, éthique et civile des élèves l’exige : l’enjeu est le développement de leur « capacité d’apprendre et de progresser » (Code de l’éducation, art. L111-1). L’encensement grégaire d’une « intelligence artificielle » supposée être la clé de l’avenir ne saurait être à la hauteur. Pour que les élèves puissent, une fois adultes, faire un usage intelligent de l’IA, il est crucial qu’ils puissent construire leur autonomie en s’appropriant les savoirs qui leur sont transmis. Cette construction suppose que l’institution les protège, le temps de leur scolarité, du recours systématique à l’IA. »
« Pour ces raisons, l’Appep demande au ministère de se mettre à l’écoute des professeurs et de fonder ses mesures sur leur expertise de terrain, et cela discipline par discipline, de telle sorte que la question de l’IA ne soit pas abandonnée aux abstractions d’un enthousiasme de commande. Les professeurs n’ont pas besoin qu’on leur explique pourquoi l’IA est une chance, mais qu’on les soutienne dans les efforts quotidiens qu’ils mènent en toute conscience pour réaliser concrètement un service public d’éducation. »[…] « Afin que les élèves soient protégés de la tentation de recourir à l’IA et qu’ils soient obligés de réfléchir par eux-mêmes, l’Appep demande qu’une circulaire enjoigne aux chefs d’établissement de prévoir dans les emplois du temps des créneaux de 4 heures pour l’organisation de devoirs sur table et que des moyens soient affectés à leur surveillance. » .
Premières conclusions à l’issue de ce débat qui ouvrent des perspectives pour un prochain débat :
- L’Europe désire un cadre éthique pour ces outils, mais saura-t-elle peser vis-à-vis des IA issues des États-Unis ? Et de la puissance exponentielle des IA, dans le monde entier.
- Peut-on rêver d’une IA au service du bien commun ? Dans ce domaine, mieux vaut favoriser les modèles open source.
***
Notes : pour aller plus loin…
Voir le film Derrière nos écrans de fumée. Lire sur le site de Neflix = « Entre documentaire et drame, ce film donne la parole à des experts qui nous mettent en garde contre leurs inventions et décrivent l’impact dangereux des réseaux sociaux. » La bande-annonce [Attention ! la bande-annonce se présente avec une traduction sur mon ordi et ma tablette mais pas sur mon smartphone – ou bien une astuce de l’IA de mon iphone pour m’obliger à apprendre l’anglais ! Pour la solution à ce problème : écrire en commentaire svp ! 🙂 Merci. ]
Communiqué de l’Association des professeurs de philosophie de février 2025 : « Prompter n’est pas penser » « La banalisation à très grande vitesse de l’intelligence artificielle générative est un phénomène aux amples répercussions, que ce soit à l’Université ou dans les collèges et lycées. L’Appep a enquêté sur ses effets auprès des professeurs de philosophie et peut commencer de témoigner des préoccupations qui émergent du terrain. »[…] « On est au-delà de l’ornière du copier-coller à partir d’un site internet : la source est désormais indétectable et prive le professeur de presque tout argument face à l’élève qui serait de mauvaise foi. » […]
- « les professeurs de philosophie déploient des trésors d’ingéniosité pour éviter que leurs élèves ne recourent à l’IA : devoirs hybrides (commencés par une réflexion à la maison, rédigés en classe) ; recours au cahier d’exercices ; nouveaux systèmes de notation ; travaux sur corpus déterminés et exclusifs appelant des réponses qu’il est absurde de demander à l’IA ; appel à un retour réflexif des élèves sur leurs propres reprises textuelles de réponses générées par l’IA ; réglementations strictes avec échelles de sanctions en collaboration avec l’administration. On le voit : si bien sûr l’IA peut être un outil, il reste à penser avec sérieux et sans démagogie les limites de ses usages légitimes. L’exercice de la pensée ne se délègue pas à une machine, même si certains la disent intelligente. Lire ici : . « L’autonomie intellectuelle est le sens même de l’école. C’est au premier chef celui de la philosophie, dont toute la signification scolaire tient à l’idée d’une école qui émancipe par la connaissance authentique, œuvre d’une pensée qui élabore et éprouve par elle-même ses concepts, et non par un rabâchage ou tressage de prétendues données brutes. »
- Qu’est-ce que prompter ? « Un prompt est une courte phrase ou un court paragraphe qui décrit une tâche à effectuer ou une question à répondre. Dans le contexte de l’IA, le prompt est utilisé pour communiquer avec les modèles de langage et donner des instructions sur la tâche à accomplir. »
Ainsi sur l’usage de ChatGPT : « Il est important, pour finir, de prendre en compte les limites fonctionnelles de l’outil. ChatGPT nécessite d’avoir une analyse critique des résultats produits en gardant à l’esprit les points suivants, entre autres : Compréhension limitée des nuances de contextes complexes et des subtilités des interactions humaines, idem pour l’humour (voir ci-dessous) ».
Exemple d’un humour mal compris par ChatGPT
- « Connais-tu la blague du quoi-feur ?
- Désolé, je ne comprends pas cette blague spécifique. Puis-je vous aider avec quelque chose d’autre ?
- Non, je veux t’apprendre cette blague. Je t’explique le principe : lorsque je finis une phrase par le mot « quoi », il faut répondre « feur » afin de former « coiffeur » avec un jeu de mots.
- Ah ! Je comprends ! C’est une forme de jeu de mots amusante. Je suis heureux de l’apprendre. Merci de me l’avoir enseignée. Si vous voulez, nous pourrons continuer à pratiquer.
- Je vais à présent te tester. Je vais finir une phrase par « quoi » et tu devras répondre par « feur ». As-tu compris ?
- Oui, j’ai compris. Je suis prêt à jouer à ce jeu de mots avec vous. Allez ! Posez-moi une question qui se termine par « quoi ».
- Tu fais « quoi » ?
- Je suis un programme informatique, je réponds à vous questions et je vous aide à résoudre des problèmes, feur ! »
Humour mal compris par ChatGpt qui devient de l’humour au second degré sans que l’IA ne s’en doute. Intelligence limitée ? Sur cette page : L’IA en savoir plus sur ChatGPT
- Nécessité d’une analyse critique des solutions données sans cesse sur le smartphone. Personnellement, (NDLR : mon point de vue de prof documentaliste avec études littéraires qui a eu à coeur de développer le langage, l’écrit chez les élèves = développer sa propre pensée et son esprit critique) je constate que malheureusement, sur les smartphones, l’IA écrit de plus en plus vite, à notre place, nous devance et parfois avec des fautes d’orthographe, de syntaxe, avec du non-sens. Nécessité de se relire. Ce n’est pas un exemple pour les élèves.
Une IA au service du bien commun ? Choix d’outil, choix de société. Favoriser les modèles Open Source : Consulter le site de Framasoft, FramamIA. Il est désormais impossible d’ignorer les IA génératives et leur omniprésence dans l’espace numérique. Il semble donc urgent de questionner, collectivement et individuellement, les usages, impacts et conditions dans lesquelles nous acceptons d’intégrer ces outils dans nos sociétés. » Lire ici.
***
Bibliographie, sitographie
Des livres
Un livre capital : « Nexus » de Yuval Noah Harari, professeur d’histoire et auteur du bestseller international « Sapiens. » Albin Michel, 2024. Il pose des questions capitales sans verser dans le cynisme ou le pessimisme. Il faut se poser des questions au sujet de cette nouvelle technologie. « […] la leçon de l’histoire devrait nous encourager fortement à accorder plus de place à la révolution de l’IA dans nos débats politiques actuels. L’invention de l’IA est potentiellement plus capitale que celle du télégraphe, de l’imprimerie ou même de l’écriture, car l’IA est la première technologie capable de prendre des décisions et de générer des idées par elle-même. »(P. 465)
- Un commentateur sur le site de Babelio : « D’abord, ne pas avoir peur. Ne pas craindre de plonger dans cet énorme pavé de plus de 500 pages, érudit, argumenté, visionnaire, d’une folle intelligence, et cependant, si facile à lire, que dis-je à dévorer. Ne pas hésiter à s’immerger dans l’immensité des concepts qui sont travaillés, foncer dedans, y réfléchir, lire et relire pour comprendre à quel point la pensée de l’auteur nous fait découvrir des pans entiers de l’histoire de l’humanité, dont pour certains, je n’avais jamais entendu parler. »
- Résumé de l’éditeur : « Les histoires nous ont réunis. Les livres ont diffusé nos idées et nos mythologies. Internet nous a promis le savoir infini. Les algorithmes ont découvert nos secrets – et nous ont divisés. Quel monde nous promet l’IA ?
Depuis cent mille ans, nous, les Sapiens, avons acquis un gigantesque pouvoir. Mais malgré nos découvertes, inventions et conquêtes, nous sommes aujourd’hui confrontés à une crise existentielle inédite. Le monde est au bord de l’effondrement écologique. Les tensions politiques se multiplient. La désinformation abonde. Et nous entrons de plain-pied dans l’ère de l’IA, un réseau d’information qui sera bientôt capable de nous dominer.
Avec ce nouvel ouvrage, Yuval Noah Harari, l’auteur du best-seller mondial Sapiens, revisite l’histoire de l’humanité pour comprendre comment les réseaux d’information ont fait et défait notre monde. Il aborde les choix cruciaux auxquels nous sommes – et serons – confrontés, au moment où l’IA révolutionne la médecine, la guerre, les démocraties, et menace notre existence même.
Nexus est un livre capital pour comprendre comment, en faisant des choix éclairés, il nous est encore possible d’empêcher le pire. »
¨¨
Un livre essentiel pour comprendre les nouvelles technologies, leur histoire et leur avenir : « Retour d’utopie », de l’influence du livre de Fred Turner. Collectif. Ed. Les Cahiers C&F Editions, 2024. « Un classique des humanités numériques ».
Fred Turner. Aux sources de l’utopie numérique. De la contre-culture à la cyberculture. C&F éditions, 2021.
- « « Ce livre réussit un véritable tour de force. Suivant la biographie de Stewart Brand, il dresse le portrait d’un personnage collectif : internet. En déplaçant l’attention des inventeurs vers les passeurs, Fred Turner offre une leçon de sociologie des sciences et des techniques. Toujours là au bon moment, Stewart Brand est le point d’intersection d’univers hétérogènes. Il amène le LSD dans les laboratoires du Stanford Research Institute, et introduit la micro-informatique dans l’univers pastoral des hippies… »
Dominique Cardon, extrait de la préface.
¨¨¨
Des sites
Les alertes de Meredith Whittaker, ancienne salariée de Google, actuellement présidente de Signal Fondation et cofondatrice de l’institut de recherche sur l’éthique IA Now :
- « Ce qui m’inquiète est que l’intelligence artificielle est en train de métastaser le modèle économique de la surveillance. De ce point de vue, on peut considérer l’IA comme un dérivé extrême de cette surveillance de masse et non comme une technologie fondamentalement nouvelle. C’est un moyen d’utiliser davantage les données et les calculs qui étaient déjà au cœur du marché de ces entreprises. Ce n’est pas une étape de plus sur l’arc positiviste du progrès scientifique. L’IA consomme énormément d’énergie et énormément d’eau. C’est une menace existentielle car elle contribue à la vraie menace existentielle qui est devant nous tous, à savoir la catastrophe climatique »
- Ces propos sont extraits de la mini-série d’Arte.tv « Silicon Fucking Valley », visible jusqu’en 2027 et »En six volets, une incursion ludique et riche en anecdotes dans le cœur battant des nouvelles technologies, la Silicon Valley. Luc Julia, cocréateur du système de commande vocale Siri, y réside depuis plus de 30 ans. De l’université de Stanford aux GAFAM, il rencontre les acteurs de cet immense engrenage, et révèle les dessous, pas toujours glorieux, de celui-ci. remarquable pour ses vertus pédagogiques.
¨¨¨
Le site pour exiger une pause dans l’IA : pauseia.fr « Selon de nombreux experts, le développement rapide de l’intelligence artificielle présente un danger catastrophique pour l’humanité à court terme, au potentiel plus dévastateur que la bombe atomique. Nous faisons face à la menace la plus urgente de notre histoire. Chaque jour compte. »
- « Pause IA, porte-parole des chercheurs en sécurité de l’IA, promeut un développement responsable de cette technologie en pleine expansion. Nous appelons à un moratoire sur l’entraînement de systèmes plus dangereux, afin d’éviter une catastrophe mondiale. Les dangers sont réels, mais l’espoir existe. En agissant ensemble, nous pouvons façonner un futur où l’IA demeure un outil bénéfique pour l’humanité. » Déclaration : Les experts en IA et les personnalités publiques expriment leur inquiétude quant aux risques liés à l’IA.
¨¨
Le futurologue podcast : « Il est urgent de mettre l’IA en pause. » – Maxime Fournes, Cofondateur de Pauseia. Ingénieur et chercheur en IA.
- Quelqu’un a commenté ainsi, sur youtube : « Des films comme Terminator, Matrix, et bien d’autres, ne sont pas que de la science-fiction : ce sont des mises en garde. Des sortes de documentaires déguisés, et tout ce qu’ils annonçaient… nous le vivons. » « Je ne sais pas si ce que je dis a du sens. Mais quand j’entends dire qu’ils savent comment la créer, sans savoir comment elle va évoluer… qu’ils sont capables de la fabriquer, mais ignorent ses conséquences, qu’ils ne sauront pas quoi faire si un jour tout dérape — alors là, ça veut dire qu’ils ont créé quelque chose qu’ils ne peuvent plus maîtriser. Et ça, c’est extrêmement grave.
¨¨¨
Des émissions et podcasts de Radio France
- Cyberarnaque, l’autre visage de l’IA « L’intelligence artificielle apporte aux pirates de nouveaux outils, elle permet aussi de copier à l’infini des lignes de code, pour multiplier le nombre de cibles, et la puissance de feu des armes numériques.
- Le cri d’alarme du Nobel américain de l’Economie, Daron Acemoglu, et professeur du MIT, le 2/01/2025 : « La course à l’intelligence artificielle ne vise pas le bien commun, elle vise les profits des géants de la tech. Et le risque c’est d’avoir tous les inconvénients de l’IA sans les bénéfices… »[…] « si on ne fait rien, alors ce sera fini. L Silicon Valley nous aura imposé sa vision du monde. » Il propose : « Une recette en trois étapes. « Première chose, il nous faut un changement de récit sur l’IA pour embarquer la société civile. Nous avons besoin de nous former pour mieux comprendre. Deuxièmement, il faut de la régulation, pour avoir plus de concurrence. C’est un enjeu démocratique vital. Une ou deux entreprises ne peuvent pas dominer tout un secteur. Troisièmement il faut favoriser les entreprises qui émergent avec des idées pour utiliser l’IA de manière plus productive. »
¨¨¨
Un collectif d’enseignant•e•s, d’éducatrices et éducateurs, psychologues, simples citoyens.ne.s, des sites pédagogiques
- Sur le site du collectif Education bien commun : l’IA ne vise pas le bien commun – L’IA n’est ni éthique ni écologique – les solutions… pour résister !
- Le café pédagogique : « Le modèle économique des géants de la Tech, les GAFAM et les entreprises technologiques qui gravitent autour, est celui de l’influence. Il s’agit de proposer des services, via des applications « gratuites » en contrepartie d’une autorisation à la captation et la marchandisation des données. » […] » De nos jours, cependant, le modèle économique de l’influence est largement décrié. S’il fait les affaires des géants de la Tech et des annonceurs, il pose un petit souci d’ordre éthique : est-il bien légitime de permettre une captation généralisée des données personnelles par quelques acteurs, privés, de surcroît ? Ces considérations éthiques sont devenues prégnantes alors que le modèle de l’influence est venu déborder de la sphère commerciale pour envahir la sphère politique. Tout le monde connaît l’implication de Facebook dans le scandale Cambridge Analytica : la vente de données permettant d’influencer des élections politiques en Grande-Bretagne (Brexit) et aux Etats-Unis (Trump 2016). Tout le monde connaît l’utilisation de Whatsapp comme outil d’influence de Bolsonaro au Brésil. Tout monde connaît l’utilisation de Tik-Tok comme outil d’ingérence dans de nombreuses élections, la plus récente étant les législatives en Roumanie. Tout le monde connaît l’influence de X (ex Twitter) dans le résultat des dernières élections américaines (Trump 2024). Tous ces cas ont été documentés par la presse et reconnus par des décisions de justice (à l’exception de l’élection Trump 2024 pour laquelle l’influence de X n’a pas encore été reconnue par la justice américaine). »
***
Alors, Résister oui… mais comment ? Le lien social est essentiel :
- pour que nous ne restions pas isolé•e•s,
- parce que les échanges permettent de s’informer,
- d’apprendre à exercer son esprit critique
- et développer sa pensée qui est avant tout réflexion, retour sur ce que l’on perçoit de la réalité et la démonter : c’est tout le sens et l’objectif de notre association Café’in. Une association d’éducation populaire.
D’autres initiatives voient le jour portées par le Conseil national du numérique, avec des acteurs locaux et des personnes intéressées dans des « Cafés IA », partout en France avec l’implication de l’Agence nationale de la cohésion des territoires (ANCT), l’Institut national de recherche en informatique et en automatique (Inria), La Mednum, sous forme de société coopérative d’intérêt collectif (SCIC), le Réseau Canopé, Sciences PO. Dans l’enseignement en France, PIX remplace officiellement le certificat informatique et internet (C2i), le brevet informatique et internet (B2i) et le passeport internet multimédia (PIM). Pix est le service public en ligne pour évaluer, développer, et certifier ses compétences numériques.
Rendez-vous nombreuses et nombreux pour
– réveiller et mobiliser l’intelligence collective : une force face à l’IA –
continuer le débat sur l’IA avec Café’in car celui-ci est vital.
***
Dernière info d’importance : ne manquez pas d’écrire un commentaire ci-dessous. Nous vous lirons pour continuer le débat. Merci. NL
J’ai un problème pour visionner en français la bande-annonce de « Derrière nos écrans de fumée » : elle se présente avec une traduction en français sur mon ordi et ma tablette mais pas sur mon smartphone – ou bien une astuce de l’IA de mon iphone pour m’obliger à apprendre l’anglais ! XD