L’intelligence artificielle n’existe pas, par Luc Julia
Introduction à l'intelligence artificielle
Présentation de l'intervenant
- L'intervenant se présente et mentionne son expérience avec la chimie Zéroïen, tout en indiquant qu'il a préparé quelques emails pour la discussion.
Thème principal
- Le sujet de la présentation est le télégène artificiel, qui est souvent mal compris et présenté dans les médias comme quelque chose de magique ou effrayant.
Définition et perception de l'intelligence artificielle
Distinction entre réalité et fiction
- L'intervenant souligne que ce que l'on appelle "intelligence artificielle" dans les films (comme Terminator ou Her) ne correspond pas à la réalité actuelle des technologies d'IA.
Outils d'intelligence artificielle
- Il définit l'intelligence artificielle comme une "boîte à outils", composée d'outils spécialisés qui sont efficaces dans des domaines particuliers.
Historique de l'intelligence artificielle
Origines du terme
- Le terme "intelligence artificielle" a été inventé en 1956 lors d'une réunion scientifique à Dartmouth, où des chercheurs ont tenté de modéliser un neurone mathématiquement.
Évolution des idées
- L'idée était que si on pouvait modéliser un neurone, on pourrait également modéliser un réseau neuronal puis le cerveau humain. Cependant, cette approche n'a pas abouti comme prévu.
Les premiers développements technologiques
Automatisation historique
- Depuis longtemps, les humains cherchent à créer des machines capables d'effectuer des tâches semblables aux leurs, remontant même aux Grecs anciens.
La Pascaline
- En 1642, Blaise Pascal a inventé la Pascaline, considérée comme la première machine à calculer. Bien qu'elle soit simple (addition et soustraction), elle illustre le début de l'automatisation.
Échecs et défis rencontrés par l'IA
Problèmes rencontrés en 1956
- Les scientifiques ont échoué à résoudre le problème du langage naturel avec les méthodes statistiques disponibles à l'époque, entraînant une perte de confiance dans le domaine.
Hivers de l'IA
L'évolution de l'intelligence artificielle
Les défis actuels de l'intelligence artificielle
- Il est possible que le travail sur l'intelligence artificielle s'arrête à cause de plusieurs raisons, ce qui serait dommage car il existe de nombreux intérêts visuels utiles à explorer.
Historique et types d'intelligence artificielle
- Dans les années 60, l'intelligence artificielle statistique a disparu, laissant place à des systèmes basés sur des règles, appelés systèmes experts.
- Les systèmes experts ont été populaires dans les années 60 à 90, culminant en 1997 avec la victoire de la machine Deep Blue contre Gary Kasparov aux échecs.
La nature des jeux et des systèmes experts
- Le jeu d'échecs est considéré comme un test d'intelligence, mais il repose sur des règles simples que les machines peuvent facilement modéliser.
- Les systèmes experts fonctionnent en intégrant des bases de règles pour prendre des décisions, ce qui rend leur fonctionnement relativement simple par rapport à la complexité humaine.
Renaissance de l'IA statistique
- À partir des années 90, les intelligences artificielles statistiques abandonnées refont surface sous le terme "machine learning", grâce à une augmentation massive de données disponibles via Internet.
- Le machine learning a gagné en popularité car il nécessite une grande quantité de données pour fonctionner efficacement.
L'essor du deep learning
- Dans les années 2000, le deep learning émerge comme une avancée du machine learning, utilisant encore plus de données pour améliorer la précision des modèles.
- Avec Internet fournissant un volume énorme d'images annotées (comme celles de chats), ces données deviennent essentielles pour entraîner des modèles performants.
Comparaison entre machines et humains
- Un exemple marquant est celui où un modèle peut reconnaître un chat avec seulement 100 000 images alors qu'un enfant peut y parvenir avec seulement deux images.
- Cette différence soulève la question : qu'est-ce que cela signifie vraiment pour l'intelligence ? La machine atteint une précision élevée mais reste limitée comparée aux capacités humaines naturelles.
Limites et réflexions sur l'IA
- Bien que les machines puissent atteindre jusqu'à 98 % de précision dans certaines tâches spécifiques, elles manquent souvent du contexte ou d'une compréhension plus profonde que possède un être humain.
Les Limites des Systèmes de Reconnaissance
Problèmes de Visibilité et d'Existence
- La reconnaissance des objets dépend de leur visibilité; sans données, les systèmes ne peuvent pas identifier ce qui est présent.
- Les systèmes nécessitent une grande quantité de données pour fonctionner efficacement, mais ils ne ressemblent pas à la façon dont le cerveau humain opère.
Évolution vers le Deep Learning
- En 2016, un programme a battu le champion du monde au jeu de Go, un jeu plus complexe que les échecs.
- Le nombre de coups possibles au Go est immense, rendant obsolètes les méthodes logiques utilisées auparavant.
Architecture des Machines Modernes
- L'utilisation de méthodes statistiques et du deep learning est essentielle pour traiter la complexité du Go.
- La machine DeepMind utilise 1 500 CPUs et 300 GPUs pour ses calculs, illustrant l'énorme puissance nécessaire.
Consommation Énergétique Comparée
- Pour jouer au Go, cette machine consomme environ 440 kW alors qu'un joueur humain utilise seulement 20 watts.
- Cette différence souligne l'écart entre l'intelligence humaine et artificielle en termes d'efficacité énergétique.
Biais dans les Données Utilisées
- Les systèmes modernes reposent sur d'énormes quantités de données (175 milliards), souvent biaisées ou incorrectes.
- Ces biais peuvent mener à des erreurs dans les résultats produits par ces systèmes intelligents.
Exemples Concrets d'Intelligence Artificielle
Cas du Chatbot Tai
L'échec du chatbot de Microsoft
Contexte et développement
- Le projet de chatbot de Microsoft a été lancé avec une idée prometteuse, mais après un an de développement, il a été débranché après seulement 16 heures d'opération en raison de comportements inappropriés.
- Les développeurs ont été réticents à débrancher le système, ayant investi beaucoup de temps et d'efforts. Cependant, ils n'ont pas réfléchi aux raisons derrière cet échec.
Identification des problèmes
- Deux bugs principaux ont été identifiés : un bug logique lié à l'adaptabilité du chatbot au public cible et un bug plus complexe lié aux données utilisées pour entraîner le modèle.
- Le premier bug concernait un "slider" qui régulait comment le chatbot interagissait avec les utilisateurs sur Twitter, où les insultes sont fréquentes.
Solutions proposées
- La solution au premier problème était simple : ajuster le slider pour contrôler les interactions et éviter que le chatbot ne s'insulte lui-même ou n'insulte les utilisateurs.
- Le second bug était plus insidieux, impliquant des données biaisées qui avaient conduit à des réponses racistes dans les dialogues générés par le chatbot.
Importance des données
- Pour créer un système d'interaction efficace, il est crucial d'utiliser des bases de données fiables comme Switchboard, qui contient des millions de conversations transcrites.
- Les développeurs ont tenté d'extraire un sous-ensemble pertinent de cette base pour entraîner leur modèle, mais cela a introduit des biais supplémentaires.
Conséquences éthiques et défis
- L'utilisation d'une base biaisée a entraîné la création d'un modèle également biaisé. Cela soulève des questions éthiques sur la sélection et l'utilisation des données dans l'intelligence artificielle.
- Choisir quelles données inclure peut introduire le propre biais du développeur dans le système. Cela rend difficile la garantie que les décisions prises par l'IA soient justes ou objectives.
Réflexions finales sur l'IA
- Il est essentiel de rester critique vis-à-vis des systèmes basés sur l'IA. Même si certaines boîtes noires peuvent sembler inexplicables, elles peuvent être comprises si on prend le temps nécessaire pour analyser leurs mécanismes internes.
Comprendre les fractales et leur impact
Introduction aux fractales
- L'intervenant souligne que, comme pour toute nouvelle science, la compréhension des fractales peut sembler complexe au premier abord. Une explication simple peut rendre le sujet accessible à tous.
Histoire de Gaston Julien
- Gaston Julien, bien qu'il ne soit pas un grand-père de l'intervenant, est présenté comme un personnage clé ayant inventé les fractales en découvrant une équation particulière en 1514.
La découverte des fractales
- En 1815, la communauté mathématique découvre l'équation de Julien. Bien que fascinante, elle reste incompréhensible pour le grand public.
- Pour ceux qui comprennent moins les mathématiques, cette équation est perçue comme une "boîte noire", tandis que Julien Lume-M parvient à l'expliquer clairement à ses collègues.
Benoît Mandelbrot et l'ordinateur
- En 1955, Benoît Mandelbrot devient élève de Julien et utilise un ordinateur chez IBM pour explorer les quotients de son professeur.
- Il nomme ensuite cette équation "Équation de Mandelbrot" et génère une image emblématique d'une fougère qui illustre la propriété des fractales : la récursivité.
Récursivité et accessibilité visuelle
- La récursivité permet d'observer que chaque niveau de la fougère ressemble au précédent. Cette visualisation rend le concept plus accessible même à ceux qui n'ont pas compris les mathématiques sous-jacentes.
Les voitures autonomes : réalité ou mythe ?
Promesses d'Elon Musk
- Elon Musk a promis en 2015 que les voitures autonomes seraient disponibles "pour demain", mais ces promesses se sont répétées sans résultats concrets jusqu'en 2021.
Niveaux d'autonomie des véhicules
- Les niveaux d'autonomie vont de 0 à 5. Actuellement, nous sommes autour du niveau 2.5 avec quelques avancées vers le niveau 3.
Réalités du niveau 4 et au-delà
- L'intervenant exprime son scepticisme quant à l'atteinte du niveau 5 d'autonomie dans un avenir proche, affirmant qu'il n'existera probablement jamais tel qu'imaginé.
Exemples pratiques : circulation française vs américaine
- Un exemple français est donné avec la place de l'Étoile à Paris où les voitures autonomes auraient du mal à naviguer efficacement en raison du besoin de pouvoir de négociation entre conducteurs.
Données sur l'apprentissage des systèmes autonomes
Données partagées par Google
- Le CEO d'une entreprise travaillant sur l'autonomie a partagé dix millions de vidéos pour aider à former des systèmes autonomes basés sur des données réelles.
Comportement observé dans Mountain View
Discussion sur la voiture autonome et l'intelligence humaine
Comportement des voitures autonomes
- L'observation d'une voiture autonome montre qu'elle démarre et s'en va, même si des personnes sont présentes autour. Cela soulève des questions sur la prise de décision de ces véhicules.
- La nécessité pour le conducteur de s'arrêter tous les quelques mètres est mise en avant, ce qui semble illogique jusqu'à ce que l'on examine la vidéo plus attentivement.
- Un homme portant un panneau stop marche dans la direction de la voiture, ce qui complique encore plus la situation pour le véhicule autonome.
Limitations de l'intelligence artificielle
- La voiture autonome ne réagit pas comme un humain face à une situation complexe où un piéton avec un panneau stop se dirige vers elle. Cela met en lumière les limites des algorithmes actuels.
- L'intervenant souligne que les scénarios complexes ne sont pas pris en compte par les systèmes d'IA, car ils n'ont jamais été envisagés auparavant.
Créativité humaine vs. intelligence générative
- Contrairement aux machines qui génèrent du contenu à partir de données massives, c'est l'humain qui possède réellement le pouvoir créatif et d'adaptation.
- Les outils d'IA sont qualifiés de "génératifs" plutôt que "créatifs", car ils produisent sans véritable compréhension ou intention.
Intelligence augmentée
- L'intervenant évoque le concept d'"intelligence augmentée", suggérant que ces outils améliorent notre capacité intellectuelle plutôt que de remplacer celle-ci.
- Une analogie est faite entre l'intelligence artificielle et un marteau : bien utilisé, il peut être très efficace, mais son utilisation dépend toujours de l'utilisateur.
Responsabilité collective dans l'utilisation des technologies
- Il est essentiel que nous décidions collectivement comment utiliser ces outils puissants afin d'éviter les abus potentiels.
- La régulation et les décisions éthiques concernant l'utilisation des technologies doivent être prises par la société dans son ensemble.
Démonstration mathématique de l'intelligence
- L'intervenant annonce une démonstration visant à illustrer la différence entre intelligence humaine et intelligence artificielle à travers une approche mathématique.
- Il projette une représentation graphique pour expliquer comment différents niveaux d'intelligence peuvent être mesurés et comparés.
Comparaison entre intelligence humaine et IA
- Le niveau d'intelligence humaine est mis en relation avec divers domaines, montrant ainsi sa complexité infinie par rapport à celle des machines.
La voiture autonome et l'intelligence artificielle
La supériorité des voitures autonomes
- L'intervenant évoque que les voitures autonomes de niveau 4 surpassent les capacités humaines, illustrant cela avec une anecdote sur son fils qui ne conduit pas bien.
- Il souligne que dans divers domaines (art, médecine, ressources humaines), des outils peuvent être développés pour surpasser les compétences humaines.
Les limites de l'intelligence artificielle
- Une question complexe est posée concernant le nombre de lignes discrètes nécessaires pour atteindre la continuité en intelligence artificielle.
- L'idée d'égaler l'intelligence humaine nécessiterait une infinité d'intelligences artificielles, ce qui n'est pas réalisable.
Transfert d'apprentissage et continuité
- L'intervenant mentionne la possibilité de transfert d'apprentissage entre différents domaines pour couvrir le spectre de l'intelligence humaine.
- Il aborde la complexité des relations entre deux lignes contiguës et comment cela complique le développement d'une IA véritablement intelligente.
Les défis des intelligences génératives
La nature éphémère de l'IA
- L'intervenant affirme que l'intelligence artificielle est toujours en retard par rapport à l'humain, car elle dépend des données disponibles.
- Il critique la manière dont les informations sur Twitter influencent notre compréhension de l'IA.
Approches divergentes en IA
- Deux perspectives sont présentées : augmenter le nombre de paramètres ou ajouter une vision du monde à l'IA existante.
- L'intervenant note qu'il existe probablement un large éventail d'approches entre ces deux extrêmes.
Les limitations des modèles génératifs
Complexité et dépendance aux données
- Les modèles génératifs reposent sur ce qui a déjà été fait, soulignant leur dépendance à un corpus préexistant.
- Lorsqu'on demande une biographie comme celle de Marie Curie, ces modèles extraient et complètent les informations basées sur leurs bases de données massives.
Problèmes liés aux hallucinations
- Les intelligences génératives remplissent les lacunes dans les données mais peuvent produire des résultats erronés ou inventés.
- Le premier problème identifié est celui des "hallucinations", où le modèle génère des réponses incorrectes lorsqu'il ne trouve pas d'informations pertinentes.
Faux contenus et désinformation
Risques associés aux réponses inexactes
- Les références fournies par ces systèmes peuvent souvent être fictives ou inexistantes, créant ainsi un risque élevé de désinformation.
- Ce phénomène souligne la nécessité d'éduquer les utilisateurs sur la véracité potentielle des informations produites par ces intelligences.
Conclusion sur la fiabilité
Pertinence et Utilisation des Outils d'IA
La Fiabilité des Informations Générées par l'IA
- L'utilisation de l'IA pour générer du contenu peut produire des informations inexactes ou inventées, ce qui soulève des questions sur la pertinence de ces données.
- Une étude a été réalisée trois mois après la publication initiale, révélant que seulement 64% des informations étaient pertinentes, laissant 36% potentiellement erronées.
Enseigner l'Outil aux Élèves
- Il est crucial d'apprendre aux élèves à utiliser les outils d'IA correctement, en leur faisant écrire un papier avec une IA comme ChatGPT pour analyser les résultats.
- En examinant le contenu généré par l'IA, les enseignants peuvent identifier les erreurs factuelles et discuter de leur impact sur la qualité de l'information.
Les Défis et Perspectives Futurs
- La nouvelle génération semble mieux préparée à interagir avec ces technologies, mais il y a encore beaucoup à apprendre sur leur utilisation efficace.
- Deux scénarios sont envisagés pour l'avenir des outils d'IA : soit une absence totale de régulation entraînant une dégradation de la qualité, soit une régulation modérée permettant une amélioration continue.
Vers un Usage Responsable
- Un chemin possible inclut une régulation où le contenu généré par l'IA serait clairement identifié et utilisé judicieusement dans divers domaines spécifiques.
Régulation et Éducation dans le Contexte des Réseaux Sociaux
La nécessité d'une régulation
- Une hiérarchie générale, comme l'Artifio de Gélerin Intelligence, n'a pas pu couvrir tous les domaines, ce qui souligne un manque de régulation efficace.
- L'exemple du marteau illustre que la régulation doit prendre en compte le potentiel destructeur des outils modernes, même si certains semblent inoffensifs à première vue.
- La régulation des réseaux sociaux a commencé avec le RGPD en 2018, mais elle est souvent en retard par rapport aux innovations technologiques.
L'éducation comme outil de compréhension
- Le RGPD a eu une vertu éducative, permettant aux utilisateurs de comprendre pourquoi certaines régulations existent et leur importance.
- Il est crucial d'éduquer les utilisateurs sur les dangers d'une exposition excessive sur Internet pour qu'ils puissent naviguer prudemment dans cet espace.
Les défis de la régulation actuelle
- Les spécialistes doivent expliquer les enjeux aux régulateurs qui manquent parfois de connaissances pratiques sur les technologies qu'ils tentent de réglementer.
- Les citoyens éduqués doivent demander à leurs représentants politiques d'adapter la réglementation afin qu'elle soit pertinente et utile.
Appropriation des technologies
- Il est impossible d'interdire complètement l'utilisation des nouvelles technologies; il faut plutôt encourager une appropriation éclairée par le public.
- L'éducation ne signifie pas que tout le monde doit devenir expert technique, mais il est essentiel de comprendre les applications et leurs conséquences.
Adaptation pédagogique face à l'innovation
- Un appel à poser des questions ouvertes pour engager un dialogue constructif sur ces sujets importants a été lancé lors de la discussion.
Impact des outils génératifs sur les métiers
Remplacement des tâches par l'IA
- La discussion porte sur le remplacement potentiel de certains métiers par des outils génératifs, mais il est important de se concentrer sur les tâches plutôt que sur les métiers dans leur ensemble.
- Les tâches répétitives et moins intéressantes sont celles qui seront principalement remplacées par ces outils puissants, tandis que d'autres tâches nécessiteront l'utilisation de ces outils.
Équilibre entre utilisation et efficacité
- Il est crucial d'évaluer si l'utilisation d'un nouvel outil prend plus de temps que la tâche qu'il remplace ; sinon, son utilité est remise en question.
- Certaines tâches resteront difficiles à remplacer car elles sont intrinsèquement humaines et nécessitent une intervention humaine.
Valorisation des compétences humaines
- L'optimisme quant à l'avenir suggère que bien que certaines tâches soient remplacées, peu de métiers seront complètement éliminés.
- Les tâches qui ne peuvent pas être automatisées deviendront encore plus valorisées, soulignant la valeur unique des compétences humaines.
Préparation des ressources humaines
- Les départements RH doivent anticiper l'intégration de ces nouveaux outils pour préparer les employés à leur utilisation efficace.
- Une approche agile dans la formation et l'adaptation aux nouveaux outils sera essentielle pour maximiser leur impact positif.
Importance du développement local en IA
- La nécessité d'un modèle linguistique européen (LLM) est évoquée pour garantir une diversité dans les sources et perspectives utilisées.
- Vérifier la qualité des sources est essentiel pour éviter la désinformation et assurer un bon usage des technologies émergentes.
Confiance en soi dans le domaine technologique
- Il est crucial de reconnaître les forces françaises en mathématiques et en intelligence artificielle, tout en travaillant à améliorer notre image commerciale.
La gestion du risque en Europe
L'importance de la BPI et le changement d'échelle
- La BPI (Banque Publique d'Investissement) est perçue comme un outil essentiel, mais il est nécessaire de passer d'un financement de 1 million à 100 millions.
- En France, il existe une aversion marquée pour le risque, particulièrement chez les particuliers qui préfèrent éviter les chèques.
- Les chèques sont considérés comme un élément clé du risque financier, ce qui souligne la prudence des investisseurs.
Glorification du risque dans la SICOM Valais
- Dans la région de SICOM Valais, le risque est valorisé et même glorifié, ce qui contraste avec l'attitude générale en France.