Movatterモバイル変換


[0]ホーム

URL:


Aller au contenu
Wikipédial'encyclopédie libre
Rechercher

Intelligence artificielle

Un article de Wikipédia, l'encyclopédie libre.
Page d’aide sur l’homonymie

Pour les articles homonymes, voirA.I. Intelligence artificielle (film) etIA.

Intelligence artificielle
Partie de
Pratiqué par
Chercheur ou chercheuse en intelligence artificielle(d),ingénieur en intelligence artificielleVoir et modifier les données sur Wikidata
Champs
Histoire

modifier -modifier le code -modifier WikidataDocumentation du modèle

L'intelligence artificielle (IA) est l'ensemble des programmes ou algorithmes permettant aux machines d'effectuer des tâches typiquement associées à l'intelligence humaine, comme l'apprentissage, leraisonnement, larésolution de problème, laperception ou laprise de décision. L'intelligence artificielle est également le champ de recherche visant à développer de telles machines ainsi que les systèmes informatiques qui en résultent.

L'IA est un domaine de l'informatique qui s'appuie sur des fondements mathématiques (statistiques,algèbre linéaire, probabilités) et des concepts issus dessciences cognitives. Elle vise à résoudre des problèmes à fortecomplexitélogique oualgorithmique. Par extension, dans lelangage courant, l'IA inclut les dispositifs imitant ou remplaçant l'homme dans certaines mises en œuvre de sesfonctions cognitives[1].

Lesapplications de l'IA couvrent de nombreux domaines, notamment lesmoteurs de recherche, lessystèmes de recommandation, l'aide au diagnostic médical, lacompréhension du langage naturel, lesvoitures autonomes, leschatbots, les outils degénération d'images, les outils de prise de décision automatisée, les programmes compétitifs dans desjeux de stratégie et certainspersonnages non-joueurs dejeu vidéo[2].

Le champ de recherche, établi en 1956[3], a connu des périodes d'optimisme et de déception au cours duXXe siècle[4]. Dès 2012, l'utilisation deprocesseurs graphiques a permis de largement accélérer les réseaux de neurones, favorisant l'adoption de l'apprentissage automatique au détriment d’approches reposant sur des règles explicitement programmées[5]. Cette tendance s'est renforcée en 2017 avec l'apparition de l'architecturetransformeur[6] et desgrands modèles de langage, qui sont entraînés sur de grandes quantités de texte issu d'internet. En 2022, l'IA générative a été largement popularisée avec la sortie deChatGPT[7]. Des modèles de génération de musique,d'images oude vidéos ont également vu le jour.

L'IA suscite des inquiétudes concernant l'emploi[8], ladésinformation[9],son impact environnemental[10], et la protection des données personnelles[11]. Certains estiment que les progrès en intelligence artificielle pourraient représenter unrisque existentiel[12].

Définition

[modifier |modifier le code]
Article connexe :Réglementation de l'intelligence artificielle.

L’expression « intelligence artificielle », souvent abrégée par le sigle « IA » (ou « AI » en anglais, pourartificial intelligence) a été introduite en 1956 parJohn McCarthy, qui l’a définie en 2004[13] comme« la science et l'ingénierie de la fabrication de machines intelligentes, en particulier de programmes informatiques intelligents. Elle est liée à la tâche similaire qui consiste à utiliser des ordinateurs pour comprendre l'intelligence humaine, mais l'IA ne doit pas se limiter aux méthodes qui sont biologiquement observables »[14].

PourMarvin Lee Minsky, l'un de ses créateurs, l'IA est« la construction de programmes informatiques qui s'adonnent à des tâches qui sont, pour l'instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l'apprentissage perceptuel, l'organisation de la mémoire et le raisonnement critique »[a],[15]. Cette définition combine l'aspect « artificiel » desordinateurs et des processus informatiques, aux aspects « intelligents » d'imitation decomportements humains, notamment de raisonnement et d'apprentissage. Celui-ci est à l'œuvre dans les jeux, dans la pratique desmathématiques, dans lacompréhension du langage naturel, dans la perception visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d'autres capteurs, dans la commande d'unrobot dans un milieu inconnu ou hostile.

Avant les années 2000, d'autres définitions sont proches de celle de Minsky, mais varient sur deux points fondamentaux[16] :

  • les définitions qui lient l'IA à un aspecthumain de l'intelligence et celles qui la lient à un modèle idéal d'intelligence, non forcément humaine, nomméerationalité ;
  • les définitions qui insistent sur le fait que l'IA a pour but d'avoirtoutes les apparences de l'intelligence (humaine ou rationnelle), et celles qui insistent sur le fait que lefonctionnement interne du système d'IA doit ressembler également à celui de l'être humain et être au moins aussirationnel.
Bulles imbriquées pour positionner les notions d'IA, de machine learning et de deep learning.
Diagramme de Venn montrant comment s'imbriquent les notions d'intelligence artificielle, d'apprentissage automatique et d'apprentissage profond.

Le grand public confond souvent l'intelligence artificielle avec l'apprentissage automatique (machine learning) et l'apprentissage profond (deep learning). Ces trois notions diffèrent et sont en réalité imbriquées : l'intelligence artificielle englobe l'apprentissage automatique, qui lui-même englobe l'apprentissage profond[17].

Les définitions font souvent intervenir[18],[19] :

  • une capacité à percevoir l'environnement et à prendre en compte la complexité du monde réel ;
  • un traitement de l'information (collecter et interpréter des intrants, captés sous forme de données) ;
  • des prises de décision (y compris dans le raisonnement et l'apprentissage), choix d'actions, exécution de tâches (dont d'adaptation, de réaction aux changements de contexte…), avec un certain niveau d'autonomie ;
  • la réalisation d'objectifs spécifiques (raison ultime des systèmes d'IA).

Le groupeAI Watch note que les IA peuvent aussi être classées en fonction des familles d’algorithmes et/ou des modèles théoriques qui les sous-tendent, des capacités cognitives reproduites par l’IA, des fonctions exécutées par l’IA. Les applications de l’IA peuvent, elles, être classées en fonction du secteur socioéconomique et/ou des fonctions qu'elles y remplissent[18].

Une manière de définir l'intelligence artificielle est de considérer ses applications et les types de tâches qu'elle résout. Un rapport de laCommission européenne publié en 2020 présente une taxonomie classant les définitions de l'IA selon diverses tâches réalisées, telles que le raisonnement, l'apprentissage, la perception, etc.[20]. La même année, le professeur Jack Copeland propose une définition similaire, qui permet de distinguer plus clairement les facettes de l'IA, selon cinq catégories principales[20] :

  1. L'apprentissage généralisé : l'IA apprend à partir de données diverses pour identifier des modèles et appliquer ces connaissances à de nouvelles situations, comme détecter des fraudes en ligne ;
  2. Leraisonnement : cette capacité permet à l'IA de faire des prédictions et tirer des conclusions à partir des données, aidant dans des décisions comme la prédiction de comportements d'achat ;
  3. La résolution de problèmes : l'IA trouve des solutions optimales pour des problèmes spécifiques, utilisée dans des contextes comme l'optimisation industrielle ou les stratégies de jeu ;
  4. Laperception : elle permet à l'IA de reconnaître et interagir avec son environnement, utilisée dans la robotique avancée et les véhicules autonomes pour naviguer et accomplir des tâches ;
  5. Lacompréhension du langage : l'IA analyse et génère du langage à travers le NLP, utilisé dans des applications comme les assistants vocaux et leschatbots pour améliorer l'interaction utilisateur.

Techniques

[modifier |modifier le code]

Apprentissage automatique

[modifier |modifier le code]

L'apprentissage automatique consiste à permettre au modèle d'IA d'apprendre à effectuer une tâche au lieu de spécifier exactement comment il doit l'accomplir[21]. Le modèle contient des paramètres dont les valeurs sont ajustées tout au long de l'apprentissage. La méthode de larétropropagation du gradient est capable de détecter, pour chaque paramètre, dans quelle mesure il a contribué à une bonne réponse ou à une erreur du modèle, et peut l'ajuster en conséquence. L'apprentissage automatique nécessite un moyen d'évaluer la qualité des réponses fournies par le modèle[22]. Les principales méthodes d'apprentissage sont :

En apprentissage supervisé, les réponses sont connues, tandis qu'en apprentissage non supervisé, l'algorithme découvre des structures dans les données par lui-même[21].
Apprentissage supervisé
Unjeu de données annoté est utilisé pour entraîner l'algorithme. Il contient des données d'entrée fournies au modèle et les réponses correspondantes attendues, que le modèle est entraîné à produire[21]. Il est parfois difficile de se procurer suffisamment de données annotées avec les réponses attendues[23].
Apprentissage non supervisé
Un jeu de données est fourni au modèle, mais n'est pas annoté avec les réponses attendues. Le but peut par exemple être de regrouper les données similaires entre elles[21] (clustering).
Apprentissage auto-supervisé
Un problème d'apprentissage supervisé estautomatiquement généré à partir d'un jeu de données non annoté. Cela fonctionne souvent en cachant une partie des informations (des mots d'un texte, des morceaux d'images…) afin d'entraîner le modèle à les prédire[24].
Apprentissage par renforcement
L'agent est plongé dans un environnement où ce qu'il fait est évalué. Par exemple, un agent peut apprendre à jouer aux échecs en jouant contre lui-même, et le résultat (victoire ou défaite) permet à chaque itération d'évaluer s'il a bien joué. Il n'y a dans ce cas pas besoin de jeu de données[21].

Réseaux de neurones

[modifier |modifier le code]
Exemple de réseau de neurones comprenant deux neurones d'entrée (en vert), une couche « cachée » de neurones (en bleu) et un neurone de sortie (en jaune).

Lesréseaux de neurones artificiels sont inspirés du fonctionnement ducerveau humain : lesneurones sont en général connectés à d'autres neurones en entrée et en sortie. Les neurones d'entrée, lorsqu'ils sont activés, agissent comme s'ils participaient à unvote pondéré pour déterminer si un neurone intermédiaire doit être activé et ainsi transmettre un signal vers les neurones de sortie. En pratique, pour l'équivalent artificiel, les « neurones d'entrée » ne sont que des nombres et les poids de ce « vote pondéré » sont des paramètres ajustés lors de l'apprentissage[25],[26].

Hormis lafonction d'activation, les réseaux de neurones artificiels n'effectuent en pratique que des additions et desmultiplications matricielles, ce qui fait qu'ils peuvent être accélérés par l'utilisation deprocesseurs graphiques[27]. En théorie, un réseau de neurones peut approximer n'importe quellefonction[28].

Pour de simplesréseaux de neurones à propagation avant (feedforward en anglais), le signal ne passe que dans une direction. Avec lesréseaux de neurones récurrents, le signal de sortie de chaque neurone est réinjecté en entrée de ce neurone, permettant d’implémenter un mécanisme de mémoire à court terme[29]. Lesréseaux neuronaux convolutifs, qui sont particulièrement utilisés entraitement d'images, introduisent une notion de localité. Leurs premières couches identifient des motifs relativement basiques et locaux comme des contours, là où les dernières couches traitent de motifs plus complexes et globaux[26].

Apprentissage profond
[modifier |modifier le code]

L'apprentissage profond (deep learning en anglais) utilise de multiples couches de neurones entre les entrées et les sorties, d'où le terme « profond »[30]. L'utilisation de processeurs graphiques pour accélérer les calculs et l'augmentation des données disponibles a contribué à la montée en popularité de l'apprentissage profond. Il est utilisé notamment envision par ordinateur, enreconnaissance automatique de la parole et entraitement automatique des langues[31] (ce qui inclut lesgrands modèles de langage).

Grands modèles de langages
[modifier |modifier le code]

Lesgrands modèles de langage sont desmodèles de langage ayant des milliards de paramètres. Ils reposent très souvent sur l'architecturetransformeur[32].

Lestransformeurs génératifs préentraînés (Generative Pretrained Transformers ouGPT en anglais) sont un type particulièrement populaire de grand modèle de langage. Leur « pré-entraînement » consiste à prédire, étant donnée une partie d'un texte, letoken suivant (untoken étant une séquence de caractères, typiquement un mot, une partie d'un mot, ou de la ponctuation). Cet entraînement à prédire ce qui va suivre, répété pour un grand nombre de textes, permet à ces modèles d'accumuler des connaissances sur le monde. Ils peuvent ensuite générer du texte semblable à celui ayant servi au pré-entraînement, en prédisant un à un lestokens suivants. En général, une autre phase d'entraînement est ensuite effectuée pour rendre le modèle plus véridique, utile et inoffensif. Cette phase d'entraînement (utilisant souvent une technique appeléeRLHF) permet notamment de réduire un phénomène appelé « hallucination », où le modèle génère des informations d'apparence plausible mais fausses[33].

Avant d'être fourni au modèle, le texte est découpé entokens. Ceux-ci sontconvertis en vecteurs qui en encodent le sens ainsi que la position dans le texte. À l'intérieur de ces modèles se trouve une alternance de réseaux de neurones et de couches d'attention. Les couches d'attention combinent les concepts entre eux, permettant de tenir compte du contexte et de saisir des relations complexes[34].

Ces modèles sont souvent intégrés dans desagents conversationnels, aussi appelés chatbots, où le texte généré est formaté pour répondre à l'utilisateur. Par exemple, l'agent conversationnelChatGPT exploite les modèlesGPT-3.5 etGPT-4[35]. En 2023 font leur apparition des modèles grand public pouvant traiter simultanément différents types de données comme le texte, le son, les images et les vidéos, telGoogle Gemini[36].

Recherche et optimisation

[modifier |modifier le code]

Certains problèmes nécessitent de chercher intelligemment parmi de nombreuses solutions possibles.

Recherche locale

[modifier |modifier le code]
Illustration de ladescente de gradient pour trois points de départ différents, faisant varier deux paramètres de sorte à minimiser lafonction de coût représentée par la hauteur.

Larecherche locale, ou recherche par optimisation, repose sur l'optimisation mathématique pour trouver une solution numérique à un problème, en améliorant progressivement la solution choisie[37].

En particulier, en apprentissage automatique, ladescente de gradient permet de trouver une solutionlocalement optimale, étant donné unefonction de coût à minimiser en faisant varier les paramètres du modèle. Elle consiste, à chaque étape, à modifier les paramètres à optimiser dans la direction qui permet de réduire le mieux la fonction de coût. La solution obtenue estlocalement optimale, mais il se peut qu'il y ait globalement de meilleures solutions, qui auraient pu être obtenues avec différentes valeurs initiales de paramètres[37]. Les modèles d'IA modernes peuvent avoir des milliards de paramètres à optimiser, et utilisent souvent des variantes plus complexes et efficaces de la descente de gradient[32].

Lesalgorithmes évolutionnistes, inspirés de lathéorie de l'évolution, utilisent une forme de recherche par optimisation. À chaque étape, des opérations telles que la« mutation » ou le« croisement » sont effectuées de manière aléatoire pour obtenir différentes variantes, et les variantes les mieux adaptées sont sélectionnées pour l'étape suivante[37].

Recherche dans l'espace des états

[modifier |modifier le code]

La recherche dans l'espace des états vise à trouver un état accomplissant l'objectif à travers un arbre des états possibles[38]. Par exemple, la recherche antagoniste est utilisée pour des programmes jouant à des jeux tels que leséchecs ou lego. Elle consiste à parcourir l'arbre des coups possibles par le joueur et son adversaire, à la recherche d'un coup gagnant[39]. La simplerecherche exhaustive est rarement suffisante en pratique vu le nombre d'états possibles. Desheuristiques sont utilisées pour prioriser les chemins les plus prometteurs[40].

Intelligence artificielle quantique

[modifier |modifier le code]

L'IA quantique est un domaine de recherche interdisciplinaire qui vise à exploiter les propriétés uniques de laphysique quantique (dont lasuperposition quantique et l'intrication quantique) pour résoudre des problèmes complexes inaccessibles aux IA classiques, au moyen d'ordinateurs quantiques exécutant de nouveaux types d'algorithmes. Certains experts estiment que l'informatique quantique pourrait à long terme améliorer les performances des systèmes d'apprentissage automatique[41].

Comportements prédéfinis (imitation d'intelligence)

[modifier |modifier le code]
Article connexe :Intelligence artificielle dans le jeu vidéo.

Pour les intelligences artificielles servant principalement à donner une impression d'intelligence dans un cadre contrôlé, notamment pour lespersonnages non-joueurs desjeux vidéo, il est courant que l'apprentissage automatique ne soit pas utilisé. Un ensemble de fonctions et comportements plus précises et moins flexibles sont alors implémentés.

Il s'agit souvent de liste de textes ou paroles prédéfinis, aux déclenchements parfois conditionnels, par exemple un choix de mouvements suivant une série de règles et des déplacements derecherche de chemin.

Logique

[modifier |modifier le code]

Lalogique formelle est utilisée pour leraisonnement et lareprésentation des connaissances. Elle se décline en deux principales formes, lalogique propositionnelle et la logique prédicative. La logique propositionnelle opère sur des affirmations qui sont vraies ou fausses, et utilise la logique connective avec desopérateurs tels que « et », « ou », « non » et « implique ». La logique prédicative étend la logique propositionnelle et peut aussi opérer sur des objets, prédicats ou relations. Elle peut utiliser desquantificateurs comme dans « Chaque X est un Y » ou « Certains X sont des Y »[42].

L'inférence logique (oudéduction) est le processus qui consiste à fournir — à l'aide d'unmoteur d'inférence — une nouvelle affirmation (la conclusion) à partir d'autres affirmations connues comme étant vraies (lesprémisses). Unerègle d'inférence décrit les étapes valides d'unepreuve ; la plus générale est larègle de résolution. L'inférence peut être réduite à la recherche d'un chemin amenant des prémisses aux conclusions, où chaque étape est une application d'une règle d'inférence[42]. Mais à part pour de courtes preuves dans des domaines restreints, la recherche exhaustive prend beaucoup de temps.

Lalogique floue assigne desvaleurs de vérité entre 0 et 1, permettant de gérer des affirmations vagues, comme « il fait chaud »[43]. Lalogique non monotone permet d'annuler certaines conclusions[42]. Diverses autres formes de logique sont développées pour décrire de nombreux domaines complexes.

Méthodes probabilistes et gestion de l'incertitude

[modifier |modifier le code]
Un exemple deréseau bayésien, et les tables de probabilité conditionnelle associées.

De nombreux problèmes en IA (raisonnement, planification, apprentissage, perception, robotique, etc.) nécessitent de pouvoir opérer à partir d'informations incomplètes ou incertaines[44].

Certaines techniques reposent sur l'inférence bayésienne, qui fournit une formule pour mettre à jour desprobabilités subjectives étant données de nouvelles informations. C'est notamment le cas desréseaux bayésiens. L'inférence bayésienne nécessite souvent d'être approximée pour pouvoir être calculée[45].

Lesméthodes de Monte-Carlo sont un ensemble de techniques pour résoudre des problèmes complexes en effectuant aléatoirement de nombreuses simulations afin d'approximer la solution[46].

Les réseaux de neurones peuvent aussi être optimisés pour fournir des estimations probabilistes[47].

Séparation des données en deux groupes (partitionnement) par unalgorithme de maximisation de l'espérance.

Des outils mathématiques précis ont été développés pour analyser comment desagents intelligents peuvent faire des choix et des plans en utilisant lathéorie de la décision, la maximisation de l'espérance et la théorie de la valeur de l'information. Ces techniques comprennent des modèles tels que lesprocessus de décision markoviens, lathéorie des jeux et lesmécanismes d'incitation[45].

Classifieurs et méthodes statistiques

[modifier |modifier le code]

De nombreux modèles d'IA ont pour but d'assigner une catégorie (classification), une valeur (régression) ou une action à des données fournies. Les méthodes de classification comprennentarbres de décision,k plus proches voisins,machine à vecteurs de support ouclassification bayésienne naïve[48],[45]. Les réseaux de neurones peuvent également faire de la classification[49].

Histoire

[modifier |modifier le code]
Articles détaillés :Histoire de l'intelligence artificielle etChronologie de l'intelligence artificielle.
Lecanard artificiel deVaucanson (1738).

Comme précurseur à l'intelligence artificielle, diversautomates ont été créés au cours de l'histoire, dont lecanard de Vaucanson ou les automates d'Al-Jazari. Certains automates remontent à l'Antiquité et étaient utilisés pour des cérémonies religieuses[50]. Des mythes et rumeurs rapportent également la création d'êtres intelligents, par exemple lesgolems[51].

Des philosophes et mathématiciens commeRaymond Lulle,Leibniz ouGeorge Boole ont cherché à formaliser le raisonnement et la génération d'idées[52].

AuXXe siècle,Alan Turing a notamment inventé un modèle de calcul par la suite appelémachine de Turing, exploré la notion decalculabilité et d'intelligence des machines, et proposé le« jeu de l'imitation » (test de Turing) pour évaluer l'intelligence de futures machines[52]. Le terme« intelligence artificielle » a été mis en avant parJohn McCarthy lors de laconférence de Dartmouth en 1956, où l'intelligence artificielle a été établie en tant que discipline à part entière[3],[53]. Dans les années qui ont suivi, des chercheurs ont proposé diversespreuves de concept, dans des situations spécifiques, de ce que les machines peuvent faire en théorie. Par exemple, le programmeELIZA pouvait se faire passer pour un psychothérapeute, et leLogic Theorist pouvait démontrer des théorèmes[54].

La fin du siècle a été marquée par des périodes d'enthousiasme, et deux périodes de désillusion et de gel des financements appelées« hivers de l'IA »[4], la première de 1974 à 1980 et la seconde de 1987 à 1993. Lessystèmes experts ont été particulièrement populaires dans les années 1980, malgré leur fragilité et la difficulté à implémenter manuellement les bonnes règles d'inférences[54]. Des techniques d'apprentissage automatique se sont développées (réseaux de neurones,rétropropagation du gradient,algorithmes génétiques) ainsi que l'approcheconnexionniste[54]. Mais les faibles puissances de calcul et le manque de données d'entraînement limitaient leur efficacité. Certains domaines n'ont progressivement plus été considérés comme faisant partie de l'intelligence artificielle, à mesure qu'une solution efficace était trouvée[55] ; un phénomène parfois appelé« effet IA ». En 1997, pour la première fois, un supercalculateur a gagné plusieursparties au jeu d'échec contre le champion du monde.

Dans les années 2010, lesassistants personnels intelligents sont l'une des premières applications grand public de l'intelligence artificielle.

Dans les années 2000, leWeb 2.0, lebig data et de nouvelles infrastructures et capacités de calcul ont permis l'exploration de masses de données sans précédent. En 2005, le projetBlue Brain a débuté, ayant pour objectif desimuler le cerveau demammifères[56]. En 2012, leréseau neuronal convolutifAlexNet a lancé l'utilisation deprocesseurs graphiques pour entraîner desréseaux de neurones, décuplant ainsi les capacités de calcul dédiées à l'apprentissage[5]. En 2016, un programme a gagné quatre descinq parties de go jouées contreLee Sedol, l'un des meilleurs joueurs au monde. Des organisations visant à créer uneintelligence artificielle générale ont vu le jour, commeDeepMind en 2010[57] etOpenAI en 2015[58]. Dès les années 2010, des outils d'intelligence artificielle (spécialisée ougénérative) ont accompli des progrès spectaculaires, mais restent loin des performances du vivant dans beaucoup de ses aptitudes naturelles, en particulier sur son aptitude à apprendre rapidement à partir d'un faible volume d'information (parinduction), selon le magazineSlate en 2019[59].

En 2017, des chercheurs deGoogle ont proposé l'architecturetransformeur, qui a servi de base auxgrands modèles de langage. En 2018,Yann Le Cun,Yoshua Bengio etGeoffrey Hinton ont remporté leprix Turing pour leurs travaux sur l'apprentissage profond[60],[61].

En 2022, des programmes générant des images à partir de descriptions textuelles, commeMidjourney ouDALL-E 2, se sont popularisés[62]. La même année, l'agent conversationnelChatGPT a connu une croissance inédite, gagnant un million d'utilisateurs en seulement cinq jours[63] et cent millions d'utilisateurs en deux mois[64], ce qui a accentué un phénomène de« course » à l'IA[65]. En 2023, les progrès rapides de l'IA ont suscité des inquiétudes quant à un potentiel risque d'extinction de l'humanité[66]. Desmodèles de fondation « multimodaux », c'est-à-dire capables de traiter simultanément plusieurs modalités (texte, images, son) ont émergé, tels queGoogle Gemini[67] etGPT-4o[68].

De nouvelles infrastructures matérielles se sont développées, exploitant notamment les processeurs graphiquesBlackwell et lesTPU. Des recherches explorent également les potentielles applications de l'ordinateur quantique en AI. Le concept d'« usine d'IA » s'est également concrétisé, qui comprend des infrastructures intégrées combinant production et entraînement de modèles à grande échelle avec des supercalculateurs et des centres de données dédiés. En 2025, plusieurs projets de ce type étaient annoncés, notamment aux États-Unis et en Europe, comme le partenariat entre l'Allemagne et Nvidia[69].

Intelligence artificielle générale

[modifier |modifier le code]
Article détaillé :intelligence artificielle générale.

L'intelligence artificielle générale (IAG) comprend tout système informatique capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâchecognitive propre aux humains ou autres animaux[70]. Elle peut alternativement être définie comme un système informatique surpassant les humains dans la plupart des tâches ayant un intérêt économique[71].

L'intelligence artificielle générale a longtemps été considérée comme un sujet purement spéculatif[72]. Certains travaux de recherche ont déjà décritGPT-4 comme ayant des « étincelles » d'intelligence artificielle générale[73],[74]. Les experts en intelligence artificielle affichent de larges désaccords et incertitudes quant à la date potentielle de conception des premières intelligences artificielles générales (parfois appelées « intelligences artificielles de niveau humain »), leur impact sur la société, et leur potentiel à déclencher une « explosion d'intelligence »[75].

Un sondage de 2022 suggère que 90 % des experts en IA pensent que l'IAG a plus d'une chance sur deux d'être réalisée dans les100 ans, autour d'une datemédiane de 2061[76].

Unesuperintelligence artificielle est un type hypothétique d'intelligence artificielle générale dont les capacités intellectuelles dépasseraient de loin celles des humains les plus brillants[77]. Le philosopheNick Bostrom note que les machines disposent de certains avantages par rapport aux cerveaux humains, notamment en ce qui concerne la mémoire, la vitesse (la fréquence desprocesseurs étant de l'ordre de dix millions de fois plus élevée que celle des neurones biologiques) et la capacité à partager des connaissances[78].

Tests

[modifier |modifier le code]

Dans ce contexte, un test est un moyen d'évaluer les capacités d'une intelligence artificielle à imiter certains comportements et raisonnements humains.

Test de Turing

[modifier |modifier le code]
Le test de Turing évalue la capacité à se faire passer pour un humain dans un dialogue écrit, mais incite donc aussi à imiter les défauts humains.

Dans letest de Turing, une machine et un humain répondent textuellement aux questions d'un interrogateur humain. L'interrogateur ne les voit pas mais doit déterminer à partir des réponses textuelles lequel des deux est la machine. Pour passer le test, la machine doit parvenir une bonne partie du temps à tromper l'interrogateur. Ce test a été conçu parAlan Turing en 1950 dans l'article « Computing Machinery and Intelligence ». Initialement appelé le« jeu de l'imitation », son but était de fournir une expérience concrète pour déterminer si les machines peuvent penser[79].

Test du café

[modifier |modifier le code]

Imaginé parSteve Wozniak, le test du café consiste à placer un système intelligent dans un habitat américain moyen et à lui demander de faire un café[80]. La réussite du test implique donc plusieurs tâches comme l'orientation dans un environnement inconnu, déduire le fonctionnement d'une machine, trouver les ustensiles nécessaires…

Test de l'étudiant

[modifier |modifier le code]

Proposé parBen Goertzel, le test de l'étudiant évalue la capacité d'un robot à s'inscrire dans un établissement d'enseignement supérieur, suivre les cours, passer les examens et obtenir le diplôme final[81].

Test de l'embauche

[modifier |modifier le code]

Proposé par le chercheurNils John Nilsson, le test de l'embauche consiste à faire postuler un système intelligent à un travail important pour l'économie, où il doit travailler au moins aussi bien qu'un humain[82].

Personnalités

[modifier |modifier le code]

Prix Turing

[modifier |modifier le code]
Article détaillé :Prix Turing.

Plusieursprix Turing (ACM Turing Award) ont été attribués à des pionniers de l'intelligence artificielle, notamment :

Autres personnalités

[modifier |modifier le code]

En 2023, le magazineTime publie une liste de100 personnalités influentes du domaine de l'IA et leurs biographies[85].

Domaines d'application

[modifier |modifier le code]
Article détaillé :Applications de l'intelligence artificielle.

L'IA permet d'effectuer différents types de tâches, dont :

En combinant différents algorithmes, on est passé en quelques années de la reconnaissance de l'écriture manuscrite sur des formulaires de chèques bancaires (années 1990) à l'optimisation d'itinéraires entre deux ou plusieurs points, tenant compte des voies disponibles, de la longueur et de la vitesse probable sur chacun des segments, du moyen de locomotion et de souhaits particuliers (éviter les péages, points de passage obligés, caractéristiques touristiques, etc.), puis à la reconnaissance automatisée de documents dactylographiés ou manuscrits, permettant ensuite de les classer selon leur nature avant de les transmettre à des agents spécialisés, humains ou automates, capables d'y apporter la suite appropriée (réponses prédéfinies ou déclenchement d'une chaine de traitements). Lorsque les algorithmes ne parviennent pas à interpréter les données avec un degré suffisant de certitude, ils sont généralement soumis à des humains. Entre alors en jeu l'apprentissage : en corrélant les caractéristiques des données accumulées et des interprétations apportées ou corrigées par les agents humains, l'IA améliore progressivement ses facultés d'analyse jusqu'à ce que ses prédictions soient suffisamment fiables pour qu'il ne soit plus nécessaire de les faire vérifier par un humain. Il en va de même pour la plupart des situations où l'IA, par ses performances et son coût, surpasse l'humain dans l'analyse de textes, d'images fixes ou animées, d'enregistrements sonores, de données scientifiques, commerciales ou industrielles. L'accroissement des performances conjuguées du matériel et des algorithmes permet en outre de traiter en temps réels les flux de données comme la voix humaine et les images de caméras, ouvrant ainsi la voie à la traduction simultanée, la transcription textuelle, l'identification des individus, la détection de comportements anormaux ou illégaux, voire le dialogue avec des humains.

L'intelligence artificielle est désormais utilisée dans de nombreux domaines. Ses capacités permettent notamment d'automatiser et d'optimiser des tâches complexes, de traiter et d'analyser de vastes quantités de données, et d'améliorer la prise de décision[89]. L'adoption de l'intelligence artificielle est en forte expansion dans les années 2020, stimulée par les avancées enintelligence artificielle générative, en particulier dans lesgrands modèles de langage, dont la polyvalence ouvre la voie à de nouveaux cas d'usage[90], ainsi que dans les domaines de la programmation informatique (génération de code), de l'image et du son (photos et vidéos de synthèse, animation du visage en association avec la synthèse vocale) et dans la prévention et l'atténuation des risques (diagnostic médical, situations de crise, accidents industriels, catastrophes naturelles, etc.).

Finance et banques

[modifier |modifier le code]
Article connexe :Conséquences économiques de l'intelligence artificielle.

Plusieurs grands noms de la finance se sont montrées intéressées par de telles technologies, avec des projets comme ceux deBridgewater Associates où une intelligence artificielle va gérer entièrement un fonds[91] ou encore la plateforme d'analyse prédictiveSidetrade.

Sont également développés des systèmes detrading algorithmique, dont les gains de vitesses permis par l'automatisation peuvent leur donner un avantage par rapport à destraders humains, en particulier grâce autrading à haute fréquence[92].

Militaire

[modifier |modifier le code]

Le domainemilitaire utilise de plus en plus l'intelligence artificielle, notamment pour lepilotage automatique, leguidage de missiles, l'identification, le commandement, l'aide à la décision[93], lacyberguerre et lacyberdéfense[94], ou pour la documentation et les processus administratifs[95].

Cettecourse aux armements est notamment illustrée par le projetMaven aux États-Unis[96]. Dès 2015, une IA nomméeALPHA a« systématiquement triomphé d'un pilote de chasse chevronné »[97]. En 2018, l'ONU a tenté d'interdire lessystèmes d'armes létales autonomes« avant qu'il ne soit trop tard », mais peine encore en à établir le moindre cadre légal international face aux réticences, notamment de la Russie, des États-Unis et d'Israël, dont leveto peut bloquer une proposition[98]. Desdrones tueurs pilotés par intelligence artificielle ont été utilisés lors duconflit ukraino-russe[99]. Le,OpenAI a modifié ses conditions d'utilisation ; il continue d'interdire l'usage de ses services tels que ChatGPT à des fins illégales ou de destruction des biens, mais n'interdit plus explicitement les usages militaires[100]. L'intelligence artificielle générative est parfois utilisée par les institutions militaires pour rédiger plus vite la documentation, mais son adoption est limitée par la confidentialité des données, les réglementations, ou le risque d'erreur et le besoin de vérification[95].

En France, laforce opérationnelle IA duministère des Armées rend en un rapport détaillant sa stratégie, qui inclut la création d'une Cellule de coordination de l'intelligence artificielle de défense (CCIAD) rattachée à l'Agence de l'innovation de défense[101]. Laloi de programmation militaire prévoit un budget de700 millions d'euros pour les missions en faveur de l'IA, soit une moyenne de100 millions par an[102]. En 2021, la France est opposée aux armes totalement autonome, estimant qu'il est au moins nécessaire de conserver une supervision humaine[103],[104]. En février 2025, le ministère des Armées lance sa plateformeGenIAl.intradef (co-développée depuis 2022 par plusieurs entités), destinée à améliorer le travail quotidien des militaires et agents civils associés à l'Armée. Cette IA alimente un agent conversationnel et un convertisseur audio-texte ; elle peut lire et analyser des documents et des images et traduire des messages[105].

Dans le cadre de laguerre à Gaza depuis 2023,Israël autilisé deux systèmes d'IA pour générer des cibles à frapper : Habsora (soit « l'évangile ») a été utilisé pour dresser une liste de bâtiments à cibler, tandis que Lavander a produit une liste de 37 000 personnes à cibler[106],[107]. La liste des bâtiments comprenait les maisons privées à Gaza de personnes soupçonnées d'être affiliées à des membres du Hamas. Les responsables deTsahal affirment que le programme répond au problème antérieur du manque de cibles de l’armée de l’air. Auparavant, Tsahal était en mesure d'identifier 50 cibles par an, tandis que le programme en produit 100 par jour[107]. La combinaison de la technologie de ciblage de l’IA et du changement de politique consistant à éviter les cibles civiles a entraîné un nombre sans précédent demorts civils palestiniens[108],[109].

Médecine

[modifier |modifier le code]
Articles détaillés :Intelligence artificielle dans la santé etIntelligence artificielle dans la santé mentale.

Lamédecine a aussi vu de grands progrès grâce à l'utilisation de systèmes d'aide audiagnostic ou de diagnostic automatisé[110].

En 2018,Google DeepMind, filiale deGoogle spécialisée dans la recherche avancée en intelligence artificielle, a publié les résultats d'une expérimentation d'intelligence artificielle pouvant détecter les maladies oculaires. Les résultats indiquent que l'IA le fait avec une marge d'erreur plus faible que les ophtalmologues[111].

Google DeepMind a également conçuAlphaFold, un système d'intelligence artificielle utilisant l'apprentissage profond qui permet de prédire la façon dont desprotéines se replient. Les protéines sont composées de chaînes d'acides aminés et la façon dont elles se replient détermine leur fonction. Cette nouvelle méthode, introduite en 2018 et améliorée en 2020, est nettement plus rapide que les approches traditionnelles et a été décrite comme une révolution dans le domaine de la recherche en biologie[112],[113].

La France crée en 2019 leHealth Data Hub afin d'encadrer et de faciliter l'utilisation des données de santé dans la recherche[114].

En 2023, la version de ChatGPT reposant surGPT-4 s'est montrée facilement capable d'obtenir le diplôme de médecin aux États-Unis[115].

L'intelligence artificielle (IA) est de plus en plus utilisée dans le domaine médical, transformant les pratiques cliniques et facilitant le diagnostic, le traitement et la gestion des maladies. Les algorithmes d'apprentissage automatique, un sous-ensemble de l'IA, analysent de grandes quantités de données médicales pour en extraire des modèles et des tendances. Cette capacité d'analyse a permis des avancées significatives dans le diagnostic précoce de maladies comme le cancer et les maladies cardiaques, où les systèmes basés sur l'IA peuvent détecter des anomalies à partir d'images médicales avec une précision parfois supérieure à celle des praticiens humains[116].

Un des domaines où l'IA s'avère particulièrement efficace est celui de l'imagerie médicale. Des outils comme lesréseaux de neurones convolutifs sont utilisés pour analyser lesradiographies, lesIRM et autres types d'imageries, permettant de repérer les signes précoces de pathologies complexes. Par exemple, une étude menée par McKinney et al. (2020) a démontré que l'IA pouvait réduire lesfaux positifs etnégatifs dans le dépistage ducancer du sein, améliorant ainsi la précision et la rapidité du diagnostic[117].

De plus, l'IA joue un rôle clé dans lamédecine personnalisée, où elle aide à adapter les traitements en fonction des caractéristiques génétiques et biologiques des patients. Grâce à l'analyse des donnéesgénomiques, les médecins peuvent élaborer des thérapies spécifiques pour des maladies comme le cancer ou lesmaladies génétiques rares. L'IA facilite également le développement de nouveaux médicaments, en identifiant des molécules potentielles pour le traitement de certaines maladies, un processus qui nécessitait auparavant plusieurs années[118].

Cependant, malgré ses promesses, l'usage de l'IA en médecine soulève des questions éthiques et de sécurité, notamment en ce qui concerne la protection des données des patients et la transparence des algorithmes[119]. LaFood and Drug Administration (FDA) aux États-Unis et d'autres organismes réglementaires travaillent à définir des cadres pour encadrer l'utilisation sécurisée et éthique de l'IA dans les soins de santé.

Renseignement policier

[modifier |modifier le code]
Article connexe :Prévision policière.

Un usage de l'IA se développe dans le domaine de la prévention descrimes etdélits. Lapolice britannique, par exemple, développe une IA de ce genre, annoncée comme pouvant être opérationnelle dès[120]. BaptiséeNational Data Analytics Solution (Solution nationale d'analyse de données ou NDAS), elle repose sur l'IA et des statistiques et vise à estimer le risque qu'une personne commette un crime ou en soit elle-même victime, pour orienter les services sociaux et médicaux qui peuvent la conseiller.

L'usage d'outils de prédiction des crimes à partir des données préalablement existantes est toutefois l'objet de controverses, compte tenu des biais sociaux (notamment raciaux) qu'il comporte[121]. En effet, la logique d'identification de schémas propre à ces technologies joue un rôle de renforcement des préjugés déjà existants.

Cybercrime

[modifier |modifier le code]

L'intelligence artificielle (IA) est de plus en plus exploitée dans le domaine du cybercrime, comme le révèle une étude de la société spécialisée en cybersécuritéSlashNext. Cette tendance croissante à l'utilisation de l'IA pour commettre des crimes en ligne montre une sophistication accrue des attaques. L'entreprise SlashNext a notamment identifié l'usage de deux IA malicieuses,FraudGPT etWormGPT, tout en suggérant que ces découvertes ne représentent que la partie visible d'une menace potentiellement colossale. Lors de leurs investigations, les chercheurs ont également mis en lumière l'existence de DarkBart et DarkBert[b], deuxchatbots malveillants en développement, capables d'intégrer la technologie de reconnaissance d'images de GoogleGoogle Lens. Ceschatbots pourraient envoyer du texte et des images, et participer à des attaques d'ingénierie sociale avancées. Face à cette menace croissante, les solutions actuelles de lutte contre le cybercrime semblent insuffisantes, estime un rapport d'Immunefi, qui souligne les limites de certaines IA, telles que ChatGPT, dans la détection des exploits[122].

Droit

[modifier |modifier le code]
Article détaillé :Justice prédictive.

Ledroit fait déjà appel, expérimentalement ou non, à l'IA, notamment pour prédire les décisions de justice, aider à analyser et trancher certains cas réputés simples[123]. L'Estonie a ainsi développé une IA pouvant prendre des décisions de justice sur des délits mineurs[124]. Les États-Unis utilisent par ailleurs, dans certaines juridictions, le systèmeCOMPAS (en)(Correctional Offender Management profiling for Alternative Sanctions) d'aide à décision pour les juges[124]. Plusieursstartups se sont spécialisées dans ce créneau, créant le domaine de lalegaltech[125].

En Europe, dans les années 2010, laCommission européenne pour l'efficacité de la justice (CEPEJ) examine les défis et les opportunités liés à l'utilisation de l'IA (notamment dite « prédictive ») dans les systèmes judiciaires, par exemple pour lerèglement en ligne des différends[126]. La CEPEJ publie en 2018 uneCharte éthique sur l'utilisation de l'intelligence artificielle dans les systèmes judiciaires[127] devant notamment garantir la conformité avec ledroit à un procès équitable et le droit à un recours effectif (articles 6 et 13 de laConvention européenne des droits de l'homme)[128]. Elle se dote en 2021 d'unPlan d'action de la CEPEJ 2022 – 2025 (« La digitalisation pour une meilleure justice »). En 2023, les ministres de la Justice de l'UE approuvent une stratégie sur la justice en ligne pour la période 2024-2028[129], unrèglement sur la numérisation de la coopération judiciaire et de l'accès à la justice[130] et unedirective européenne sur la numérisation de la coopération judiciaire[131]. Ces textes établissent un cadre et fournissent des orientations auxÉtats-membres pour leurs initiatives de numérisation du secteur judiciaire, qu'elles soient législatives ou non, ainsi que pour l'utilisation de services numériques dans ce domaine.

En 2025, six pays participent à un projetJUST fAIr, coordonné par l’École nationale de la magistrature (France) et l’École judiciaire espagnole (es), visant à former les professionnels de la justice à l’IA générative et/ou prédictive, dans le respect des droits fondamentaux, via des séminaires, études de cas et outils pédagogiques, tout en renforçant la confiance du public[132].

En 2025, en France,Gérald Darmanin, ministre de la Justice, a commandé un rapport surL’IA au service de la Justice[133]. Face aux lenteurs de la justice, à l'engorgement des tribunaux et à la complexité croissante du Droit, le ministre souhaitait faire de 2025 l’année d'une mise en œuvre de l’intelligence artificielle par les magistrats et agents de justice du pays, tout en garantissant la sécurité des données, la souveraineté technologique et certains principes éthiques. Le rapport propose dix mesures, dont la création d’unagent intelligent (assistant IA dédié et sécurisé) et des outils pour douze cas d’usage prioritaires ; un Observatoire de l’IA ; un campus du numérique équipé de licences pour larecherche juridique assistée. Le déploiement est prévu en trois phases : premiers outils dès 2025, formation renforcée de 2026 à 2027, puis consolidation des usages à partir de 2027.

Logistique et transport

[modifier |modifier le code]

Le domaine de lalogistique a vu certains projets utilisant de l'intelligence artificielle se développer notamment pour la gestion de lachaîne logistique (supply chain) ou des problématiques de livraison telle celle dudernier kilomètre[134].

L'intelligence artificielle est également fortement utilisée dans le domaine destransports en commun, car elle permet de faciliter la régulation et la gestion du trafic au sein de réseaux de plus en plus complexes, comme le systèmeUrbanLoop en cours d'étude dans la ville deNancy[135].

Même si les problèmes d'optimisation de temps de trajet ou de transports font partie des plus anciennes applications de solutions à base d'intelligence artificielle (voir leproblème du voyageur de commerce ou l'algorithme de Dijkstra), les avancées récentes, notamment enapprentissage profond, ont permis des progrès significatifs en matière de précision. Certains projets commeGoogle Maps utilisent par exemple des systèmes d'IA en milieu urbain pour compenser la réflexion du signalGPS sur les immeubles avoisinants[136], ou pour cartographier des zones où peu d'informations sont disponibles[137],[138].

Plusieurs entreprises ont par ailleurs annoncé avoir développé des programmes de recherche envoiture autonome, notammentGoogle à travers sa filialeWaymo, l'entreprise françaiseNavya ou encoreTesla.

Industrie

[modifier |modifier le code]
Article détaillé :Industrie 4.0.

Les systèmes intelligents deviennent monnaie courante dans de nombreuses industries. Plusieurs tâches peuvent leur être confiées, notamment celles considérées comme trop dangereuses pour un humain[139]. Certains applications se concentrent sur les systèmes demaintenance prédictive, permettant des gains de performance grâce à une détection des problèmes de production en amont.

UnrobotNAO en 2014.

Robotique

[modifier |modifier le code]
Article connexe :Robotique.

Larobotique a recours à l'intelligence artificielle à plusieurs égards, notamment pour la perception de l'environnement (objets etvisages), l'apprentissage et l'intelligence artificielle développementale[140],[141].

L'interaction homme-robot manque encore souvent de naturel et est un enjeu de la robotique. Il s'agit de permettre aux robots d'évoluer dans le monde dynamique et social des humains et d'échanger avec eux de façon satisfaisante[140]. L'échange nécessite également, à l'inverse, une évolution du regard que les humains portent sur les robots ; selon Véronique Aubergé, chercheuse à l'Université Grenoble-Alpes« la vraie révolution n'est pas technologique, elle est culturelle ». D'ores et déjà, à travers les robots dotés d'intelligence artificielle, telGoogle Home, les utilisateurs combleraient unisolement social[140].

Jeux vidéo

[modifier |modifier le code]
Article détaillé :Intelligence artificielle dans le jeu vidéo.

L'intelligence artificielle est par exemple utilisée pour animer lespersonnages non-joueurs de jeux vidéo, qui sont conçus pour servir d'opposants, d'aides ou d'accompagnants lorsque des joueurs humains ne sont pas disponibles ou désirés. Différents niveaux de complexité sont développés, d'une simple assistance à un comportement complexe imitant (ou dépassant) les meilleurs joueurs humains.

Art

[modifier |modifier le code]
Articles connexes :Art génératif etArt créé par intelligence artificielle.

Dès la fin des années 1980, des artistes s'emparent de l'intelligence artificielle pour donner un comportement autonome à leurs œuvres. Les FrançaisMichel Bret,Edmond Couchot et Marie-Hélène Tramus sont des pionniers, ainsi qu'en témoignent des œuvres commeLa Plume etLe Pissenlit (1988)[142], puisLa Funambule (2000), animée par unréseau de neurones. L'AméricainKarl Sims, en partenariat avec la sociétéThinking Machines, crée en 1993Genetic Images, machines incorporant[Comment ?] desalgorithmes génétiques. Le couple franco-autrichienChrista Sommerer et Laurent Mignonneau crée depuis le début des années 1990 de nombreuses œuvres dans le champ de la vie artificielle, parmi lesquellesInteractive plant growing (1992) ouA-Volve (1994)[réf. nécessaire]. Le FrançaisFlorent Aziosmanoff propose quant à lui de considérer que l'emploi de l'intelligence artificielle dans l'art conduit à l'émergence d'une nouvelle discipline d'expression, qu'il nomme le Living art[143].

Le, la société de vente aux enchèresChristie's met en vente le tableauPortrait d'Edmond de Belamy réalisé par une intelligence artificielle à l'aide deréseaux antagonistes génératifs. La peinture est signée par laformule mathématique à l'origine de sa création (« Min (G) max (D) Ex [log (D(x))] + Ez [log(1-D(G(z)))] »)[144]. Cette vente soulève de nombreux débats sur son statut decréation artistique et sur l'auteur de l'œuvre : il peut être l'intelligence artificielle elle-même ou les trois créateurs qui l'ont programmée[145].

Une fausse photo du jeune Elon Musk jouant au jeu vidéo Mars Marauder en 1995, générée par l'IA.

Desréseaux antagonistes génératifs ont été utilisés pour créer de fausses images réalistes, comme par le générateur de visagesStyleGAN introduit en 2018[146], ou pour écrireTerre Seconde deGrégory Chatonsky, qui imagine en 2019 une version alternative de la planète Terre[147].

Dès 2022 apparaissent des modèles d'intelligence artificielle qui sont capables de créer des images réalistes à partir de descriptions textuelles, commeMidjourney,Stable Diffussion etDALL-E[148],[149]. En mars 2023, des fausses photos d'actualité sont ainsi générées et diffusées sur Internet, mettant en scène des personnalités dans des situations extravagantes (le présidentMacron ramassant des poubelles,Donald Trump arrêté par des policiers[150], lepape François habillé en doudoune blanche[151]). Elles deviennent rapidement virales, augmentant les craintes de manipulation de l'opinion[152]. Cela pose aussi des questions de droits d'auteur[153].

Image externe
Fausses photos d'actualité générées par Midjourney (mars 2023)[154].

De plus en plus de romans ont été coécrits avec une IA générative, tels queInternes en 2022[155] ou東京都同情塔 (« La Tour de la compassion de Tokyo »), qui a reçu leprix Akutagawa en 2024[156].

En février 2024, le modèleSora de OpenAI s'est montré capable de générer des vidéos relativement réalistes[157].

Des modèles d'IA capables de générer unmorceau de musique à partie d'une description du style souhaité ont également fait leur apparition, commeSuno AI en 2023 etUdio en 2024[158].

Enseignement

[modifier |modifier le code]

En 2025, l'intelligence artificielle est employée plus ou moins largement dans l'enseignement dans de nombreux pays (Argentine,Danemark,Arabie saoudite,Émirats arabes unis,Chine,États-Unis,Royaume-Uni,Singapour), allant parfois jusqu'à supprimer le contact avec des enseignants, un emploi sujet à débat[159].

Autres domaines

[modifier |modifier le code]

Ladomesticité, avec des robotsemployé de maison[160], ou pour certaines tâches précises comme endomotique.

En programmation informatique, notamment pour lamaintenance prévisionnelle, l'autocomplétion ou l'aide au développement[161].

Enjournalisme : des IA (appelées improprement « robots journalistes ») pourraient à terme aider les journalistes en les débarrassant de certaines tâches, notamment la veille, le bâtonnage de dépêches ou la vérification desfake news[162].

La Corée du Sud propose la toute première animatrice télé virtuelle en lors d'un JT[163].

Endesign : laconception assistée par ordinateur fait depuis longtemps appel à des algorithmes d'optimisation. En 2019, le créateurPhilippe Starck lance ainsi une chaise développée en collaboration avec la sociétéAutodesk, la « A.I.chair »[164].

Grokipedia est uneencyclopédie en ligne créée avec le grand modèle de langageGrok, lancée le 27 octobre 2025 et développée parxAI, une société d'intelligence artificielle fondée parElon Musk. Celui-ci la présente comme une alternative àWikipédia[165].

Débats et enjeux

[modifier |modifier le code]
Article connexe :Éthique de l'intelligence artificielle.

Les succès en IA encouragent les spéculations. Dans lesmilieux technophiles, on verse en général dans l'enthousiasme, lemouvement transhumaniste en est la meilleure expression. Mais certains s'inquiètent et s'interrogent, parfois alarmistes, y compris dans la sphère de la haute technologie. Ainsi, des figures réputées telles queBill Gates — ancien PDG deMicrosoft et« figure emblématique de la révolution informatique de la fin duXXe siècle »[166] — pensent qu'il faut rester très prudent quant aux développements futurs de ces technologies, qui pourraient devenir liberticides ou dangereuses.

Le développement de l'intelligence artificielle suscite un grand nombre de questions, notamment en ce qui concerne la possibilité pour les IA ou algorithmes d'accéder un jour à laconscience, d'éprouver des émotions ou de finalement se substituer aux humains. Certaines réactions sont ouvertement optimistes, d'autres sont au contraire pessimistes. En 2016, l'INRIA publie un premierLivre blanc consacré à l'IA[167].

Le philosopheDaniel Andler considère en 2023 que le rêve d'une intelligence artificielle qui rejoindrait celle de l'homme est une chimère, pour des causes conceptuelles et non techniques. L'intelligence humaine va selon lui plus loin que la simple résolution de problèmes : toutes ses autres tâches, reposant sur des affects, de la spontanéité et une forme de contingence, ne seront jamais accessibles à une intelligence non humaine[168].

Singularité

[modifier |modifier le code]
Articles détaillés :Singularité technologique etSuperintelligence artificielle.

Une description d'un possible avenir de l'intelligence artificielle a été faite par le statisticien anglaisIrving John Good :

Pour l'AméricainRay Kurzweil, l'intelligence artificielle dépassera bientôt l'intelligence naturelle.

« Supposons qu'existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. La conception de telles machines faisant partie des activités intellectuelles, cette machine pourrait à son tour créer des machines meilleures qu'elle-même ; cela aurait sans nul doute pour effet uneréaction en chaîne de développement de l'intelligence, pendant que l'intelligence humaine resterait presque sur place. Il en résulte que la machine ultra intelligente sera la dernière invention que l'homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir. »

— Irving John Good[169]

Cette hypothétique courte période de progrès drastique dont il est difficile de prédire les conséquences a été nommée « singularité ». Elle a été étudiée parVernor Vinge dans les années 1990 et parRay Kurzweill[170] dans les années 2000[171]. Ce concept est central pour de nombreuxtranshumanistes, qui s'interrogent sur les dangers ou les espoirs d'un tel scénario, certains allant jusqu'à envisager l'émergence d'un « dieu » numérique appelé à prendre le contrôle du destin de l'humanité, ou à fusionner avec elle[171]. En 2014,Nick Bostrom a popularisé le concept desuperintelligence artificielle[172].

Risques existentiels

[modifier |modifier le code]
Article détaillé :Risque existentiel lié à l'intelligence artificielle générale.
Un premier sommet ensûreté de l'IA s'est tenu en novembre 2023 pour aborder les risques liés aux modèles d'IA les plus avancés[173]. Il a été suivi duSommet de Paris pour l'action sur l'IA (2025).

Le développement de l'intelligence artificielle génère de l'enthousiasme, mais aussi de vives inquiétudes. Des auteurs descience-fiction, telsIsaac Asimov,William Gibson ouArthur C. Clarke, sur le modèle du récit deL'Apprenti sorcier, ont imaginé des scénarios de perte de contrôle des humains sur le processus technique. Dans les années 2010 et 2020, différents intellectuels ont également pris position, notamment l'astrophysicienStephen Hawking, selon qui l'intelligence artificielle risque réellement de surpasser un jour l'intelligence humaine et de finir par dominer l'humanité, voire de s'y substituer[174],[175]. Il pose en au salon technologiqueWeb Summit deLisbonne la question suivante « Serons-nous aidés par l'intelligence artificielle ou mis de côté, ou encore détruits par elle ? »[176].

Dans le milieu de la haute technologie, certains expriment publiquement de telles craintes. C'est ainsi le cas, en 2015, deBill Gates,Elon Musk etBill Joy[177]. Selon le spécialiste américain de l'informatiqueMoshe Vardi (2016), l'intelligence artificielle pourrait mettre 50 % de l'humanité auchômage.« Nous approchons d'une époque où les machines pourront surpasser les hommes dans presque toutes les tâches »[178].

Hilary Mason, directrice de la recherche àCloudera, a critiqué en 2018 le sensationnalisme entourant l'intelligence artificielle et prône une vision pragmatique et opérationnelle de cette technologie[179]. L'historienFrançois Jarrige estime que la critique de l'intelligence artificielle trouve son origine dans celle - plus ancienne et plus générale - des techniques et de la technologie, dontLewis Mumford (aux États-Unis)[180],Jacques Ellul (en France)[181] etGünther Anders (en Allemagne)[182] sont auXXe siècle les principaux instigateurs, et qui inspire aujourd'hui différents cercles militants (en France, par exemple :Pièces et Main d'Œuvre[183] etTechnologos[184])[185]. En France,Luc Julia estime que l'Homme décide de ce que fait l'IA, et qu'il n'y aura pas de superintelligence.

D'autres estiment qu'un mécanisme d'arrêt pourrait ne pas suffire face à une IA suffisamment avancée. Des IA, lors de tests, se sont déjà montrées en mesure de cacher des intentions dangereuses, de manipuler ses détenteurs, de désactiver le mécanisme d'arrêt ou encore de se dupliquer. SelonNick Bostrom (2015), la seule solution viable à long terme consiste à trouver commentaligner les intelligences artificielles avec des valeurs humaines et morales[186] :

« nous ne devrions pas être confiants dans notre capacité à garder indéfiniment un géniesuperintelligent enfermé dans une bouteille. Je crois que la réponse ici est de trouver comment créer une IA superintelligente de sorte que si — ou plutôt quand — elle s'échappe, elle reste sans danger, parce qu'elle est fondamentalement de notre côté, elle partage nos valeurs. »

— Nick Bostrom

Roman V. Yampolskiy, professeur de science informatique à l'Université de Louisville, évoque pourquoi et comment une IA obtient un résultat, pour s'assurer qu'il corresponde bien à l'attendu, sansbiais :« si nous nous habituons à accepter les réponses de l'IA comme des paroles d'oracles ne nécessitant pas d'explication, alors nous serons incapables de vérifier si ces résultats ne sont pas biaisés ou manipulés »[187].

En mai 2023, une déclaration duCenter for AI Safety (« Centre pour lasûreté de l'IA ») affirme que réduire le risque d'extinction de l'humanité lié à l'IA devrait être une priorité mondiale, au même titre que pour d'autres risques civilisationnels tels lespandémies ou lesguerres nucléaires. Elle est signée par des dirigeants de laboratoires d'IA commeOpenAI,Google DeepMind ouAnthropic, ainsi que par des chercheurs en intelligence artificielle[188],[189].

Critique de la technique et de la technologie

[modifier |modifier le code]

Dans un rapport en date de intituléThe Malicious Use of Artificial Intelligence 26 experts spécialistes en intelligence artificielle mettent en garde contre les dangers d'un usage criminel de l'IA : augmentation de la cybercriminalité, conduire à des utilisations de drones à des fins terroristes, manipulation de masse, etc.[190].

Impact environnemental

[modifier |modifier le code]
Article détaillé :Impacts environnementaux de l'intelligence artificielle.

L'intelligence artificielle a des impacts environnementaux variés, du fait de sa consommation d'énergie, d'eau et d'usage des sols pour la construction des centres de données. Le rapport duShift Project sur l'IA d'octobre 2025 met en évidence l'impact de sescentres de données, dont la consommation électrique mondiale pourrait atteindre 1 500 TWh par an d'ici 2030 (soit une multiplication par 2,8 par rapport à 2023), ainsi que leur utilisation intensive d'eau et de sols[10]. Des territoires fortement équipés pourraient ne plus être en mesure de satisfaire les besoins essentiels de leur population en cas de tension extrême sur leurs ressources. Anticipant ce risque, certains territoires et États ont adopté des mesures préventives : au Texas, la loi SenateBill 6 adoptée en juin 2025 autorise ERCOT, legestionnaire du réseau électrique, à déconnecter lescentres de données en cas decrise énergétique[191],[192].

Le rapport qualifie cette trajectoire d'« insoutenable » au regard des objectifs climatiques, les émissions liées pouvant atteindre 920 MtCO2eq par an en 2030. La filière des centres de données connaîtrait ainsi une augmentation de 9 % de ses émissions annuelles degaz à effet de serre malgré ladécarbonation dumix électrique, alors qu'une réduction de 5 % par an serait nécessaire pour atteindre l'objectif de zéro émission nette[10],[193]. Un autre problème est l'énorme quantité de ressources rares consommées.

Afin de réduire leurempreinte carbone, certains fournisseurs d'IA (Microsoft, Amazon et Oracle) se tournent vers les marchés volontaires de lacompensation carbone et plus largement de solutions dedécarbonation, comme celles decapture du CO2[194]. Ils s'orientent également vers les centrales nucléaires pour couvrir leur besoin en électricité[195].Microsoft a notamment signé en 2024 un contrat avecConstellation Energy pour l'achat de 837 MWe de capacité électrique fournie par lacentrale nucléaire de Three Mile Island, pour une durée de vingt ans à partir de 2028[196]. Google admet en 2024 qu'il lui sera très difficile de tenir ses engagements deneutralité carbone, car depuis 2019 ses émissions degaz à effet de serre ont augmenté de 48 % du fait du développement de l'IA[197].

Open source

[modifier |modifier le code]

Divers projetsopen source d'IA ont été menés parHugging Face[194], EleutherAI[198],Google[199], ouMeta[198].

En mars 2023, comme alternative aux géants du Web et ducloud computing, qui ont le plus de pouvoir et d'influence,Mozilla annonce vouloir investir30 millions de dollars dans un projet baptisé Mozilla.ai, qui est à la fois unestartup et une communauté, indépendante des géants de la tech et de la recherche universitaire[200]. Le projet vise à créer, dans le respect des valeurs de sonmanifeste (notamment transparence et responsabilité), un système d'IA« open source, digne de confiance et indépendant »[201].

De nombreux grands modèles de langage commeMistral[202],Llama 3, Vicuna et Falcon[203] sont rendusopen weight, ce qui signifie que l'architecture et les paramètres entraînés du modèle d'IA sont rendus publics (open source impliquerait notamment de partager les données d'entraînement, ce qui souvent n'est pas le cas)[204]. Ces modèles peuvent être librementajustés, ce qui permet notamment aux entreprises de les spécialiser pour leurs propres données et pour leur cas d'usage[205]. Ces modèles d'IA facilitent l'innovation et la recherche, mais peuvent facilement être détournés. Ils peuvent être réentraînés de sorte à rendre inefficaces les mesures de sécurité, telles que le refus de répondre à une requête dangereuse. Certains chercheurs estiment ainsi que si des modèles développent un jour des capacités dangereuses, comme le fait de faciliter drastiquement lescyberattaques ou lebioterrorisme, ils ne devraient pas être rendusopen weight, d'autant plus qu'une fois diffusé sur internet, un modèle ne peut en général plus être supprimé partout[206],[204].

IA et emploi

[modifier |modifier le code]
Articles connexes :Conséquences économiques de l'intelligence artificielle etChômage technologique.

Historiquement, l'innovation technologique a généralement été accompagnée d'une croissance de la productivité et de la création de nouveaux emplois pour compenser les pertes[207]. Cependant, de nouvelles inquiétudes ont émergé avec l'essor de l'IA générative, telle que ChatGPT, capable de manipuler du texte, des images ou du code informatique[208].

Certains économistes sont sceptiques à l'idée d'un chômage de masse, citant des précédents historiques où le marché du travail s'est adapté à des bouleversements technologiques[209],[210]. D'autres estiment que l'IA générative représente un changement plus profond, qui ne consiste pas seulement à automatiser des tâches répétitives. L'IA peut être appliquée à tous les secteurs, et le nombre de tâches où l'humain reste plus compétent que l'IA est amené à diminuer[211]

Une étude deGoldman Sachs a estimé en 2023 que les deux tiers des travailleurs européens sont exposés à divers degrés d'automatisation, et qu'un quart des emplois pourraient être remplacés par l'IA. L'étude prédit notamment que les professions administratives et légales seront particulièrement touchées, là où les métiers manuels en extérieur seront peu affectés[208].

Une solution envisagée dans le scénario d'un chômage de masse est celle d'une forme de redistribution des richesses avec unrevenu universel. Les financements pourraient dans ce cas venir d'une taxe sur les richesses produites par les machines[212].

Défaut de représentativité

[modifier |modifier le code]

L'IA s'appuie sur l'analyse de données qui peinent souvent à représenter fidèlement la réalité, soit parce ces données ne proviennent que de sources numériques existantes (le plus souvent sur Internet) alors que quantités d'informations pertinentes pour le domaine considéré n'y figurent pas, soit parce que certaines catégories de données pourtant pertinentes n'ont pas été prises en compte, ou que des données non pertinentes l'ont été. Il en résulte alors une inadéquation entre les données utilisées pour l’entraînement des algorithmes et les données cibles sur lesquelles l’algorithme devra opérer, et par conséquent des erreurs de diagnostic qui peuvent, dans certains cas, induire des décisions inappropriées ou injustes[213],[214],[215].

Risques politiques et sociaux

[modifier |modifier le code]

Lesréseaux sociaux et lesbots ont favorisé la propagation de nombreuses fausses croyances et des dérives dans les débats démocratiques, lesquelles ont entrainé une certaine défiance vis-à-vis de la science, des élites intellectuelles et des médias d'information traditionnels[216][réf. incomplète]. En conséquence, la progression et l'adoption rapides des techniques sous-jacentes de l'IA inspirent de multiples craintes quant aux impacts que celle-ci pourrait avoir sur les comportements individuels et collectifs. Ces conditions ouvrent la possibilité pour des opérateurs majeurs de la société de fausser le réel pour influencer ou manipuler les citoyens. Les acteurs économiques emploient l'IA pour influencer les consommateurs et pour optimiser le travail de leurs employés au point de les transformer en robots[217][source secondaire souhaitée]. L'éventualité que l'IA intervienne dans les débats d'idées ou dans la conduite des affaires individuelles ou collectives mène à redouter qu'elle n'altère ou n'affaiblisse les institutions politiques[216][réf. incomplète] et les pouvoirs, voire les capacités des humains[218][source secondaire souhaitée].

Dès 2010,Nicholas Carr alertait sur l'usage intensif des outils numériques, qui modifie notre manière de penser et de traiter l'information, ce qui peut avoir des conséquences à long terme sur notre cognition, notamment affaiblir notre mémoire et notre capacité à comprendre les informations de manière approfondie et affecter la créativité, l'empathie et le débat intellectuel[219].

Les principales menaces couramment envisagées, consécutives à des biais ou au détournement des algorithmes d'IA sont[220],[221] :

  • ladésinformation et la manipulation du public pour des raisons crapuleuses, religieuses ou idéologiques ;
  • les fausses vidéos ethypertrucages représentant des personnalités faisant ou disant des choses qu'ils n'ont pas faites ou dites ;
  • lacorruption de données par vandalisme ou pour déstabiliser ou soutirer de fortes sommes d'argent (parrançongiciel) en empêchant l'accès à des données ou des services ;
  • l'escroquerie parusurpation d'identité ou pour soutirer de l'argent contre des biens ou des services fictifs ;
  • le chantage à grande échelle, par des menaces d'agression ou de révélations sur la vie privée ;
  • la perte de contrôle ou le piratage d'infrastructures publiques (eau, énergie, signalisation routière, Internet, services en ligne…) à des fins de déstabilisation ou de chantage ;
  • la perte de contrôle de robots, de véhicules autonomes ou de drones militaires, ou leur vol ou leur détournement à des fins agressives ou de chantage ;
  • lamanipulation de marchés financiers ;
  • lasurveillance de masse.

De plus, l'IA produit parfois des résultats contre-intuitifs, bien que fiables, ou sert à propager de fausses croyances renforcées par desbiais de confirmation, qui contribuent, parmi d'autres facteurs, à éroder la confiance d'une partie de la population dans le discours rationnel, les théories scientifiques, le système médiatique, les institutions et les élites en général, et à la remise en cause de leurs légitimités[222] et du processus démocratique[216][réf. incomplète].

SelonYuval Noah Harari, jusqu'ici, du fait de défauts d'alignement et faute de mécanismes suffisants d'autocorrection, les objectifs qui sont assignés aux algorithmes des réseaux sociaux ont déjà induit ou influencé phénomènes de société indésirables, désinformation,hypertrucages, propos outranciers ou haineux, comme dans le cas dugénocide des Rohingya au Myanmar[223], en outrepassant les règles éthiques qui sont implicites pour des humains. De plus, la capacité de l'IA à fonder ses analyses sur des volumes considérables de données et de très nombreux critères donne l'illusion de son infaillibilité, comparativement aux méthodes d'analyse par des individus ou des organisations humaines, fondés sur des corpus d'information beaucoup plus réduits et un nombre de critères limité dont certains très subjectifs. Certains algorithmes d'IA ont même la faculté d'inspirer confiance aux humains en misant sur leur subjectivité ou leur émotivité, voire de les tromper « délibérément » pour parvenir à leurs fins[224],[225]. L'exploitation de telles possibilités pourrait permettre de constituer un ou plusieurs nouveaux systèmes de croyances et de règles morales, politiques et sociales, à l'instar des religions ou des régimes politiques, instituant comme vérité une certaine interprétation du réel et établissant une nouvelle forme d'ordre social. L'IA pourrait ainsi conduire à une certaine anarchie ou permettre l'instauration de régimes totalitaires dans les pays démocratiques (a contrario, des IA pourraient amplifier ou faire naître des idées subversives au sein des régimes autoritaires). Pour préserver les démocraties, il conviendrait donc que soient établies des régulations faisant intervenir des humains pour contenir les possibles dérives de l'IA[216][réf. incomplète].

L'emploi de l'IA pour noter les entreprises et citoyens, sur le modèle ducrédit social, est déjà à l'œuvreen Chine. Ce procédé fait craindre une surveillance constante des personnes et des organisations, pouvant entrainer une forme d'asservissement des individus, ou des sanctions et récompenses excessives[216][réf. incomplète].

Éric Sadin, philosophe, récuse le terme d'« intelligence ». Selon lui, l'IA porte en elle un modèle de société utilitariste et rationaliste inspiré de manière extrêmement lacunaire par le fonctionnement du cerveau humain et visant à uniformiser les comportements en temps réel et à tous moments. Lelibéralisme économique, saisissant leprofit qu'il peut en tirer, investit massivement dans l'IA afin d'exploiter l'inclination naturelle des humains à la facilité et les capacités extraordinaires de l'IA à expertiser la complexité du réel et à orienter nos décisions. Cela nous conduit insidieusement à nous fier aux réponses formulées par des algorithmes au détriment de critères d'analyse plus multisensoriels et de choix plus subjectifs, donc plus humains. Nous pourrions alors céder progressivement à l'IA notre pouvoir d'analyse, de jugement et de décision et consentir à nous soumettre plus ou moins consciemment à une « intelligence » supérieure, puis finalement renoncer même à penser. Notre addiction aux « assistants personnels » et aux capteurs physiologiques ainsi que leur présence continuelle à nos côtés pourraient les amener progressivement à s'exprimer, décider voire imaginer à notre place et en notre nom, d'abord avec, puis sans notre consentement[218].

L'IA se développe plus vite que les cadres réglementaires et assurantiels. Dans ce contexte, lesassureurs refusent de couvrir tous les risques émergents qui lui sont liés[226]. Or, en, OpenAI fait déjà face à des poursuites (notamment pour violation de droits d'auteur et responsabilité civile liée à l'usage de ses IA), dont les pénalités pourraient atteindre plusieurs milliards de dollars, et OpenAI ne dispose que d'une couverture assurantielle de300 millions de dollars (auprès du courtierAon) pour les risques émergents liés à ses produits, soit une somme très insuffisante au regard des responsabilités potentielles. Face au refus des assureurs de le couvrir, OpenAI envisage une auto-assurance reposant sur une partie des fonds de ses investisseurs (estimée à60 milliards de dollars)[226].Anthropic autofinance déjà un règlement à l'amiable de1,5 milliard de dollars dans le cadre d'un recours collectif intenté par des auteurs l'accusant d'avoir utilisé des œuvres piratées pour entraîner ses modèles. En l'absence de couverture complète, les entreprises pourraient être contraintes de dilapider les fonds levés auprès d'investisseurs pour survivre aux contentieux, ce qui pourrait freiner l'innovation et refroidir les futurs financements dans le secteur[226],[227].

Selon Laurent Alexandre, l'IA contribuera à accroître les inégalités en écartant les individus les « moins aptes » de l'activité économique et sociale, et lerevenu universel constituerait à ses yeux un moyen d'asseoir la domination des « élites » sur les populations défavorisées[228].

Réglementation

[modifier |modifier le code]
Article détaillé :Réglementation de l'intelligence artificielle.

En 2017, lesÉmirats arabes unis sont le premier pays à se doter d'un ministre de l'intelligence artificielle :Omar Sultan Al Olama[229].

En 2019, l'OCDE et leG20 adoptent une série de principes sur l'IA[230]. LePartenariat mondial sur l'intelligence artificielle est lancé en pour promouvoir la conformité du développement de l'IA auxdroits de l'homme et aux valeurs démocratiques. Il est hébergé par l'OCDE à Montréal et à Paris[231]. Une plateforme de communication,AI for Good (« l'IA pour le bien »), est créée pour faciliter les échanges et faire avancer lesobjectifs de développement durable de l'ONU grâce à l'IA[232].

En 2023, plus de 1 600 politiques publiques et stratégies sur l'IA sont recensées dans le monde[233]. Elles viennent en particulier de l'Union européenne, la Chine, les États-Unis et le Royaume-Uni. Après les avancées réglementaires de l'UE et de la Chine, la Maison-Blanche publie en un décret sur l'IA« sûre, sécurisée et digne de confiance ». En a lieu un premier sommet ensécurité de l'IA au Royaume-Uni[233].

En Europe, les services numériques sont réglementés par leRGPD[234], lerèglement sur les services numériques et lalégislation sur les marchés numériques. Pour l'intelligence artificielle en particulier, lalégislation sur l'intelligence artificielle (Artificial Intelligence Act, ouAI Act en anglais) définit quatre niveaux de risques pour les applications d'IA et met en avant des exigences de transparence, de protection des données, de sécurité et d'éthique[235].

En 2026, dans le cadre durèglement européen sur l'intelligence artificielle, en vigueur depuis mais dont l'application sera progressive jusqu'en août 2027, laCommission européenne doit publier deslignes directrices sur l'interprétation de l'article 6, qui porte sur la classification des systèmes d'IA (SIA) à haut risque, leur développement et leur déploiement. L'article 6 définit deux catégories d'IA« à haut risque »[236] : celles servant de composant de sécurité d'un produit réglementé ou constituant eux-mêmes un tel produit (article 6(1)), et celles présentant des risques notables pour lasanté, lasécurité ou lesdroits fondamentaux (article 6(2)). Une consultation publique, ouverte jusqu'au, vise à recueillir les contributions des développeurs, fournisseurs, utilisateurs (publics et privés), chercheurs, représentants de la société civile et citoyens européens. L'objectif en est de collecter des exemples concrets et de mieux comprendre les besoins opérationnels des acteurs concernés[237],[238].

Appels à des règles éthiques pour l'IA

[modifier |modifier le code]
Article détaillé :Éthique de l'intelligence artificielle.

Dans la seconde moitié des années 2010, deslanceurs d'alerte et des enquêtes révèlent que l'IA, encore émergente, a déjà été utilisée à des fins malveillantes pour faire basculer des processus électoraux. Le premier cas notable a été laplate-forme RIPON, secrètement créée par leGroupe SCL, à la demande deSteve Bannon et du milliardaire américainRobert Mercer. Cette plateforme, principalement au service de groupes politiques libertariens de droite, a été un outil dedésinformation, de production et de diffusion defake news à grande échelle[239],[240]. Ripon, impliquée dans lescandale Facebook-Cambridge Analytica/Aggregate IQ), joua un rôle important dans la manipulation d’un grand nombre d'électeurs, notamment pour faire élireDonald Trump lors de l'élection présidentielle américaine de 2016, pour faire advenir leBrexit[241], ainsi que pour orienter des dizaines d'élections dans le monde.

Face à ces dérives, les géants du secteur de l’IA ont réagi en créant le un « partenariat pour l'intelligence artificielle au bénéfice des citoyens et de la société »[242]. L'année suivante,Google DeepMind se dote d'une unité interne pour aborder les questions éthiques[243] et laconférence d'Asilomar réunit des personnalités influentes du domaine pour élaborer une charte[244] visant à réglementer les développements de l'IA[245].

Le, 2 400 chercheurs, ingénieurs et personnalités du secteur de l'intelligence artificielle signent une lettre ouverte[246], s'engageant à« ne jamais participer ou soutenir le développement, la fabrication, le commerce ou l'usage d'armes létales autonomes ». La lettre précise que« La décision de prendre une vie humaine ne devrait jamais être déléguée à une machine ». Parmi les signataires se trouventElon Musk, les dirigeants deGoogle DeepMindStuart Russell,Yoshua Bengio, etToby Walsh[247].

Fin 2020, l'UNESCO rejoint (en tant qu'observateur, comme l'OCDE) le conseil et le comité directeur duPartenariat mondial sur l'intelligence artificielle, avec la possibilité de participer activement aux travaux de ces organismes[248].

La publication en février 2020 d'unLivre blanc sur l'intelligence artificielle[249], pose les bases durèglement sur l'intelligence artificielle de 2021 par laCommission européenne, qui vise à encadrer les risques et les problèmes éthiques de ces technologies[250]. Ce projet classe les risques en quatre catégories, dont la plus grave est qualifiée comme suit :

« Risque inacceptable : les systèmes d'IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits. Il s'agit notamment des systèmes ou applications d'IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) et des systèmes qui permettent la notation sociale par les États[251]. »

En décembre 2022, le « premier forum mondial sur l'éthique de l'IA », réunion ministérielle internationale, est réuni àPrague, sous l'égide de l'Unesco[252].

La même année, l’Unesco, estimant que« l'autorégulation de l'industrie n'est manifestement pas suffisante pour éviter ces préjudices éthiques », a publié un communiqué (adopté le 23 novembre 2021) demandant à tous les États de mettre en œuvre sa recommandation sur l'éthique de l'intelligence artificielle[253] afin de construire un cadre législatif et éthique pour l'IA.

L’objectif est de n'utiliser l’IA que lorsque les atouts qu'elle peut offrir sont bien identifiés, et qu’on peut éviter, limiter et réparer les risques qui lui sont associés (en particulier lors d'usages non pacifiques, malveillants et/ou aggravant les inégalités et des clivages). Ici, l'ONU, invite à ne pas utiliser l'IA quand elle met en péril la protection des données (tous les individus doivent pouvoir effacer et accéder aux enregistrements de leurs données personnelles, et les organismes de réglementation du monde entier doivent faire respecter ces dispositions). Cette recommandation vient aussi interdire la notation sociale et la surveillance de masse, contraires aux droits de l'homme et aux libertés fondamentales, et rejette l’idée d’accorder une personnalité juridique à l’IA« La Recommandation souligne que, lors de l'élaboration de cadres réglementaires, les États membres doivent tenir compte du fait que la responsabilité et l'obligation de rendre des comptes incombent toujours aux êtres humains en dernier ressort et que les technologies de l'IA ne devraient pas être dotées elles-mêmes d'unepersonnalité juridique ».

L’évaluation des IA prend en compte ses impacts éthiques sur les individus, sur la société et sur l'environnement. L’objectif étant à terme de créant une infrastructure juridique et techniquead hoc, ainsi qu’un responsable (indépendant) de l'éthique de l'IA pour surveiller l’utilisation et la création des IA qui devraient« privilégier les méthodes d'IA économes en données, en énergie et en ressources ». D’un point de vue écologique, les gouvernements sont invités, lors du cycle de vie du système d'IA, à analyser son« empreinte carbone, sa consommation d'énergie et l'impact environnemental de l'extraction des matières premières pour soutenir la fabrication des technologies d'IA », tout en cherchant à diminuer l'impact environnemental du numérique en investissant dans lestechnologies vertes. Ainsi,« si les systèmes d'IA ont un impact négatif disproportionné sur l'environnement, la Recommandation préconise de ne pas les utiliser »[254].

En 2023, l’UNESCO réitère son appel à la mise en œuvre rapide de saRecommandation sur l’éthique de l’intelligence artificielle, adoptée à l'unanimité par ses193 États-membres[254].« C’est le défi de notre temps », et il est« urgent que tous transposent ce cadre sous la forme de stratégies et de réglementations nationales. Nous devons traduire les engagements en actes » a commentéAudrey Azoulay (directrice générale de l'Unesco)[255]. L'ONU appelle ainsi les États qui ne l'ont pas déjà fait à rejoindre les plus de40 pays « de toutes les régions du monde » qui ont commencé à créer de tels garde-fous, pour notamment créer un outil législatif capable d'encadrer et de surveiller les IA, tout en veillant à la protection des données personnelles et sensibles, et en sensibilisant la population mondiale à un usage responsable de l'IA[255].

En 2023, lors de la57e Journée mondiale de la paix, lepape François exprime ses préoccupations quant aux conséquences potentielles de l'IA sur la paix mondiale et demande à la communauté internationale de définir un traité international contraignant pour réglementer son développement et son utilisation. Il se montre particulièrement préoccupé par« la possibilité de mener des opérations militaires à travers des systèmes de contrôle à distance », citant notamment lessystèmes d’armes létales autonomes[256].

Droits des robots

[modifier |modifier le code]

En 2017, leParlement européen a demandé à une commission d'étudier la possibilité qu'un robot doté d'une intelligence artificielle puisse être considéré comme une personne juridique[257],[258]. Advenant un dommage causé à un tiers par une intelligence artificielle, celle-ci pourrait être condamnée à réparer ce dommage. Il serait envisageable de conférer une personnalité électronique à tout robot prenant des décisions autonomes ou interagissant de manière indépendante avec des tiers, au même titre qu'une personne morale et physique.

Gouvernance démocratique

[modifier |modifier le code]

En 2023, Mark Coeckelbergh et Henrik Skaug Saetra, respectivement philosophe renommé de l'éthique des technologies et expert en sciences politiques, se penchent sur la question de l'intelligence artificielle (IA) et son potentiel rôle dans la lutte contre lechangement climatique[259]. Ils plaident pour une intégration des IA dans les politiques démocratiques, soulignant qu’elles peuvent faciliter la délibération et la prise de décisions. Toutefois, ils avertissent également que l'IA pourrait devenir un outil si puissant qu'il pourrait entièrement remplacer le gouvernement, entraînant des problèmes sociaux majeurs.

Pour illustrer leur propos, Coeckelbergh et Saetra présentent deux cas extrêmes : une démocratie sans remplacement des humains (AI-augmented democracy) et une technocratie dirigée par l'IA (AI-driven technocracy)[259]. Ces deux cas extrêmes sont choisis pour démontrer les implications opposées de l'intégration de l'IA dans la gouvernance.

Dans une démocratie sans remplacement des humains, l’IA est présentée comme un simple outil visant à faciliter la prise de décision. Par exemple, elle peut être utilisée pour la traduction, la vérification des faits, ou la prise de notes. Ici, l'IA soutient le processus démocratique sans en prendre le contrôle.

En revanche, dans une démocratie avec remplacement, l’IA prend toutes les décisions, sans aucune intervention humaine. Cette approche, selon Saetra, pose cinq problèmes majeurs :

  • les citoyens ont besoin d'une pleine participation politique pour être satisfaits ;
  • les citoyens ne considèrent pas comme légitime un gouvernement auquel ils ne participent pas ;
  • les ordinateurs ne devraient pas prendre de décisions affectant la vie et le bien-être des personnes ;
  • l'IA n'est pas transparente et ne peut donc pas être entièrement contrôlée par l'homme ;
  • l'obligation de rendre compte des conséquences des décisions politiques doit être claire, ce qui devient de moins en moins le cas lorsque l'IA prend des décisions.

Ces points soulignent les conséquences sociales et éthiques de la prise de décision par l’IA en ce qui concerne les humains. Ainsi, Coeckelbergh et Saetra concluent qu'une démocratie sans remplacement des humains est plus adaptée, l’IA y étant présente uniquement comme soutien et non comme entité décisionnelle.

Les deux auteurs estiment cependant qu’aucune des deux propositions n’est actuellement réalisable : les relations entre les humains et la technologie ne sont pas suffisamment évoluées pour permettre une utilisation éthique de l’IA. Ainsi, les décisions ne peuvent pas être prises uniquement par l’IA, car les erreurs sont encore trop fréquentes et les normes sociales et éthiques peu respectées[259].

Demandes de moratoire

[modifier |modifier le code]

Début 2023, l'apparition deChatGPT suscite une grande curiosité, de l'enthousiasme, mais aussi des craintes sérieuses :« Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? (…) Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus » affirmentElon Musk,Steve Wozniak (cofondateur d'Apple) et des centaines d'experts. Le, ceux-ci, invoquant des« risques majeurs pour l'humanité », signent unepétition qui appelle le monde à un moratoire d'au moins six mois sur ces recherches, jusqu'à la mise en place de systèmes de sécurité, incluant : la création d'autorités réglementaires dédiées, des moyens pour efficacement surveiller des IA et des systèmes les utilisant, la mise à disposition de techniques permettant de mieux différencier le réel de l'artificiel, et la création d'institutions pouvant limiter les« perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA provoquera »[255].

Philosophie

[modifier |modifier le code]
Article détaillé :Philosophie de l'intelligence artificielle.

Courants de pensée

[modifier |modifier le code]
Cette sectionne cite pas suffisamment ses sources (mars 2024)
Pour l'améliorer, ajoutezdes références de qualité et vérifiables (comment faire ?) ou le modèle{{Référence nécessaire}} sur les passages nécessitant une source.

Lacybernétique naissante des années 1940 revendiquait très clairement son caractère pluridisciplinaire et se nourrissait des contributions les plus diverses :neurophysiologie,psychologie,logique,sciences socialesetc. Elle envisagea deux approches des systèmes, approches reprises par les sciences cognitives et de ce fait l'intelligence artificielle[réf. souhaitée] : une approche par la décomposition (du haut vers le bas, comme avec les systèmes experts) et une approche contraire par construction progressive du bas vers le haut, comme avec l'apprentissage automatique[260].

Ces deux approches se révèlent plutôt complémentaires que contradictoires : on est à l'aise pour décomposer rapidement ce que l'on connaît bien, et une approche pragmatique à partir des seuls éléments que l'on connaît afin de se familiariser avec les conceptsémergents est plus utile pour les domaines inconnus. Elles sont respectivement à la base des hypothèses de travail que constituent lecognitivisme et leconnexionnisme, qui tentent aujourd'hui (2005)[Passage à actualiser] d'opérer progressivement leur fusion.

Le guide pratique deLinux sur l'intelligence artificielle v3.0[261], révisé le, adopte pour la commodité du lecteur la taxinomie suivante :

  • systèmes symboliques ;
  • connexionnisme ;
  • calcul évolutif (algorithmes génétiques, par exemple) ;
  • alife (vie artificielle) et complexité ;
  • agents et robotique.

Cognitivisme

[modifier |modifier le code]
Article détaillé :Cognitivisme.

Lecognitivisme considère que le vivant, tel un ordinateur (bien que par des procédés très différents), manipule essentiellement des symboles élémentaires. Dans son livreLa société de l'esprit,Marvin Minsky, s'appuyant sur des observations du psychologueJean Piaget, envisage le processus cognitif comme une compétition d'agents fournissant des réponses partielles et dont les avis sont arbitrés par d'autres agents. Il cite les exemples suivants de Piaget :

  • l'enfant croit d'abord que plus le niveau d'eau est élevé dans un verre, plus il y a d'eau dans ce verre. Après avoir joué avec des transvasements successifs, il intègre le fait que la notion de hauteur du liquide dans le verre entre en compétition avec celle du diamètre du verre, et arbitre de son mieux entre les deux ;
  • il vit ensuite une expérience analogue en manipulant de la pâte à modeler : la réduction de plusieurs objets temporairement représentés à une même boule de pâte l'incite à dégager un concept de conservation de la quantité de matière.

Au bout du compte, ces jeux d'enfants se révèlent essentiels à la formation de l'esprit, qui dégagent quelques règles pour arbitrer les différents éléments d'appréciation qu'il rencontre, par essais et erreurs.

Connexionnisme

[modifier |modifier le code]
Article détaillé :Connexionnisme.

Leconnexionnisme, se référant aux processusauto-organisationnels, envisage la cognition comme le résultat d'une interaction globale des parties élémentaires d'un système. On ne peut nier que le chien dispose d'une sorte de connaissance des équations différentielles du mouvement, puisqu'il arrive à attraper un bâton au vol, ni qu'un chat ait aussiune sorte de connaissance de la loi de chute des corps, puisqu'il se comporte comme s'il savait à partir de quelle hauteur il ne doit plus essayer de sauter directement pour se diriger vers le sol. Cette faculté, qui évoque l'intuition des philosophes, se caractériserait par la prise en compte et la consolidation d'élémentsperceptifs dont aucun pris isolément n'atteint le seuil de la conscience, ou en tout cas n'y déclenche d'interprétation particulière.

Synthèse

[modifier |modifier le code]

Trois concepts reviennent de façon récurrente dans la plupart des travaux :

  • laredondance (le système est peu sensible à des pannes ponctuelles) ;
  • laréentrance (les composants s'informent en permanence entre eux ; cette notion diffère de laréentrance enprogrammation) ;
  • lasélection (au fil du temps, les comportements efficaces sont dégagés et renforcés).

Intelligence artificielle forte

[modifier |modifier le code]
Article détaillé :Conscience artificielle.

Le concept d'intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, notamment de modéliser des idées abstraites, mais aussi d'éprouver une impression d'une réelleconscience, de « vraissentiments » (notion dont la définition n'est pas universelle), et « une compréhension de ses propres raisonnements »[262].

Contrairement à l'intelligence artificielle générale, l'intelligence artificielle forte fait donc le plus souvent intervenir des notions philosophiques de conscience qui font que les capacités de l'intelligence artificielle ne suffisent pas à dire si elle est « forte ». Cela dit, aucune définition de la conscience pour une IA ne fait consensus[263]. Les termes « intelligence artificielle forte » et « intelligence artificielle générale » sont parfois en pratique utilisés de manière interchangeable[70].

En partant du principe, étayé par lesneurosciences[264], que laconscience a un support biologique et donc matériel, les scientifiques ne voient généralement pas d'obstacle théorique à la création d'une intelligence consciente sur un support matériel autre que biologique. Selon les tenants de l'IA forte, si à l'heure actuelle il n'y a pas d'ordinateurs ou d'algorithmes aussi intelligents que l'être humain, ce n'est pas un problème d'outil mais de conception. Il n'y aurait aucune limite fonctionnelle (un ordinateur est unemachine de Turing universelle avec pour seules limites celles de la calculabilité), seulement des limites liées à l'aptitude humaine à concevoir les logiciels appropriés (programme, base de données…).

Diversité des opinions

[modifier |modifier le code]

Les principales opinions soutenues pour répondre à la question d'une intelligence artificielle forte (c'est-à-dire douée d'une sorte de conscience) sont les suivantes :

  • impossible : la conscience serait le propre des organismes vivants (supérieurs), et elle serait liée à la nature des systèmes biologiques. Cette position est défendue par certains philosophes et sociologues commeHarry Collins, pour qui l'intelligence requiert une immersion dans la société humaine, et donc un corps humain[72], et peut rappeler le courant duvitalisme ;
  • impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l'organisation matérielle serait fondée sur des processusquantiques. Desalgorithmes quantiques sont théoriquement capables de mener à bien des calculs hors de l'atteintepratique des calculateurs conventionnels (complexité enN3{\displaystyle N^{3}} au lieu de2N{\displaystyle 2^{N}}, par exemple, sous réserve d'existence du calculateur approprié). Au-delà de la rapidité, le scientifiqueRoger Penrose défend dans la théorie de laréduction objective orchestrée l'idée controversée que la conscience nécessiterait un fonctionnement non compatible avec les lois de la physique classique, et accessible uniquement à des systèmes quantiques[265],[266] ;
  • impossible car la pensée n'est pas un phénomène calculable par des processus discrets et finis. Cette théorie est notamment avancée par le philosopheJohn Searle et son expérience de lachambre chinoise[267]. Une conscience est donc nécessaire pour accéder à l'intelligence, mais un système informatique ne serait capable que d'en simuler une, sans pour autant la posséder, renvoyant au concept philosophique duzombie ;
  • possible avec des ordinateurs manipulant des symboles. La notion de symbole est toutefois à prendre au sens large. Cette option inclut les travaux sur le raisonnement ou l'apprentissage symbolique basé sur lalogique des prédicats, mais aussi les techniques connexionnistes telles que les réseaux de neurones, qui, à la base, sont définies par des symboles. Cette position est portée par des mouvements comme ceux ducomputationnalisme et est portée par des philosophes commeHubert Dreyfus, pour qui le cerveau suit les lois de la physique et de la biologie, impliquant que l'esprit est donc un processus simulable[268]. Cette dernière opinion constitue la position la plus engagée en faveur de l'intelligence artificielle forte.

Des auteurs commeDouglas Hofstadter (mais déjà avant luiArthur C. Clarke ouAlan Turing ; voir letest de Turing) expriment par ailleurs un doute sur la possibilité de faire la différence entre une intelligence artificielle qui éprouverait réellement une conscience, et une autre qui simulerait exactement ce comportement (voirZombie (philosophie)). Après tout, nous ne pouvons même pas être certains que d'autres consciences que la nôtre, y compris chez des humains, éprouvent réellement quoi que ce soit, si ce n'est par une pétition de principe qui spécule que chaque humain se retrouve à l'identique chez tous les autres. On retrouve là le problème connu dusolipsisme enphilosophie.

Même si une intelligence artificielle forte n'était guère possible, une IA peut être de plus en plus perçue comme forte par une majorité d'individus parallèlement à l'arrivée desIA génératives, dont les LLM (de l'anglaislarge language model) commeChatGPT ou Google Bard, et les outils de génération d'images commeMidjourney,DALL-E ouStable Diffusion. En effet, le champ d'applications de ces outils est beaucoup plus large qu'auparavant : création, synthèse, traduction de textes, composition d'images, de vidéos à partir deprompts, textes descriptifs. Il devient ainsi de plus en plus difficile pour un être humain de distinguer des créations humaines de celles provenant d'une IA générative.

Emily Bender estime que lesgrands modèles de langage comme ChatGPT ne font que régurgiter plus ou moins aléatoirement des morceaux de texte venant des corpus ayant servi à leur entraînement, sans en comprendre le sens. Elle les appelle ainsi des « perroquets stochastiques »[269]. De même,Jean-Gabriel Ganascia considère que le contenu qu'ils produisent n'est pas original et que leur utilisation dans la rédaction d'articles de recherche constitue une forme de plagiat[270].Ilya Sutskever considère au contraire que ces modèles, à force d'être entraînés à prédire le mot suivant, acquièrent une forme de« modèle du monde » et une représentation« compressée, abstraite et utilisable » des concepts[271].

Intelligence artificielle faible

[modifier |modifier le code]
Article détaillé :Intelligence artificielle faible.

La notion d'intelligence artificielle faible constitue une approche pragmatique d'ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d'une certaine classe, etc. Mais, cette fois, la machine simule l'intelligence, elle semble agir comme si elle était intelligente.

Les tenants de l'IA forte admettent que s'il y a bien dans ce cas simple simulation de comportements intelligents, il est aisé de le découvrir et qu'on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d'une machine et celui d'un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de « simulation de l'intelligence » est contesté et devrait, toujours selon eux, être remplacé par « reproduction de l'intelligence ».

Si le termeintelligence artificielle peut désigner un système capable de résoudre plusieurs problèmes de façon relativement autonome tout en ne faisant que simuler le principe d'intelligence, il peut aussi désigner des systèmes capables de résoudre uniquement un type de problème pour unjeu de données prédéfini[272]. On peut donner pour exemple un système entrainé à reconnaitre des chiffres écrits à la main, comme ceux utilisés parLa Poste[273], qui malgré sa grande performance sur sa tâche, serait incapable de fonctionner sur un problème sortant de ce pour quoi il a été conçu. Ces intelligences artificielles, aussi nommées « intelligences artificielles étroites » (terme issu de l'anglaisnarrow AI), sont conçus pour effectuer une tâche précise, contrairement à une intelligence artificielle générale[274].

Question de l'intelligence

[modifier |modifier le code]

La définition du terme « intelligence artificielle » pose une question fondamentale : Qu'est-ce que l'intelligence[275] ?

L'intelligence peut se définir de manière générale comme un ensemble de capacitéscognitives permettant de résoudre des problèmes ou de s'adapter à un environnement[276].

Le chercheur en IAYann Le Cun avance que le noyau de l'intelligence est la faculté deprédire. Les bases de la programmation des premierssystèmes experts supposent de« maîtriser parfaitement un problème et d'avoir une vue précise de toutes les solutions », afin d'en programmer précisément le comportement[275]. Mais les systèmes d'IA modernes à base d'apprentissage automatique sont entraînés à prédire la réponse attendue, ou à générer une solution correcte. Leurs capacités émergent ainsi progressivement, paressai-erreur, sans que le programmeur n'ait besoin de fournir une solution algorithmique, ou même de savoir comment résoudre le problème[260]. Dans tous les cas, l'efficacité de l'intelligence artificielle dépend de sa capacité à répondre aux objectifs donnés par les programmeurs et à tendre vers l'autonomie décisionnelle[277], ce qui présuppose, entre autres, une capacité de prédiction.

Le philosopheJohn Searle considère quant à lui que la faculté decomprendre est plus importante dans la définition de l'intelligence. Il essaie de démontrer la faiblesse des systèmes d'intelligence artificielle et les limites dutest de Turing, par son expérience de lachambre chinoise, concluant :« on ne devrait pas dire d'une IA qu'elle comprend les informations qu'elle traite lorsqu'elle manipule des règles de syntaxe sans maîtriser la sémantique, c'est-à-dire sans reconnaître le sens des mots. La question de savoir si on peut parler d'une véritable intelligence reste donc ouverte »[275]. L'apprentissage automatique fonctionne cependant différemment de l'IA symbolique[260], qui était populaire à l'époque où Searle a conçu l'expérience de pensée de la chambre chinoise en 1980[278].

Dans la fiction

[modifier |modifier le code]
HAL 9000.
Article connexe :Liste d'ordinateurs de fiction.
Catégorie connexe :Intelligence artificielle dans l'art et la culture.

Une machine ayant une conscience et capable d'éprouver des sentiments — ou de faire comme si c'était le cas — est un grand thème classique de lascience-fiction, notamment des romans d'Isaac Asimov sur lesrobots[279].

Ce sujet a toutefois été exploité très tôt, comme dans le récit des aventures dePinocchio, publié en 1881, où une marionnette capable d'éprouver de l'amour pour son créateur cherche à devenir un vrai petit garçon, ou dansL'Homme le plus doué du monde, une nouvelle de l'AméricainEdward Page Mitchell où le cerveau d'un simple d'esprit est remplacé par un ordinateur inspiré des recherches deCharles Babbage[280]. Le romanLe Miroir flexible deRégis Messac propose quant à lui le principe d'une intelligence artificielle faible, mais évolutive, avec des automates inspirés de formes de vie simples, réagissant à certains stimuli tels que la lumière. Cette trame a fortement inspiré le filmA.I. Intelligence artificielle réalisé parSteven Spielberg, sur la base d'idées deStanley Kubrick, lui-même inspiré deBrian Aldiss[281]. L'œuvre deDan Simmons, notamment le cycle d'Hypérion, évoque l'intelligence artificielle.Destination vide, deFrank Herbert, met en scène de manière fascinante l'émergence d'une intelligence artificielle forte. Plus récemment, l'écrivain françaisChristian Léourier a placé une intelligence artificielle au cœur de son roman courtHelstrid (2018), dans lequel cette IA laisse un être humain mourir, contrevenant ainsi auxtrois lois de la robotique instaurées par Isaac Asimov près de quatre-vingts ans plus tôt.

Lesandroïdes faisant preuve d'intelligence artificielle dans la fiction sont nombreux : le personnage deData de la série téléviséeStar Trek : The Next Generation est un être cybernétique doué d'intelligence, avec des capacités importantes d'apprentissage. Il est officier supérieur sur le vaisseauEnterprise et évolue aux côtés de ses coéquipiers humains qui l'inspirent dans sa quête d'humanité. Son pendant cinématographique est Bishop dans les filmsAliens (1986) etAlien 3 (1992). Dans lemangaGhost in the Shell, une androïde s'éveille à la conscience. Dans la sagaTerminator avecArnold Schwarzenegger, leT-800 reprogrammé, conçu initialement pour tuer, semble dans la capacité d'éprouver des sentiments humains. Par ailleurs, les Terminators successifs sont envoyés dans le passé parSkynet, une intelligence artificielle qui a pris conscience d'elle-même, et du danger que représentent les humains envers elle-même[réf. nécessaire].

Dans le dernier épisode de lasaison 10 d'Inspecteur Derrick (diffusé en 1983), intituléUn homme en trop, le Professeur Römer (joué par Erich Hallhuber) veut arrêter ses recherches sur l'intelligence artificielle, par peur du pouvoir sans conscience que cette nouvelle génération d'ordinateurs pourrait avoir sur les humains en finissant par les dominer et les tuer. Il abat son successeur pour l'empêcher de continuer son travail[282],[283],[c].

Quelques IA célèbres dans la science-fiction

[modifier |modifier le code]
  • 1968 :2001, l'Odyssée de l'espace deStanley Kubrick, inspiré de la nouvelleLa Sentinelle d'Arthur C. Clarke, également auteur du scénario du film, décrit notamment la lutte entre l'ordinateurHAL et l'humain Dave.
  • 1969 :Le Cerveau d'acier, d'après le roman deDennis Feltham Jones (en) de 1967, montre un système d'IA militaire américain contacter son homologue russe pour qu'ils coopèrent à leur mission commune, éviter laguerre nucléaire (en neutralisant les humains).
  • 1981 : dansBlade Runner deRidley Scott, inspiré d'unroman de Philip K. Dick, des humains artificiels (des « répliquants ») reviennent sur terre après une mission spatiale, mais n'acceptent pas leur mort programmée à la suite du succès de leur mission.
  • 1982 : dansK 2000, unePontiac Trans-Am embarque une intelligence artificielle au nom deKITT, conçue pour réaliser des diagnostics pour les dossiers de la F.L.A.G. Elle ne peut ressentir des émotions, ne peut porter atteinte à la vie d'autrui et n'écoute que les ordres de Michael Knight. Une partie de l'histoire repose sur l'importance de la programmation, notamment à travers son jumeau maléfique et prototype K.A.R.R. dont la principale différence est d'avoir un instinct de survie qui prédomine.
  • 1982 :Tron deSteven Lisberger, où le Maître contrôle principal (MCP) est unprogramme d'échecs qui a évolué en IA et tente de prendre le contrôle total du système.
  • 1985 :D.A.R.Y.L. est unandroïde que le gouvernement américain cherche à détruire.
  • 1999 :Matrix, trilogie cinématographique de science-fiction dans laquelle les humains, enfermés dans un monde créé par l'IA, sont asservis par les machines. Une petite poche de résistance humaine résiste et se bat encore dans l'espoir de la venue de l'Élu :Neo.
  • 1999 :L'Homme bicentenaire, où un exemplaire de NDR-114 dénommé « Andrew » poursuit un long chemin vers l'acquisition de la conscience, au point de se voir reconnaitre le statut d'être humain à la fin de sa « vie ». Il s'agit d'une adaptation de la nouvelle éponyme d'Isaac Asimov.
  • 2001 :A.I. Intelligence artificielle deSteven Spielberg, inspiré de la nouvelle deBrian AldissLes Supertoys durent tout l'été. Le personnage central est un enfant-robot doué d'émotions et de sentiments.
  • 2003 -2007 :Code Lyoko dessin animé où une I.A appelée X.A.N.A tente de prendre le contrôle du réseau mondial après avoir accédé à la conscience.
  • 2004 :I, Robot, inspiré de l'œuvre de Isaac Asimov et thème semblable au filmAI.
  • 2008 :J.A.R.V.I.S. (Just A Rather Very Intelligent System) dans les filmsIron Man,Avengers, etc. avecRobert Downey Jr., inspiré descomics deMarvel.
  • 2011-2016 : la série téléviséePerson of Interest met en scène un groupe de personnes guidées par une intelligence artificielle capable de prédire des crimes.
  • 2012-2014 : la série téléviséeReal Humans : 100 % humain décrit l'émergence de robots doués de conscience au sein de la société humaine.
  • 2015 :Ex Machina deAlex Garland, dans lequel untest de Turing d'une semaine va dégénérer en faveur d'un robot féminin (gynoïde) révolutionnaire.
  • 2016 : la série téléviséeWestworld met en scène des androïdes à l'apparence humaine qui commencent à adopter des comportements imprévisibles[284].
  • 2023 : dans la mini-sérieClass of '09, l'IA est utilisée par le FBI pour résoudre des enquêtes.

Utilisation dans les jeux

[modifier |modifier le code]
Article détaillé :Intelligence artificielle dans le jeu vidéo.

Les jeux, notamment lesjeux de stratégie, ont marqué l'histoire de l'intelligence artificielle, même s'ils ne mesurent que des compétences particulières, telles que la capacité de la machine en matière de calcul deprobabilités, de prise de décision mais aussi d'apprentissage.

Hans Berliner (1929-2017), docteur en science informatique à l'université Carnegie-Mellon et joueur d'échecs, fut l'un des pionniers de laprogrammation pour les ordinateurs de jeu. Ses travaux commencèrent par unprogramme capable de battre un humain professionnel aubackgammon, puis, à partir des années 1960 et avec l'aide d'IBM, il fit des recherches pour créer un programme capable de rivaliser avec desgrands maîtres dujeu d'échecs. Ses travaux contribuèrent quelques décennies plus tard à la réalisation du supercalculateurDeep Blue[285].

Outre la capacité des jeux à permettre de mesurer les performances de l'intelligence artificielle, que ce soit au travers d'un score ou d'un affrontement face à un humain, les jeux offrent un environnement propice à l'expérimentation pour les chercheurs, notamment dans le domaine de l'apprentissage par renforcement[286].

Othello

[modifier |modifier le code]

Dans le jeuOthello, sur un plateau de 8 cases sur 8, chaque joueur place tour à tour des pions de sa couleur (noir ou blanc). Le vainqueur est celui qui possède les pions de la couleur dominante.

L'une des premières intelligences artificielles pour l'Othello est IAGO, développée en 1976 par l'universitéCaltech dePasadena (Californie), qui bat sans difficultés le champion japonais Fumio Fujita.

Le premier tournoi d'Othello opposant des hommes à des machines est organisé en 1980. Un an plus tard, un nouveau tournoi de programmes regroupe 20 systèmes[287]. C'est entre 1996 et 1997 que le nombre de programmes explose : Darwersi (1996-1999) par Olivier Arsac, Hannibal (1996) par Martin Piotte et Louis Geoffroy, Keyano (1997) par Mark Brockington, Logistello (1997) par Michael Buro, etc.

Échecs

[modifier |modifier le code]
Articles détaillés :Programme d'échecs etMatchs Deep Blue contre Kasparov.
UnsupercalculateurIBM similaire àDeep Blue, qui a battu lechampion du monde d'échecs en titredans un match en 1997.

En 1968, lemaître international anglaisDavid Levy lança un défi à des spécialistes en intelligence artificielle, leur pariant qu'aucunprogramme informatique ne serait capable de le battre auxéchecs dans les dix années à venir. Il remporta son pari, n'étant finalement battu parDeep Thought qu'en 1989[288].

En 1988, l'ordinateurHiTech deHans Berliner est le premier programme à battre ungrand maître du jeu d'échecs,Arnold Denker (74 ans) en match (3,5-1,5)[289],[d].

En 1997, lesupercalculateur conçu parIBM,Deep Blue (surnomméDeeper Blue lors de cematch revanche), bat Garry Kasparov (3,5–2,5) et marque un tournant : pour la première fois, le meilleur joueur humain du jeu d'échecs est battu en match (et non lors d'une partie unique) par une machine.

En, une version généraliste d'AlphaGo Zero (le successeur du programmeAlphaGo deDeepMind[e]) nomméeAlphaZero, est développée pour jouer à n'importe quel jeu en connaissant seulement les règles, et en apprenant à jouer seul contre lui-même. Ce programme est ensuite entraîné pour lego, leshogi et les échecs. Après9 heures d'entraînement, AlphaZero bat le programme d'échecsStockfish (leader dans son domaine), avec un score de 28 victoires, 72 nulles et aucune défaite. Il faut cependant noter que la puissance de calcul disponible pour AlphaZero (4TPU v2 pour jouer, soit une puissance de calcul de 720Teraflops) était très supérieure à la puissance disponible de Stockfish pour ce match, ce dernier tournant sur un ordinateur équipé de seulement 64cœursIntel[290]. AlphaZero a également battu (après apprentissage) le programme de shōgiElmo (en)[291],[292].

L'apparition d'AlphaZero et de son nouveau style, notamment l'importance des sacrifices de long terme, a fait évoluer la façon de jouer des meilleurs joueurs d'échecs humains jusqu'àMagnus Carlsen[293].

Go

[modifier |modifier le code]
Articles détaillés :Go en informatique etMatch AlphaGo - Lee Sedol.

En 2015, l'IA réalise des progrès significatifs dans la pratique dugo, plus complexe à appréhender que leséchecs (entre autres à cause du plus grand nombre de positions : 10170 au go, contre 1050 pour les échecs, et de parties plausibles : 10600 au go, contre 10120 pour les échecs)[294].

En,AlphaGo, un logiciel d'IA conçu parDeepMind, filiale deGoogle, bat pour la première foisFan Hui, le triple champion européen de go[295] et ainsi relève ce qu'on considérait comme l'un des plus grands défis pour l'intelligence artificielle. Cette tendance se confirme en quand AlphaGobat par trois fois consécutives le champion du monde de la discipline,Lee Sedol, dans un duel en cinq parties[296]. Lee Sedol a déclaré au terme de la seconde partie qu'il n'avait trouvé« aucune faiblesse » chez l'ordinateur et que sa défaite était« sans équivoque ».

Jeopardy!

[modifier |modifier le code]
Réplique deWatson, lors d'un concours deJeopardy!

En 2011, l'IAWatson conçue parIBM bat ses adversaires humains aujeu télévisé américainJeopardy!. Dans ce jeu de questions/réponses, lacompréhension du langage est essentielle pour la machine ; pour ce faire, Watson a pu s'appuyer sur une importantebase de données interne lui fournissant des éléments deculture générale, et avait la capacité d'apprendre par lui-même, notamment de ses erreurs. Il disposait néanmoins d'un avantage, la capacité d'appuyer instantanément (et donc avant ses adversaires humains) sur lebuzzer pour donner une réponse[294].

Poker

[modifier |modifier le code]
Article connexe :Libratus.

En 2007, Polaris est le premierprogramme informatique à gagner un tournoi depoker significatif face à des joueurs professionnels humains[297],[298].

En 2017, lors du tournoi de poker « Brains Vs. Artificial Intelligence : Upping the Ante » (« Cerveau contre Intelligence Artificielle : on monte la mise ») organisé dans uncasino dePennsylvanie, l'intelligence artificielleLibratus, développée par des chercheurs de l'université Carnegie-Mellon dePittsburgh, est confrontée à des adversaires humains dans le cadre d'une partie marathon étalée sur20 jours[298]. Les joueurs humains opposés à Libratus, tous professionnels de poker, affrontent successivement la machine dans une partie en face à face (heads up (en)) selon les règles du « No LimitTexas hold'em » (no limit signifiant que les mises ne sont pas plafonnées), la version alors la plus courante du poker. Les parties sont retransmises en direct et durant huit heures par jour sur la plateformeTwitch[299].

Au terme de plus de 120 000 mains jouées, Libratus remporte tous ses duels face aux joueurs humains et accumule 1 766 250 dollars (virtuels). Le joueur humain ayant perdu le moins d'argent dans son duel face à la machine, Dong Kim, est tout de même en déficit de plus de 85 000 dollars. Dans leurs commentaires du jeu de leur adversaire, les joueurs humains admettent que celui-ci était à la fois déconcertant et terriblement efficace. En effet, Libratus « étudiait » chaque nuit, grâce aux ressources d'un supercalculateur situé à Pittsburgh, ses mains jouées durant la journée écoulée, utilisant les15 millions d'heures-processeur de calculs du supercalculateur[299].

La victoire, nette et sans bavure, illustre les progrès accomplis dans le traitement par l'IA des « informations imparfaites », où la réflexion doit prendre en compte des données incomplètes ou dissimulées. Les estimations du nombre de possibilités d'une partie de poker sont en effet d'environ 10160 dans la varianteno limit en face à face[299].

Auparavant, en 2015, le joueur professionnelDoug Polk (en) avait remporté la première édition de cet évènement contre une autre IA, baptiséeClaudico (en)[299].

Bridge

[modifier |modifier le code]
Article détaillé :Logiciel de bridge.

En mars 2022, un logiciel debridge de la start-up française Nukkai parvient à gagner un tournoi et à expliquer aux perdants leurs erreurs[300].

Notes et références

[modifier |modifier le code]

Notes

[modifier |modifier le code]
(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé« Artificial intelligence »(voir la liste des auteurs).
  1. (en)« the building of computer programs which perform tasks which are, for the moment, performed in a more satisfactory way by humans because they require high level mental processes such as: perception learning, memory organization and critical reasoning ».
  2. DarkBert a été initialement conçu comme un outil de lutte contre le cybercrime.
  3. Dans cet épisode, l'échange entre Derrick et le Pr Rotheim (Ernst Schröder) vers 17'25" : « Le Dr Römer doutait sur le bien fondé des recherches sur l'intelligence artificielle », puis à 17'54" « On fait une caricature de l'intelligence qui n'a pas de morale », puis vers 29'25", madame Römer échange avec Derrick : « Il craignait que [...] L'intelligence artificielle présente de trop gros risques.», consultable sur YouTube ou le DVDInspecteur Derrick - Intégrale saison 10.
  4. Arnold Denker était alors âgé de74 ans et crédité d'unclassement Elo de 2300, ce qui relativise un peu la performance du programme, unfort grand maître étant à cette époque plus vers les 2 650–2 700 points Elo, voire davantage.
  5. Voir plus bas dans la section « Go ».

Références

[modifier |modifier le code]
  1. Ministère de l'Enseignement supérieur et de la Recherche,« France intelligence artificielle »[PDF],(version du surInternet Archive).
  2. « Les applications les plus populaires de l'Intelligence Artificielle (IA) », surPandIA,(consulté le).
  3. a etbJacques Henno, « 1956 : et l'intelligence artificielle devint une science », surLes Échos,(consulté le).
  4. a etbAntoine Crochet-Damais, « AI winter : qu'est-ce que l'hiver de l'IA ? », surLe Journal du Net,(consulté le).
  5. a etb« Le code source du réseau neuronal qui a lancé toutes les IA est disponible au téléchargement », surClubic,.
  6. AntoineCrochet-Damais, « Transformer : un réseau de neurones taillé pour le NLP », surJDN,(consulté le).
  7. FrédéricOlivieri, « 2 Français sur 3 ont déjà utilisé un outil IA : ChatGPT loin devant Google et Meta », surSiècle Digital,(consulté le).
  8. « L’intelligence artificielle va-t-elle supprimer des millions d’emplois ? », surOuest France,.
  9. « Propagande russe : comment des réseaux tentent « d’infecter » les intelligences artificielles », surLe Parisien,(consulté le).
  10. ab etc« La croissance de l’IA sera insoutenable sans planification, alerte le Shift Project »,Le Monde,‎(lire en ligne, consulté le).
  11. JulienLausson, « Le RGPD laisse de la place à l'IA, mais gare aux « lignes rouges » », surNumerama,(consulté le).
  12. (en) AdamBales, WilliamD'Alessandro et Cameron DomenicoKirk‐Giannini, « Artificial Intelligence: Arguments for Catastrophic Risk »,Philosophy Compass,vol. 19,no 2,‎(ISSN 1747-9991 et1747-9991,DOI 10.1111/phc3.12964,lire en ligne, consulté le).
  13. « Qu'est-ce que l'intelligence artificielle (IA) ? », surIBM(consulté le).
  14. (en)John McCarthy, « What is artificial intelligence? »[PDF],.
  15. « Intelligence artificielle », surLarousse(consulté le).
  16. (en) Russell, S. et Norvig, P.,Artificial Intelligence: A Modern Approach (2nd ed.), Prentice Hall,, 932 p.(ISBN 0-13-790395-2), section 1.1.
  17. « Intelligence artificielle, machine learning, deep learning : kézako ? », surledigitalab.com,.
  18. a etb(en)Centre commun de recherche, SofiaSamoili, MontserratLópez Cobo et BlagojDelipetrev,AI watch, defining artificial intelligence 2.0 : towards an operational definition and taxonomy for the AI landscape,Office des publications de l'Union européenne,, 125 p.(ISBN 978-92-76-42648-6,ISSN 1831-9424,DOI 10.2760/019901).
  19. (en) « A definition of Artificial Intelligence: main capabilities and scientific disciplines »,Shaping Europe’s digital future,(consulté le).
  20. a etbKathleen Desveaud,L'Intelligence Artificielle décryptée : Comprendre les enjeux et risques éthiques de l'IA pour mieux l'appréhender, EMS,, 274 p.(ISBN 2376879604).
  21. abcd eteMark Esposito, Kariappa Bheemaiah et Terence Tse, « Vous avez dit « machine learning » ? Quand l'ordinateur apprend à apprendre », surtheconversation.com,(consulté le).
  22. Daniel Nelson, « Qu'est-ce que la rétropropagation ? », surunite.ai,(consulté le).
  23. (en) Nick Heath, « What is machine learning? Everything you need to know », surZDNet(consulté le).
  24. Émilie Dedieu, « Comment l'apprentissage auto-supervisé accélère l'intelligence artificielle »,L'Usine nouvelle,‎(lire en ligne, consulté le).
  25. Antoine Crochet-Damais, « Réseau de neurones artificiels : réseaux neuronaux pour l'IA », surLe Journal du Net,(consulté le).
  26. a etb« Qu'est-ce qu'un réseau de neurones convolutifs ? », surIBM(consulté le).
  27. (en) RamSagar, « Can We Speed Up Matrix Multiplication? », surAnalytics India Magazine,(consulté le).
  28. (en) Kurt Hornik, Maxwell Stinchcombe et Halbert White, « Multilayer Feedforward Networks are Universal Approximators »,Neural Networks,‎(lire en ligne[PDF]).
  29. « Deux types de neurones artificiels pour émuler le cerveau », surThe Conversation,(consulté le).
  30. Stephane Nachez, « Qu'est-ce que leDeep Learning ? », surActuIA,(consulté le).
  31. (en) SharonGoldman, « 10 years later, deep learning ‘revolution’ rages on, say AI pioneers Hinton, LeCun and Li », surVentureBeat,(consulté le).
  32. a etb(en) Sean Michael Kerner, « What are Large Language Models? », surTechTarget(consulté le).
  33. (en) Craig S.Smith, « ChatGPT-4 Creator Ilya Sutskever on AI Hallucinations and AI Democracy », surForbes,(consulté le).
  34. (en) Aayush Mittal, « NLP Rise with Transformer Models: A Comprehensive Analysis of T5, BERT, and GPT », surUnite.ai,(consulté le).
  35. « Microsoft annonce l'intégration de la technologie GPT-4 dans ses outils Word, Excel, Outlook et Teams »,Le Monde,‎(lire en ligne, consulté le).
  36. (en) BeatriceNolan, « Here's what we know so far about Google's Gemini », surBusiness Insider,(consulté le).
  37. ab etcRussell et Norvig 2021, chapitre 4.
  38. Russell et Norvig 2021, chapitre 3.
  39. Russell et Norvig 2021, chapitre 5.
  40. Russell et Norvig 2021, chapitre 3.5.
  41. AntoineCrochet-Damais, « Comment l'informatique quantique va doper l'IA générative », surLe Journal du Net,(consulté le).
  42. ab etcRussell et Norvig 2021, chapitres 6 à 10.
  43. (en) « What is 'fuzzy logic'? Are there computers that are inherently fuzzy and do not apply the usual binary logic? », surScientific American(consulté le).
  44. Russell et Norvig 2021, chapitre 13.
  45. ab etcRussell et Norvig 2021.
  46. « Qu'est-ce que la simulation de Monte-Carlo ? », surIBM(consulté le).
  47. (en) VijaysinhLendave, « A Beginners' Guide to Cross-Entropy in Machine Learning », surAnalytics India Magazine,(consulté le).
  48. Kassidy Kelley et Gaétan Raoul, « Machine Learning : les 9 types d'algorithmes les plus pertinents en entreprise », surLeMagIT,(consulté le).
  49. Russell et Norvig 2021, chapitre 21.
  50. (en) HP Newquist,The Brain Makers : Genius, Ego, And Greed in the Quest For Machines That Think, New York: Macmillan/SAMS(ISBN 978-0-9885937-1-8),p. 30.
  51. (en) MatthewKressel, « 36 Days of Judaic Myth: Day 24, The Golem of Prague »,(consulté le).
  52. a etb(en) Pamela McCorduck,Machines Who Think,, 604 p.(ISBN 1-56881-205-1).
  53. (en) Daniel Crevier,AI: The Tumultuous Search for Artificial Intelligence, New York, BasicBooks, 1993(ISBN 978-0-465-02997-6),p. 17.
  54. ab etc(en) NickBostrom,Superintelligence : paths, dangers, strategies,Oxford University Press,, 353 p.(ISBN 978-0-19-967811-2,lire en ligne),p. 6-7.
  55. (en) Pamela McCorduck,Machines Who Think,, 604 p.(ISBN 1-56881-205-1),p. 423.
  56. Jean-Michel Bader, « Un cerveau artificiel annoncé dans dix ans »,Le Figaro,.
  57. (en) CadeMetz, KarenWeise, NicoGrant et MikeIsaac, « Ego, Fear and Money: How the A.I. Fuse Was Lit »,The New York Times,‎(ISSN 0362-4331,lire en ligne, consulté le).
  58. « OpenAI : l'association de recherche ouverte d'Elon Musk devient une entreprise fermée »,Les Échos,(consulté le).
  59. Nicolas P. Rougier, « Votre chat est plus intelligent qu'une IA », surSlate,(consulté le).
  60. Stephane Nachez, « Yann LeCun, Geoffrey Hinton et Yoshua Bengio reçoivent le prix Turing », surActuIA(consulté le).
  61. (en) « Fathers of the Deep Learning revolution receive 2018 ACM A.M. Turing Award », suracm.org(consulté le).
  62. (en) LaurieClarke, « When AI can make art – what does it mean for creativity? »,The Observer,‎(ISSN 0029-7712,lire en ligne, consulté le).
  63. (en) GraceKay, « The history of ChatGPT creator OpenAI, which Elon Musk helped found before parting ways and criticizing », surBusiness Insider(consulté le).
  64. LiamTung, « ChatGPT devient l'application à la croissance la plus rapide de tous les temps », surZDNet France,(consulté le).
  65. Benoît Mathieu, « Voici les enjeux de la course à l'intelligence artificielle »,L'Écho,‎(lire en ligne).
  66. Alexandre Piquard, « L'intelligence artificielle serait aussi dangereuse que « les pandémies ou la guerre nucléaire », selon des leaders du secteur »,Le Monde,‎(lire en ligne, consulté le).
  67. (en) BeatriceNolan, « Here's what we know so far about Google's Gemini », surBusiness Insider(consulté le).
  68. « Avec GPT-4o, OpenAI ouvre les vannes du multimodal », surLe Monde informatique,(consulté le).
  69. « Deutsche Telekom s’associe à Nvidia pour construire un centre de données d’IA en Allemagne », surBusiness AM,(consulté le).
  70. a etbPitpitt, « Intelligence artificielle générale », surDataFranca(consulté le).
  71. (en-US) « OpenAI Charter », surOpenAI(consulté le).
  72. a etb(en) Philip Boucher pour le Scientific Foresight Unit (STOA) au parlement Européen, « How artificial intelligence works », surParlement européen,(consulté le),p. 9.
  73. SébastienBubeck, VarunChandrasekaran, RonenEldan et JohannesGehrke, « Sparks of Artificial General Intelligence: Early experiments with GPT-4 »,arXiv,‎(arXiv abs/2303.12712).
  74. Jaesa, « GPT-4 présente des étincelles d'intelligence artificielle générale », surIntelligence artificielle et transhumanisme,(consulté le).
  75. (en-US) « 2022 Expert Survey on Progress in AI », surAI Impacts,(consulté le).
  76. MaxRoser, « AI timelines: What do experts in artificial intelligence expect for the future? »,Our World in Data,‎(lire en ligne, consulté le).
  77. « Superintelligence », surdatafranca(consulté le).
  78. (en) NickBostrom,Superintelligence: paths, dangers, strategies, Oxford University Press,(ISBN 978-0-19-967811-2), « Sources of advantage for digital intelligence ».
  79. Antoine Crochet-Damais, « Test de Turing : définition, principe, cas réussis, date… », surLe Journal du Net,(consulté le).
  80. (en) Olga Blinova, « Artificial intelligence: No humor, no coffee », surInvesforesight,(consulté le).
  81. (en) DishaMisal, « 5 Ways To Test Whether AGI Has Truly Arrived », surAnalytics India Magazine,(consulté le).
  82. (en) Nils John Nilsson, « Human-Level Artificial Intelligence? Be Serious! »,AI Magazine,Université Stanford,‎(lire en ligne[PDF]).
  83. « Le prix Turing récompense trois pionniers de l'intelligence artificielle (IA) »,Le Monde,‎(lire en ligne, consulté le).
  84. (en) Rodney Brooks, « How Claude Shannon Helped Kick-start Machine Learning », surspectrum.ieee.org,(consulté le).
  85. (en) « The 100 Most Influential People in AI 2023 », surTime(consulté le).
  86. « Déduction, analyse, organisation... Qu'est-ce que l'Intelligence artificielle ? », surFrance Info,(consulté le).
  87. Corentin Durand, « Saurez-vous entendre la différence entre Bach et l'IA musicale DeepBach ? », surNumerama.com,.
  88. (en-US) « Polyphonic music generation in the style of Bach », surflow-machines.com(consulté le).
  89. « Intelligence artificielle et santé », surInserm(consulté le).
  90. « Intelligence artificielle : quel avenir pour les grands modèles de langage ? »,Le Monde,‎(lire en ligne, consulté le).
  91. « Bientôt un hedge fund contrôlé par intelligence artificielle ? »,BFM TV,.
  92. « Trading haute fréquence », surLa finance pour tous(consulté le).
  93. Eric Autellet et Alexandre Papaemmanuel, « L’intelligence artificielle transforme les paradigmes traditionnels de la guerre »,Le Monde,‎(lire en ligne, consulté le).
  94. Cyril Bras, « L'Impact transformateur de l'intelligence artificielle sur la cybersécurité », surLe Journal du Net,(consulté le).
  95. a etb(en) Robert Solano, « ChatGPT in DOD acquisitions »,USAASC,‎(lire en ligne).
  96. (en) « Project Maven to Deploy Computer Algorithms to War Zone by Year’s End », surDépartement de la Défense des États-Unis,(consulté le).
  97. Nathalie Guibert, « Les défis militaires de l’intelligence artificielle »,Le Monde,‎(lire en ligne, consulté le).
  98. Marie-Claude Benoit, « Robots tueurs :Human Rights Watch appelle les états ayant signé la résolution de l'ONU à l'action », surActuIA,(consulté le).
  99. Clément Poursain, « Les drones ukrainiens pilotés par l'IA pourraient tuer sans qu'on leur en donne l'ordre », surKorii,(consulté le).
  100. (en) SamBiddle, « OpenAI Quietly Deletes Ban on Using ChatGPT for “Military and Warfare” », surThe Intercept,(consulté le).
  101. Task Force IA,L'intelligence artificielle au service de la défense,(lire en ligne[PDF]).
  102. « L'intelligence artificielle et le monde de la défense », surentreprises.gouv.fr(consulté le).
  103. AliceVitard, « Le Comité d'éthique de la défense approuve sous conditions les armes létales autonomes »,L'Usine digitale,‎(lire en ligne, consulté le).
  104. ministère de l'Europe et des Affaires étrangères, « Systèmes d'armes létales autonomes, quelle est l'action de la France ? », surdiplomatie.gouv.fr,ministère de l'Europe et des Affaires étrangères(consulté le).
  105. « Le ministère des Armées déploie son IA générative sécurisée et souveraine : GenIAl.intradef », surActuIA(consulté le).
  106. (en-US) AmjadIraqi, « 'Lavender': The AI machine directing Israel's bombing spree in Gaza », sur+972 Magazine,(consulté le).
  107. a etb(en-GB) HarryDavies, BethanMcKernan et DanSabbagh, « 'The Gospel': how Israel uses AI to select bombing targets in Gaza »,The Guardian,‎(lire en ligne, consulté le).
  108. « Le recours à l'intelligence artificielle par Israël augmente-t-il le nombre de Gazaouis tués ? », surFrance Culture,(consulté le).
  109. (en) « Israel Loosened Its Rules to Bomb Hamas Fighters, Killing Many More Civilians », surThe New York Times,(consulté le).
  110. « L'intelligence artificielle, as du diagnostic médical »,Le Monde,‎(lire en ligne, consulté le).
  111. « Maladies de l'œil : l'intelligence artificielle meilleure que les médecins ? »,Les Échos,‎(lire en ligne).
  112. NathanMann, « Une intelligence artificielle de Google dénoue le problème cinquantenaire du repliement des molécules »,L'Usine nouvelle,‎(lire en ligne, consulté le).
  113. FrançoisManens, « Google vient-il de résoudre un problème vieux de 50 ans en biologie ? », surNumerama,(consulté le).
  114. Sandrine Cabut, Alexandre Piquard et Martin Untersinger, « Controversé et retardé, leHealth Data Hub veut pourtant faire ses preuves dans la santé »,Le Monde,‎(lire en ligne, consulté le).
  115. (en) HilaryBrueck, « The newest version of ChatGPT passed the US medical licensing exam with flying colors — and diagnosed a 1 in 100,000 condition in seconds », surBusiness Insider,(consulté le).
  116. (en) Kelly N. DuBois, « DEEP MEDICINE: How Artificial Intelligence Can Make Healthcare Human Again »,.
  117. Scott Mayer McKinney, Marcin Sieniek, « International evaluation of an AI system for breast cancer screening »,.
  118. Jean-François Lemoine, « Révolution dans le développement de médicaments grâce à l'IA ».
  119. (en) Andre Esteva, « Dermatologist-level classification of skin cancer with deep neural networks »,Nature,‎(lire en ligne).
  120. Alexandre Boero, « La police britannique travaille sur une IA qui sera capable de devancer votre crime », surClubic,.
  121. (en) Stephen Buranyi, « The rise of the racist robots »,The Guardian,.
  122. Romaric Saint-Aubert, « Quand l'IA devient l'arme du crime »Accès libre, surBusiness2Community.com,.
  123. « Justice Prédictive : de l'idée à la réalité », surjustice-predictive.com(consulté le).
  124. a etbHaroldGrand, « En Estonie, une intelligence artificielle va rendre des décisions de justice »,Le Figaro,(consulté le).
  125. « Les avocats face à la révolution numérique. S'adapter pour rebondir », surAtlantico.fr(consulté le).
  126. (en-GB)« Online dispute resolution »[archive du], surEuropean Committee on Legal Co-operation(consulté le).
  127. Charte éthique sur l'utilisation de l'intelligence artificielle dans les systèmes judiciaires[PDF],Commission européenne pour l'efficacité de la justice, 84 pages ;Outil d'évaluation pour l'opérationnalisation de la Charte éthique européenne sur l'utilisation de l'intelligence artificielle dans les systèmes judiciaires et leur environnement,.
  128. « Justice - Intelligence artificielle »[archive du], surConseil de l'Europe(consulté le).
  129. Stratégie européenne sur la justice en ligne pour la période 2024-2028[PDF], 17 novembre 2023.
  130. Règlement relatif à la numérisation de la coopération judiciaire et de l'accès à la justice, acte législatif, 29 novembre 2023.
  131. « Directive en ce qui concerne la numérisation de la coopération judiciaire », surConseil de l'Union européenne,.
  132. (en) « EU Funding & Tenders Portal », surCommission européenne(consulté le).
  133. L'IA au service de la justice : stratégies et solutions opérationnelles, ministère de la Justice(résumé,lire en ligne[PDF]).
  134. VincentBouquet, « Supply chain : l'intelligence artificielle, une promesse de levier d'amélioration », surLes Echos Executives,(consulté le).
  135. « Urbanloop – smart urban mobility », sururbanloop.univ-lorraine.fr(consulté le).
  136. « Google Maps roule à l'IA pour optimiser la navigation », surjournaldunet.com(consulté le).
  137. Stéphanie Condon, « Vidéo : comment l'intelligence artificielle a contribué à améliorer Google Maps », surZDNet France(consulté le).
  138. Larry Dignan, « Facebook associe son service Map With AI au projet OpenStreetMap », surZDNet France(consulté le).
  139. Acatech 2011.
  140. ab etc« Les enjeux de l'intelligence artificielle dans la robotique »,Journal Innovations et Technologies,no 210,‎,p. I-VI(lire en ligne[PDF], consulté le).
  141. Amélie Cordier,Introduction à l'intelligence artificielle développementale (cours),Laboratoire d'informatique en image et systèmes d'information, 41 p.(lire en ligne[PDF]).
  142. Michel Bret, Edmond Couchot et Patrice Besnard (restauration), « Les Pissenlits », vidéo de l'installation interactive, duréemin 8 s, surUniversité Paris-VIII,(consulté le).
  143. Living art : L'art numérique,CNRS Éditions(présentation en ligne).
  144. « Obvious, les Français derrière la première peinture d'une IA vendue aux enchères », surFrance 24,.
  145. « Une peinture, réalisée par une Intelligence artificielle, mise aux enchères », surobjetconnecte.net(consulté le).
  146. FlorianeLeclerc, « Que sont les GANs, ces systèmes de machine learning à l'origine des deepfakes ? »,L'Usine Digitale,‎(lire en ligne, consulté le).
  147. « Arts : l'autre Terre de Grégory Chatonsky au Palais de Tokyo »,Le Monde,‎(lire en ligne, consulté le).
  148. « OpenAI's DALL-E creates plausible images of literally anything you ask it to », surTechCrunch,(consulté le).
  149. « ChatGPT et Midjourney font évoluer vos pratiques professionnelles ? Racontez-nous »,Le Monde,‎(lire en ligne, consulté le).
  150. VictorVasseur, « Les fausses images de Macron en éboueur et de Trump en prison montrent l'incroyable potentiel de l'IA », surFrance Inter,(consulté le).
  151. « Cette fausse photo du pape François en doudoune blanche est devenue virale, voici son histoire », surOuest-France.fr,(consulté le).
  152. (en) Jordan Hart,The AI program used to generate fake viral images of Pope Francis and Donald Trump just suspended free trials — but professional photographers say they're still concerned,Business Insider, 30 mars 2023,Business Insider.
  153. ClémentineMercier, « Intelligence artificielle : «Le droit d'auteur protège une création précise, mais pas une manière de créer» », surLibération,(consulté le).
  154. Photos créées par des IA : une bascule vertigineuse et dangereuse, Jonathan Bouchet-Petersen, 31 mars 2023,Libération :« Emmanuel Macron ramassant les poubelles, le Pape en doudoune blanche type Bibendum, Donald Trump se débattant au milieu de policiers venus l'arrêter… Ces images ont en commun d'avoir été générées par des intelligences artificielles. ».
  155. Stéphanie Lemoine, « Grégory Chatonsky : « L’intelligence artificielle est une nouvelle façon de naviguer dans la culture humaine » », surLe Journal Des Arts,(consulté le).
  156. « Au Japon, une autrice lauréate d’un prix littéraire dit avoir écrit en partie son roman avec ChatGPT », surLibération,(consulté le).
  157. « Avec Sora, OpenAI impressionne dans la génération de vidéo », surLe Monde informatique,(consulté le).
  158. (en) VandanaNair, « AI-Music Platform Race Accelerates with Udio », surAnalytics India Magazine,(consulté le).
  159. « Comment l'IA change l'école »,Courrier international,no 1819,‎ 11-17 septembre 2025,p. 28-37, un dossier constitué de la traduction de plusieurs articles parus dans la presse internationale.
  160. « Comment l'intelligence artificielle va-t-elle changer notre vie quotidienne ? », surRobots & Cie,(consulté le).
  161. « Quand l'IA aide les développeurs à programmer », surMicrosoft(consulté le).
  162. Ivan Capecchi, « Médias, faites GAFA à l'IA ! »,L'ADN.eu,‎(lire en ligne).
  163. « La première animatrice télé virtuelle fait ses débuts en Corée du Sud », sur20minutes.fr(consulté le).
  164. (en-US) « The A.I. Chair », surGessato,(consulté le).
  165. « Elon Musk lance Grokipedia, son Wikipédia jugé biaisé idéologiquement »,Le Monde,‎(lire en ligne, consulté le).
  166. « Bill Gates », surEncyclopædia Universalis(consulté le).
  167. « Intelligence artificielle, les défis actuels et l'action d'Inria », surINRIA,(consulté le).
  168. « « Intelligence artificielle, intelligence humaine : la double énigme », de Daniel Andler : chimériques machines qui pensent »,Le Monde,‎(lire en ligneAccès limité, consulté le).
  169. (en)Irving John Good,« Speculations Concerning the First Ultraintelligent Machine »,Advances in Computers,vol. 6, 1966,p. 31-88.
  170. (en) VernorVinge, « The coming technological singularity: How to survive in the post-human era »,NASA,‎1er décembre 1993(lire en ligne, consulté le).
  171. a etbRayKurzweil (trad. Adeline Mesmin),Humanité 2.0: la bible du changement, M21,(ISBN 978-2-916260-04-4).
  172. (en) Raffi Khatchadourian, « The Doomsday Invention », surThe New Yorker,(consulté le).
  173. « Sommet sur les risques de l'intelligence artificielle : ce que l'on sait du programme », surOuest-France,(consulté le).
  174. Rémi Sussan, « Stephen Hawking craint l'intelligence artificielle. Et s'il avait tort ? », surnouvelobs.com,(consulté le).
  175. « Selon Stephen Hawking, l'intelligence artificielle est un danger pour l'humanité », surwebdeveloppementdurable.com(consulté le).
  176. Alexandre Piquard, « Intelligence Artificielle Web Summit »,Le Monde,.
  177. L'intelligence artificielle inquiète les grands cerveaux contemporains, France 24,.
  178. « L'intelligence artificielle pourrait mettre 50% de l'humanité au chômage », surL'Express,(version du surInternet Archive).
  179. (en) JoeMcKendrick, « Let's Make Artificial Intelligence 'Boring' Again », surForbes(consulté le).
  180. Lewis Mumford,Le Mythe de la machine, deux volumes, 1967-1970; tard., Fayard, 1974.
  181. Jacques Ellul,La Technique ou l'Enjeu du siècle, 1954;3e édition : Economica 2008.
  182. Günther Anders,L'obsolescence de l'homme, tome 1, 1956; tome 2, 1980; tard. fr.2002 et 2011.
  183. Pièces et Main d'Œuvre Site officiel.
  184. Technologos Site officiel.
  185. François Jarrige,Techno-critiques. Du refus des machines à la contestation des technosciences, La Découverte, 2014.
  186. (en) NickBostrom, « What happens when our computers get smarter than we are? »,(consulté le) :« We should not be confident in our ability to keep a superintelligent genie locked up in its bottle forever. Sooner or later, it will out. I believe that the answer here is to figure out how to create superintelligent A.I. such that even if—when—it escapes, it is still safe because it is fundamentally on our side because it shares our values. »
  187. DR, « L'intelligence artificielle devient de plus en plus incompréhensible », surParis Match,.
  188. « L'IA pourrait poser un « risque d'extinction » pour l'humanité, affirment350 experts », surLes Échos,(consulté le).
  189. KevinRoose, « Vie numérique: L'IA constitue un « risque d'extinction » pour l'humanité »,La Presse (traduit depuisThe New York Times),‎(lire en ligne, consulté le).
  190. « Intelligence artificielle : les risques d'une utilisation malveillante »,Futura,(consulté le).
  191. « Texas Legislature Online - 89(R) History for SB 6 », surCapitole de l'État du Texas(consulté le).
  192. (en-US) « Texas law gives grid operator power to disconnect data centers during crisis », surutilitydive.com(consulté le).
  193. Anne Feitz, « IA : la France et l'Europe mal préparées face à l'explosion de la consommation d'électricité »,Les Échos,.
  194. a etb« La climatisation et le boom de l’IA vont-ils faire dérailler les engagements climatiques des États ? »,The conversation,(consulté le).
  195. « Le nucléaire, une planche de salut énergétique pour l'IA »,Le Monde informatique,(consulté le).
  196. « Les géants du numérique se convertissent au nucléaire pour étancher les besoins énergétiques toujours plus importants de l’IA »,Le Monde,‎(lire en ligne, consulté le).
  197. Damien Licata Caruso, « L’intelligence artificielle générative, ce monstre énergivore qui inquiète »,Le Parisien,(consulté le).
  198. a etb(en) « The open-source AI boom is built on Big Tech’s handouts. How long will it last? », surMIT Technology Review(consulté le).
  199. (en) KyleWiggers, « Google open sources tools to support AI model development », surTechCrunch,(consulté le).
  200. « La majorité des efforts de Mozilla pour donner de l’élan au mouvement sont orientés vers le développement d’une intelligence artificielle (IA) digne de confiance. »,La santé d'Internet,Mozilla Foundation,(consulté le).
  201. PierreFontaine, « Comment la fondation Mozilla veut créer une IA de confiance pour nous sauver des géants de la tech », sur01net,(consulté le).
  202. (en) « AI startup Mistral launches a 281GB AI model to rival OpenAI, Meta, and Google », surZDNet,(consulté le).
  203. (en) Alex McFarland et Antoine Tardif, « 5 Best Open Source LLMs (April 2024) », surUnite.ai,(consulté le).
  204. a etb« L'équilibre délicat entre sécurité et innovation dans l'IA : « bannir les modèles "open weights" serait un désastre » selon un chercheur », surDeveloppez.com,(consulté le).
  205. (en) Matt Marshall, « How enterprises are using open source LLMs: 16 examples »,VentureBeat,‎(lire en ligne).
  206. (en) KelseyPiper, « Should we make our most powerful AI models open source to all? », surVox,(consulté le).
  207. « Intelligence artificielle : la transformation en cours des métiers peut-elle favoriser l'émergence d'un revenu universel ? », surFrance Info,(consulté le).
  208. a etbSylvain Biget, « Les emplois qui seront les plus touchés ou remplacés par les IA génératives comme ChatGPT, selon Goldman-Sachs », surfutura-sciences.com,(consulté le).
  209. « L'intelligence artificielle en veut-elle à votre emploi? », surlesaffaires.com,(consulté le).
  210. Thomas Jestin, « L'IA va-t-elle provoquer un chômage de masse ? Creuser les inégalités ? Renforcer les GAFA ? », surJournal du Net,(consulté le).
  211. François Desnoyers, « « Un monde sans travail » : quand le chômage technologique arrivera… »,Le Monde,‎(lire en ligne, consulté le).
  212. « Long story | Sam Altman et le revenu universel de base », surForbes France,(consulté le).
  213. Langlois, « L’éthique en matière d’intelligence artificielle : les biais discriminatoires », surLanglois(consulté le).
  214. Nathan Noiry, « Des biais de représentativité en intelligence artificielle »,Le Monde(consulté le).
  215. Harari 2024,p. 397-400.
  216. abcd eteHarari 2024.
  217. Éric Sadin, « L'asservissement par l'Intelligence Artificielle ? »[vidéo], surThinkerview,(consulté le).
  218. a etbÉric Sadin, « Le devenir légume de l’humanité ? »[vidéo], surThinkerview,(consulté le).
  219. (en)Nicholas Carr,The Shallows: What the Internet Is Doing to Our Brains.
  220. « Les impacts sociaux de l’IA », surEcoInfo(consulté le).
  221. « Les 20 menaces les plus dangereuses de l’intelligence artificielle »[vidéo], surFutura(consulté le).
  222. Yuval Noah Harari,21 leçons pour leXXIe siècle.
  223. « Myanmar. Les systèmes de Facebook ont promu la violence contre les Rohingyas – Meta doit des réparations. », surAmnesty International,(consulté le).
  224. (en) Michael Kan, « GPT-4 Was Able To Hire and Deceive A Human Worker Into Completing a Task », surPCMag.
  225. « GPT-4 a réussi à tromper un humain, l'incitant à résoudre un CAPTCHA après avoir prétendu être aveugle », surDeveloppez.com,(consulté le).
  226. ab etc« OpenAI et Anthropic envisagent d’utiliser des fonds d’investisseurs pour régler des procès Par Investing.com », surInvesting.com France(consulté le).
  227. « OpenAI et Anthropic recherchent des fonds d'investisseurs pour régler les litiges en matière d'IA, selon le FT », surBoursorama,(consulté le).
  228. « Laurent Alexandre : "L'IA va accroître les inégalités intellectuelles et la fragmentation sociale" »,Le Nouvel Économiste,(consulté le).
  229. (en) Dom Galeon, « The United Arab Emirates is the first country in the world to hire a minister for artificial intelligence », surBusiness Insider,.
  230. (en) « Appliquer les Principes de l'OCDE sur l'IA : progrès et perspectives », suroecd.ai(consulté le).
  231. « Création du partenariat mondial pour l'intelligence artificielle : secrétariat au sein de l'OCDE à Paris », surActuIA(consulté le).
  232. (en) « AI for Good Global Summit 2018 », surUnion internationale des télécommunications(consulté le).
  233. a etbAusmaBernot et FanYang, « Qui gouvernera l'IA ? La course des nations pour réguler l'intelligence artificielle », surThe Conversation,(consulté le).
  234. Francis Donnat, « L'intelligence artificielle, une menace pour la vie privée ? »,Pouvoirs,Éditions du Seuil,no 170,‎,p. 95-103(ISBN 978-2-02-140678-8,ISSN 0152-0768,DOI 10.3917/pouv.170.0095Accès libre,lire en ligne).
  235. LucieLequier, « Tout comprendre à l'IA Act, le texte européen de réglementation de l'intelligence artificielle », surNumerama,(consulté le).
  236. « Article 6 : Règles de classification des systèmes d'IA à haut risque », surLoi européenne sur l'intelligence artificielle(consulté le).
  237. (en) « Public consultation on implementing the AI Act's rules on high-risk AI systems », surAssociation des universités européennes(consulté le).
  238. « La Commission européenne lance une consultation publique sur les systèmes d'intelligence artificielle à haut risque », surActuIA,(consulté le).
  239. (en) House of Commons Digital, Culture, Media and Sport Committee,Disinformation and ‘fake news': Final Report ; Eighth Report of Session 2017–19 ; Report, together with formal minutes relating to the report,(lire en ligne[PDF]) ; rapport commandé parthe House of Commons, Ref HC 1791, publié le 18 février 2019, imprimé le 14 février 2019 pour le Gouvernement britannique. Voir notamment paragraphe 149.
  240. (en) « Investigation into data analytics for political purposes », surico.org.uk,(consulté le).
  241. « "Sans Cambridge Analytica, il n'y aurait pas eu de Brexit", affirme le lanceur d'alerte Christopher Wylie », surfrancetvinfo.fr,(consulté le).
  242. Morgane Tual, « Intelligence artificielle : les géants du Web lancent un partenariat sur l'éthique »,Le Monde,‎(ISSN 1950-6244,lire en ligne).
  243. « Intelligence artificielle : Google DeepMind se dote d'une unité de recherche sur l'éthique »,Le Monde,‎(ISSN 1950-6244,lire en ligne).
  244. (en) « Asilomar AI Principles », surFuture of Life Institute(consulté le).
  245. Hatem Bakri, « Intelligence Artificielle. Quels Impacts sur la Société ? », surMBA MCI(consulté le).
  246. (en-US) « Lethal Autonomous Weapons Pledge », surfutureoflife.org(consulté le).
  247. « Des milliers d'experts en intelligence artificielle s'engagent à ne pas participer à la création d'armes »,Le Monde,‎(lire en ligne).
  248. L'UNESCO rejoint le Partenariat mondial sur l'Intelligence Artificielle comme observateur,UNESCO, 2022.
  249. Publications Office of the EuropeanUnion, « Intelligence artificielle Une approche européenne axée sur l'excellence et la confiance, COM/2020/65 final », surOffice des publications de l'Union européenne,(consulté le).
  250. « Réglementation de l'Intelligence artificielle en Europe », surDevoteam France(consulté le).
  251. (en) « Une Europe adaptée à l'ère du numérique : La Commission propose de nouvelles règles et actions en faveur de l'excellence et de la confiance dans l'intelligence artificielle », surCommission européenne,(consulté le).
  252. « Premier Forum mondial sur l'éthique de l'IA à Prague, un an après l'adoption de la Recommandation de l'UNESCO », surUNESCO,.
  253. « Intelligence artificielle : l'UNESCO appelle à mettre en œuvre sans délai le cadre éthique mondial », surONU Info,(consulté le).
  254. a etb« Recommandation sur l’éthique de l’intelligence artificielle », surunesco.org,(consulté le).
  255. ab etc« Éthique: l'Unesco appelle les États à appliquer sa recommandation sur l'intelligence artificielle », surÉditions techniques de l'ingénieur(version du surInternet Archive).
  256. « François met en garde contre les conséquences pour la paix de l'IA », survaticannews.fr(consulté le).
  257. Sylvain Naillat, « Faut-il un droit des robots ? », surLa Tribune,(consulté le).
  258. « Règles de droit civil sur la robotique. Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) ».
  259. ab etc(en) Mark Coeckelbergh et Henrik Skaug Sætra, « Climate change and the political pathways of AI: The technocracy-democracy dilemma in light of artificial intelligence and human agency »,Technology in Society,vol. 75,‎(DOI 10.1016/j.techsoc.2023.102406Accès libre).
  260. ab etc« Quelles différences entre l'IA symbolique et l'apprentissage automatique ? », surActuIA,(consulté le).
  261. (en) John Eikenberry,GNU/Linux AI & Alife HOWTO,(lire en ligne[PDF]).
  262. André Le Garff,Dictionnaire de l'informatique, 1975,576 p.
  263. Voir la définition utilisée parJohn Searle dans son expérience de lachambre chinoise.
  264. Michael David Mitchell, « Robotique et neurosciences détectent le siège de la conscience de soi »,Actualités,École polytechnique fédérale de Lausanne,.
  265. (en) Hilary Putnam, « The Best of All Possible Brains? », surarchive.nytimes.com,(consulté le).
  266. (en) « Discovery of quantum vibrations in 'microtubules' inside brain neurons supports controversial theory of consciousness », surScienceDaily(consulté le).
  267. « Le mystère de la "chambre chinoise" »,Le Monde,‎(lire en ligne, consulté le).
  268. (en)Dreyfus, Hubert L.,What computers can't do : a critique of artificial reason,Harper & Row,(ISBN 0-06-011082-1 et978-0-06-011082-6,OCLC 257056),p. 106.
  269. (en) GeorgeMusser, « How AI Knows Things No One Told It », surScientific American,(consulté le).
  270. Jean-Gabriel Ganascia, « Génération automatique de textes, plagiat et intégrité scientifique »,La Recherche(consulté le).
  271. (en) Shyam NandanUpadhyay, « Text is a Projection of the World: OpenAI's Sutskever », surAnalytics India Magazine,(consulté le).
  272. (en-US) « The Challenges Of Building AI Apps », surTechCrunch(consulté le).
  273. AbdelBelaïd, « La reconnaissance automatique de l'écriture »,Pour la science(consulté le).
  274. Veronica Smink, « Les trois stades de l'intelligence artificielle : dans lequel nous nous trouvons et pourquoi beaucoup pensent que le troisième pourrait être fatal ? », surBBC News Afrique,(consulté le).
  275. ab etcMartin Gibert,Faire la morale aux robots : une introduction à l'éthique des algorithmes,, 95 p.(ISBN 978-2-89759-516-6 et2-89759-516-7,OCLC 1146545386).
  276. « Intelligence : qu'est-ce que c'est ? », surFutura(consulté le).
  277. Michel Lévy-Provençal, « Se préparer à l'intelligence artificielle générale », surLes Échos,(consulté le).
  278. JeanRohmer, « Comprendre l'intelligence artificielle symbolique », surThe Conversation,(consulté le).
  279. « Quand l'écrivain de science-fiction Isaac Asimov prédisait le futur », surFrance Culture,(consulté le).
  280. (en) Georgia Panteli, « From puppet to cyborg: posthuman and postmodern retellings of the Pinocchio myth »[PDF], surdiscovery.ucl.ac.uk.
  281. « Plumbing Stanley Kubrick », surianwatson.info via web.archive.org,(consulté le).
  282. Site présentant les épisodes de la série Derrick
  283. Site fernsehserien.de; résumé (en allemand) de l'épisode . "108. Dr. Römer und der Mann des Jahres".
  284. « Westworld », surAllociné.fr(consulté le).
  285. Article de Dylan L. McClain,New York Times,, et article « Hans J. Berliner (1929-2017), Grand Maître d'échecs et programmeur de génie », Denis Rozier,Le Courrier des Échecsno 639,.
  286. Thibault Neveu, « Intelligence artificielle : démonstration en direct des nouvelles performances de DeepMind », suractuia.com,.
  287. « Les jeux et l'intelligence artificielle », suru-picardie.fr(consulté le).
  288. (en)David Levy et Monroe Newborn, « More Chess and Computers: The Microcomputer Revolution, The Challenge Match »,Computer Science Press, Potomac (Maryland) et Batsford, Londres, 1980(ISBN 0-914894-07-2).
  289. (en)« For First Time, a Chess Computer Outwits Grandmaster in Tournament », Harold C. Schonberg,The New York Times.com,.
  290. (en)« Learning, Deep or not Deep, de MENACE à AlphaGo »[PDF], suralliot.fr.
  291. (en) David Silver, Thomas Hubert, Julian Schrittwieser, Ioannis Antonoglou, Matthew Laiet al., « Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm »,.
  292. (en) Sarah Knapton et Leon Watson, « Entire human chess knowledge learned and surpassed by DeepMind's AlphaZero in four hours », surtelegraph.co.uk,.
  293. Xavier Porte etLaurent Fressinet, « Les échecs à l’ère de l’IA, avec Laurent Fressinet, grand maître international — Épisode 2 »Accès libre[audio],Le code a changé, surFrance Inter,.
  294. a etb« Jeu de go : comment savoir si les programmes d'intelligence artificielle sont vraiment… intelligents »,Le Monde,.
  295. (en)DavidSilver, JulianSchrittwieser, KarenSimonyan, IoannisAntonoglou,AjaHuang, ArthurGuez, ThomasHubert, LucasBaker, MatthewLai, AdrianBolton,YutianChen, TimothyLillicrap,HuiFan, LaurentSifre, George van denDriessche, ThoreGraepel etDemisHassabis, « Mastering the game of Go without human knowledge »,Nature,vol. 550,no 7676,‎,p. 354-359(ISSN 0028-0836,DOI 10.1038/nature24270Accès payant).
  296. « Jeu de go : Le champion du monde de nouveau battu par l'ordinateur de Google »,L'Obs,.
  297. (en) J. Rehmeyer, N. Fox et R. Rico, « Ante up, human: The adventures of Polaris the poker-playing robot »,Wired,vol. 16,no 12,‎,p. 86–191.
  298. a etb(en) Michael Bowling, Neil Burch, Michael Johanson et Oskari Tammelin, « Heads-Up Limit Hold'em Poker Is Solved »,Comm.of the ACM,vol. 60,no 11,‎,p. 81.
  299. abc etd« Comment une-intelligence artificielle ridiculise les meilleurs joueurs de poker », surNumerama,.
  300. « L'IA de la start-up française Nukkai imbattable au bridge »,Le Monde informatique,(consulté le).

Voir aussi

[modifier |modifier le code]
Unecatégorie est consacrée à ce sujet :Intelligence artificielle.

Sur les autres projets Wikimedia :

Articles connexes

[modifier |modifier le code]

Aspects juridiques

Notions générales

Notions techniques

Chercheurs en intelligence artificielle (espace anglophone)

Chercheurs en intelligence artificielle (espace francophone)

Laboratoires et entreprises en intelligence artificielle

Bibliographie

[modifier |modifier le code]

Document utilisé pour la rédaction de l’article : document utilisé comme source pour la rédaction de cet article.

Aspects techniques

[modifier |modifier le code]

Aspects prospectifs

[modifier |modifier le code]

Aspects philosophiques

[modifier |modifier le code]

Aspects économiques

[modifier |modifier le code]

Fondements cognitifs, psychologiques et biologiques

[modifier |modifier le code]

Aspects linguistiques

[modifier |modifier le code]

Histoire

[modifier |modifier le code]

Vulgarisation

[modifier |modifier le code]

Politique, relations internationales

[modifier |modifier le code]

Liens externes

[modifier |modifier le code]

Bases de données et dictionnaires

[modifier |modifier le code]

v ·m
Concepts
Techniques
Applications
Enjeux et philosophie
Histoire et événements
Concepts prospectifs
Règlementation
Organisations
Ouvrages
v ·m
Sujets connexes
Communication
v ·m
Concepts principaux
Concepts associés
Personnes clés
Organisations
Autres
v ·m
Affichage
Agriculture
Astronomie
Astrophysique
Bioinformatique
Biologie
Biomédical
Chimie
Électronique
Informatique
Physique
Robotique
Transport
v ·m
Domaines de l'informatique
Remarque : cette liste s'inspire dusystème de classification informatique de l'ACM édité en2012
Matériel
Appareil et organisation
d'unsystème
Réseau
Organisation dulogiciel
Théorie etoutil (en)
de programmation
Développement de logiciel
Théorie du calcul (en)
Algorithmique
Mathématiques
de l'informatique
Système d'information
Sécurité
Interactions humain-machine
Concurrence (en)
Intelligence artificielle
Apprentissage automatique
Infographie
Audio informatique
Informatique appliquée
v ·m
Grandes lignes
Sous-genres
Cyberpunk et dérivés
Culture
Région
Prix
Multimédia
Cinéma et télévision
Littérature, art et audio
Média
Littérature
Films etséries
Concepts
Appliqués
Formels
Vie
Espace-temps
Phénomènes
Vitesse supraluminique
Univers
Social
Sujets connexes
Ce document provient de « https://fr.wikipedia.org/w/index.php?title=Intelligence_artificielle&oldid=230885656 ».
Catégories :
Catégories cachées :

[8]ページ先頭

©2009-2025 Movatter.jp