Intelligence artificielle, un enjeu perçu comme stratégique par certains Etats

DEFENSE&Industries n°10
Frédéric Coste, décembre 2017

Le rêve de créer des machines intelligentes est très ancien. Dès l'Antiquité, certains auteurs décrivaient la possibilité, pour les dieux et les héros, d'animer des objets autonomes chargés de les servir. À la Renaissance et au XVIIIème siècle, les progrès dans la connaissance de l'anatomie humaine et le perfectionnement des automates ont suscité l'espoir, chez certains savants, que des mécanismes véritablement « intelligents » puissent être construits. Les limites scientifiques et techniques étaient bien évidemment trop importantes, et ce n'est finalement que dans les années 1950 que « l'Intelligence artificielle » a pu naître aux États-Unis en tant que nouvelle discipline. Le développement des premières générations d'ordinateurs et les travaux en psychologie cognitive et en neuropsychologie ont été les piliers de sa progression et de ses premières réussites.   

Derrière l'expression « Intelligence artificielle », sont en réalité regroupés de très nombreux concepts, techniques et technologies - plus ou moins anciens. La compréhension de l'être humain a toutefois été, dès l'origine de la discipline, l'un de ses fondements : il s'agissait, par les recherches expérimentales, de mieux appréhender les modèles de raisonnement et d'action de l'homme, afin de pouvoir programmer une intelligence. Cette volonté de s'inspirer du fonctionnement humain, voire de le copier, a notamment eu des conséquences en matière de choix des thèmes de recherche. Très tôt, les travaux sur la perception (vision artificielle, reconnaissance et classification des images et des sons...), la compréhension du langage naturel (notamment pour la traduction automatique), la représentation des connaissances (mécanismes d'encryptage et de restitution des informations dans la mémoire), la cognition, le raisonnement et l'apprentissage autonome ont structuré la discipline.

Des conditions récentes favorables au développement de l'intelligence artificielle

L'évolution de l'intelligence artificielle n'a pas été linéaire. Des périodes de stagnation dans certains domaines ont ainsi pu faire penser que les objectifs de la discipline étaient irréalistes. À la fin des années 1960, des systèmes experts apparaissent par exemple dans de nombreux domaines. Ils sont fondés sur le constat que, pour produire une évaluation, un humain met en œuvre un très grand nombre de connaissances, générales et spécifiques, et recourt à son expérience. Ces dispositifs ont connu un véritable engouement durant les deux décennies suivantes et ont été employés dans de très nombreux domaines d'activités (industrie chimique, diagnostic médical, prospection géologique, sûreté des installations industrielles...). Dans certains cas, leur niveau d'expertise était déjà supérieur à celui des professionnels. Les trop grandes attentes qu'ils ont suscitées ont cependant fini par provoquer des désillusions, leurs fonctionnalités ne progressant pas assez rapidement pour les utilisateurs.

Dans une assez large mesure, la dynamique de la discipline est actuellement sous-tendue par les avancées dans le domaine des réseaux de neurones. Dès les années 1950, certains chercheurs ont développé des machines et des logiciels copiant le cerveau humain et son fonctionnement. Cette technologie reposait sur des ordinateurs analogiques architecturés en réseaux regroupant de multiples processeurs interconnectés. Ces premiers dispositifs ont été améliorés : les réseaux de neurones profonds, programmes informatiques constitués de centaines de milliers de fonctions mathématiques organisées en plusieurs couches, ont ainsi permis d'obtenir des traitements de l'information extrêmement sophistiqués. Surtout, en 1989, l'architecture en réseau convolutif, inspiré du cortex visuel des mammifères, a permis de dépasser certaines limites connues par cette approche et de conférer de véritables capacités d'apprentissage aux machines. 

Un certain nombre d'événements récents, fortement médiatisés, ont permis de focaliser l'attention sur les progrès de la discipline. En 2011, Watson, créé par IBM, est par exemple parvenu à battre deux champions humains au Jeopardy!. En 2016, la firme Uber a proposé, à Pittsburgh, un service de voitures autonomes très largement pilotées par des réseaux de neurones profonds. En 2017, un système développé par Google est parvenu à battre le meilleur joueur humain du jeu de Go... En réalité, en dehors des systèmes experts - auxquels nous avons fait référence -, des applications relevant de l'intelligence artificielle irriguent depuis parfois relativement longtemps certains domaines. Des dispositifs de lecture automatique des chèques sont ainsi utilisés par les banques depuis la seconde moitié des années 1990.

Ces vingt dernières années, le développement d'internet et des autres TIC a toutefois fortement contribué au renouvellement de la discipline. Les technologies de raisonnement symbolique, de modélisation, de fouille des données, de représentation des connaissances, de traitement du langage naturel ont en effet trouvé un nouveau champ d'application. Nombre de systèmes, désormais très largement diffusés, ont intégré des briques technologiques issues de l'IA : filtres anti-spam des boîtes mail, suggestion personnalisée de films ou de musiques...

Surtout, la numérisation a permis de multiplier les données disponibles pour nourrir les systèmes. Favorisée par les politiques d'open data et les avancées des techniques de big data, qui permettent de traiter d'immenses bases contenant des informations de formats différents, cette profusion peut désormais être gérée grâce à des puissances de calcul toujours plus importantes.

Enfin, l'ouverture récente de plusieurs technologies auparavant propriétaires constitue l'une des conditions récentes du développement de la discipline. Certains acteurs (IBM, Google, Facebook...) ont ainsi fait le choix de rendre accessibles à la communauté des chercheurs en IA les technologies qu'ils avaient développées, afin qu'ils puissent en bénéficier et qu'ils contribuent à les enrichir par de nouvelles fonctionnalités.     

Une diversité d'applications, déjà largement usitées

La robotique, à laquelle elle est souvent associée, n'est pas le seul domaine exploitant les avancées de l'intelligence artificielle. Celle-ci se retrouve dans des objets et des systèmes très courants, qui concernent aussi bien les activités marchandes que le grand public.

Les secteurs bancaires, assurantiels et financiers recourent par exemple à nombre de systèmes. Dans beaucoup d'établissements bancaires, la décision d'accorder des prêts est désormais assistée par des algorithmes. De même, certains logiciels experts fournissent des conseils en matière de placements financiers. Plus encore, les hommes ont été assez largement remplacés par des automates pour les transactions boursières (trading haute fréquence).

Dans le domaine médical, des algorithmes sont employés pour l'aide au diagnostic. Ils disposent en effet d'une immense capacité de croisement des résultats d'examens et de comparaison avec la littérature scientifique. De même, certaines solutions sont désormais utilisées pour l'aide à la prescription de médicaments. Elles sont notamment moins sujettes que les humains aux habitudes de prescription et disposent de plus de données pour évaluer le rapport bénéfice/risque individualisé par patient de chaque produit.

Enfin, le marketing est, parmi d'autres, un secteur fortement consommateur d'IA. Des solutions déjà développées permettent par exemple de personnaliser les sollicitations commerciales en fonction du contexte. Ces sollicitations sont parfois perçues comme une pression trop forte, qui amène le consommateur à couper tout contact. Ces algorithmes permettent d'analyser les historiques d'achats et les habitudes en matière de courriels pour définir le meilleur moment d'envoi. De très nombreux projets de R&D concernent d'autres applications. Certaines PME développent ainsi des systèmes permettant de capter l'intégralité des conversations avec les services clients en temps réel et de les transformer en données qualifiées et structurées. D'autres ont des programmes visant à créer des assistants shopping nourris par des analyses des achats des consommateurs et de leurs habitudes de dépense. L'objectif est souvent de renforcer le marketing personnalisé.

Une compétition de plus en plus marquée au niveau international

Comme les quelques exemples cités ci-avant le montrent, les applications de l'intelligence artificielle représentent des marchés très diversifiés en pleine croissance au niveau mondial. Dans ce secteur, les investissements sont de plus en plus importants. Certains grands acteurs du numérique (Apple, Google, IBM, Intel, Yahoo et Baidu) ont d'ailleurs développé, depuis quelques années, des stratégies de soutien ou d'acquisition de petites entreprises innovantes. Propriétaires d'énormes bases de données et disposant de leurs propres structures de R&D, ils financent notamment le développement de startups dans les domaines du data mining et du deep learning, ou les absorbent. Ils intègrent également parfois à leurs portefeuilles d'activités des entreprises du secteur de la robotique. L'objectif est bien évidemment de capter les technologies et les applications, de manière notamment à déterminer les nouveaux usages et à bénéficier des modèles économiques induits.

En 2016, certains de ces acteurs (Amazon, Facebook, Google, IBM et Microsoft) ont même créé le Partnership on Artificial Intelligence to Benefit People and Society. Organisation à but non-lucratif, le Partenariat vise à mieux expliquer au public ce que recouvre l'intelligence artificielle et à développer des normes que les chercheurs devraient appliquer. Il doit ainsi traiter de thématiques comme l'éthique, l'équité, la transparence, la vie privée, l'interopérabilité, la collaboration entre êtres humains et intelligence artificielle, la fiabilité des technologies...  

Les États sont évidemment concernés par les développements de l'IA. Tout d'abord en tant qu'utilisateurs.

Certaines administrations se sont ainsi dotées de dispositifs permettant de renforcer leur efficacité et leur efficience. Aux États-Unis, des tribunaux ont par exemple décidé d'acquérir des logiciels évaluant la recevabilité des plaintes, de manière à réaliser un premier tri des dossiers. Cette technique est conçue comme une éventuelle solution aux trop grands délais de traitement des affaires. En France, des logiciels permettant de prévoir l'issue des procédures sont également testés par certaines cours, afin notamment d'aider les magistrats à décider de leur éventuel lancement. 

Cette pénétration des solutions utilisant l’IA concerne bien évidemment les domaines de la sécurité nationale et de la défense. Actuellement, l’attention est assez largement focalisée sur les robots militaires autonomes, en particulier les drones. Il ne s’agit pas des seules applications de défense. Certaines armées travaillent également au développement d’aides à la prise de décision, aux niveaux stratégique et tactique. Face à l’incertitude, au stress et au tempo particulièrement rapide imposé par les opérations militaires, les machines peuvent en effet produire des analyses situationnelles plus rationnelles, intégrant un plus grand nombre de variables, que les humains. De même, des algorithmes de ciblage ont déjà été développés, notamment aux États-Unis (sur financement de la DARPA). La gestion des rotations des unités est aussi une thématique actuellement travaillée. Lors des déploiements de long terme, les forces se succèdent sur le terrain. Ce sont les responsables des unités sortantes qui préparent les documents dont leurs successeurs auront besoin. Des travaux portent actuellement sur des solutions de big data qui collecteraient les différents types de données produites, y compris sous des formes déstructurées, puis les interpréteraient en fournissant des synthèses ou en conseillant la consultation de certains documents.   

Surtout, certains États semblent avoir décidé de soutenir les développements de l'IA. Comme nous l'avons déjà noté, les innovations technologiques permises par l'intelligence artificielle concernent de très nombreux secteurs économiques, à la fois pour les usages, services, produits et modèles économiques, et sont porteuses de croissance. Plusieurs gouvernements ont ainsi créé les conditions pour que le sujet de l’IA puisse être traité dans le débat public (y compris les questions d'ordre moral et les analyses de risques). Surtout, ils ont lancé de grandes initiatives nationalesPour certains, l'intérêt pour la discipline et ses retombées potentielles est en réalité assez ancien. Le Japon et les États-Unis avaient notamment décidé de financer, dès la fin des années 1970, des programmes de recherche..

La Corée du Sud a ainsi annoncé, en 2016, le lancement d'un plan de soutien doté de plus de 760 millions d’euros, investis sur 5 ans. Ce plan, qui doit permettre d'assurer le financement de projets de R&D en IA, intègre la création d'un centre de recherche national prenant la forme d’un partenariat public-privéIntégrant notamment 6 grands groupes nationaux, dont Samsung Electronics, LG Electronics et Hyundai Motors.. La rédaction de la feuille de route pour sa mise en œuvre est coordonnée par le ministère des Sciences.  

Ces dernières années, plusieurs événements ont alerté les autorités japonaises sur l'accentuation de la concurrence internationale dans les domaines de l'IA et de la robotique. En 2014, Google a notamment racheté Schaft, une société créée par deux anciens professeurs de l'Université de Tokyo. Cet événement a constitué un véritable choc dans la communauté travaillant sur la robotique humanoïde. Le Japon a ainsi lancé, en décembre 2015, son 5ème Basic Plan for Science and Technology, qui met l'accent sur l'IA, les technologies du big data et l'internet des objets. Ce plan doit plus particulièrement bénéficier à des secteurs choisis (santé, réponse aux catastrophes naturelles, production industrielle...). Surtout, le pays a publié une Japan Revitalization Strategy en 2016. Ce document, qui appelle notamment les industriels nationaux à investir dans la recherche en matière d'intelligence artificielle, a permis la création d'un Artificial Intelligence Technology Strategy Council. Ce comité a pour missions de développer la stratégie nationale en matière d’IA et de définir les programmes de recherche. D'autres structures, notamment de R&D, ont été mises en place. Indépendantes ou créées au sein d'agences déjà existantes (comme le NEDO), elles sont fortement soutenues par les ministères. Surtout, le pays a complété sa structuration en affirmant sa position sur le créneau des supercalculateurs : en 2016, trois nouveaux équipements ont été construits, notamment pour accompagner les programmes en IA.

En Chine, les autorités ont également lancé, en juillet dernier, un très vaste programme de développement de l’intelligence artificielle. D’ici à 2020, 22 milliards de dollars devraient être dépensés pour soutenir les industries intervenant dans le domaine et financer des programmes de recherche. Un certain nombre de familles d’applications ont été identifiées comme prioritaires (big data, intelligence par essaims, intelligence hybride améliorée, systèmes intelligents autonomes…). L’objectif de cette première phase sera également de créer un cadre juridique et éthique favorable au développement de ces activités. Le plan, qui devrait ensuite se prolonger sous forme d’exercices quinquennaux (2020-2025, puis 2025-2030), repose notamment sur Baidu et sur des transferts de technologies venues de l’extérieur (en particulier des États-Unis)Baidu a ainsi constitué un fonds doté de 1,3 milliard d’euros, en septembre, pour le développement de véhicules terrestres autonomes. Il a également lancé en avril sa « plateforme ouverte », Apollo, grâce à laquelle il partage ses technologies avec des développeurs et constructeurs automobiles.. Les autorités chinoises affichent relativement clairement leur volonté de dépasser le leader américain d’ici à 2030.

Dans ces différents pays, on retrouve donc les mêmes méthodes : création de feuilles de route nationales définissant les priorités ; attribution de budgets publics de R&D ; mise en place de structures de gouvernance permettant de rassembler administrations, grands groupes industriels, PME et chercheurs ; naissance d’instituts et de laboratoires de recherche spécifiques ; mesures (en particulier dans le domaine juridique) permettant de faciliter les transferts des solutions développées des laboratoires de recherche vers les entreprises. Ces initiatives des autorités visent notamment à convaincre les acteurs privés d’investir dans le domaine, en créant les meilleures conditions possibles pour que les marchés se développent.   

Cette concurrence accrue a fini par inquiéter les autorités américaines. Le 1er novembre 2017, Eric Schmidt, président exécutif d’Alphabet (société mère de Google) et directeur du Defense Innovation Advisory Board du Département de la Défense, a ainsi mis publiquement en exergue le risque, pour le pays, de perdre la première place dans le domaine de l’IA. Reprenant la notion de « frontières » de l’historien américain Turner, déjà employée pour le programme spatial dans les années 1960, il indiquait dans son discours que, si les États-Unis ne se rendaient pas maîtres et possesseurs de ce nouvel espace de conquête, leur identité et leur supériorité seraient plus ou moins rapidement menacées. Un an auparavant, le Pentagone avait déjà formalisé cet objectif. En octobre 2016, le Deputy Defense Secretary, Bob Work, indiquait ainsi lors d’une intervention publique au CSIS que la Third Offset Strategy devait, entre autres objectifs, permettre d’exploiter les avancées de l’intelligence artificielle et de l’autonomisation des systèmes en les intégrant aux différents réseaux employés par les forces américaines. 

Les autorités françaises ont également réagi. Elles ont lancé France Intelligence Artificielle (France IA) en janvier 2017. Cette initiative a consisté à mobiliser les communautés concernées par l'IA afin de définir une stratégie nationale concertée et de fédérer les nombreuses initiatives émergentes. Des groupes de travail ont ainsi été constitués, traitant de différents thèmes (identification et priorisation des sujets de recherche, des besoins de formation, industrialisation des recherches et projets...). En mars, après deux mois de travail, notamment de consultations, une stratégie nationale a ainsi été publiée.

Il est bien évidemment difficile de déterminer à l’avance les effets concrets que ces initiatives auront. Dans certains cas, il existe d’ailleurs une certaine continuité. Les programmes annoncés ces deux dernières années par les autorités reprennent des plans plus anciens, qui identifiaient déjà l’IA comme l’une des priorités en termes de recherche, et les budgets qui leur étaient alloués. Cette multiplication des initiatives est cependant révélatrice de l’importance économique et stratégique que les États confèrent désormais à l’intelligence artificielle et d’une montée en puissance de la concurrence dans ce domaine.

Télécharger l'article au format PDF

Consulter