Intelligence artificielle et affaires internationales
La montée de l'IA doit être mieux gérée à court terme afin d'atténuer les risques à plus long terme et de veiller à ce que l'IA ne renforce pas les inégalités existantes.
Ce rapport examine certains des défis pour les décideurs politiques qui peuvent découler de l'avancement et de l'application croissante de l'IA. Il rassemble des éléments de réflexion sur l'impact que l'IA peut avoir sur certains domaines des affaires internationales - du point de vue militaire, de la sécurité humaine et économique - au cours des 10 à 15 prochaines années.
Le rapport définit un cadre général pour définir et distinguer les types de rôles que l'intelligence artificielle pourrait jouer dans l'élaboration des politiques et les affaires internationales: ces rôles sont identifiés comme analytiques, prédictifs et opérationnels.
Dans les rôles analytiques, les systèmes d'IA peuvent permettre à moins d'humains de prendre des décisions de plus haut niveau ou d'automatiser des tâches répétitives telles que la surveillance de capteurs configurés pour garantir la conformité aux traités. Dans ces rôles, l'IA pourrait bien changer - et à certains égards, elle a déjà changé - les structures par lesquelles les décideurs humains comprennent le monde. Mais l'impact ultime de ces changements est susceptible d'être atténué plutôt que transformateur.
Les utilisations prédictives de l'IA pourraient avoir des impacts plus aigus, mais probablement sur une plus longue période. Ces emplois peuvent changer la façon dont les décideurs politiques et les États comprennent les résultats potentiels de certaines actions. Cela pourrait, si ces systèmes deviennent suffisamment précis et fiables, créer un fossé de pouvoir entre les acteurs équipés de tels systèmes et ceux qui n'en ont pas - avec des résultats particulièrement imprévisibles.
Il est peu probable que les utilisations opérationnelles de l'IA se matérialisent pleinement à court terme. Les obstacles réglementaires, éthiques et technologiques aux véhicules, armes et autres systèmes du monde physique entièrement autonomes tels que les assistants personnels robotiques sont très élevés - bien que des progrès rapides soient accomplis pour surmonter ces obstacles. À plus long terme, cependant, ces systèmes pourraient transformer radicalement non seulement la façon dont les décisions sont prises, mais la manière dont elles sont exécutées.
Animation: intelligence artificielle et avenir de la guerre
Recommandations
Le rapport fait les recommandations suivantes aux gouvernements et aux organisations internationales non gouvernementales, qui auront un rôle particulièrement important dans l'élaboration et la promotion de nouvelles normes éthiques:
À moyen et à long terme, l'expertise en IA ne doit pas résider uniquement dans un petit nombre de pays - ou uniquement dans des segments étroits de la population. Les gouvernements du monde entier doivent investir dans le développement et la rétention de talents et d'expertise locaux en IA si leurs pays doivent être indépendants de l'expertise en IA dominante qui est désormais généralement concentrée aux États-Unis et en Chine. Et ils devraient veiller à ce que le talent d'ingénieur soit nourri sur une large base afin d'atténuer les problèmes de biais inhérents.
Les entreprises, les fondations et les gouvernements devraient allouer des fonds pour développer et déployer des systèmes d'IA à buts humanitaires. Le secteur humanitaire pourrait tirer des avantages importants de ces systèmes, ce qui pourrait, par exemple, réduire les temps de réponse en cas d'urgence. Puisqu'il est peu probable que l'IA à des fins humanitaires soit immédiatement rentable pour le secteur privé, un effort concerté doit être fait pour les développer à but non lucratif.
La compréhension des capacités et des limites des systèmes artificiellement intelligents ne doit pas être l'apanage exclusif des experts techniques. Une meilleure éducation et formation sur ce qu'est l'IA - et, ce qui est critique, ce qu'elle n'est pas - devrait être rendue aussi largement possible que possible, tandis que la compréhension des objectifs éthiques et politiques sous-jacents devrait être une priorité beaucoup plus élevée pour ceux qui développent les technologies.
Il est essentiel de développer de solides relations de travail, en particulier dans le secteur de la défense, entre les développeurs d'IA publics et privés, car une grande partie de l'innovation se déroule dans le secteur commercial. Veiller à ce que les systèmes intelligents chargés de tâches critiques puissent les exécuter de manière sûre et éthique nécessitera une ouverture entre les différents types d'institutions.
Des codes de pratique clairs sont nécessaires pour garantir que les avantages de l'IA puissent être largement partagés tandis que ses risques simultanés sont bien gérés. Lors de l'élaboration de ces codes de pratique, les décideurs et les technologues devraient comprendre comment la réglementation des systèmes artificiellement intelligents peut être fondamentalement différente de la réglementation des armes ou des flux commerciaux, tout en tirant également des enseignements pertinents de ces modèles.
Les développeurs et les régulateurs doivent porter une attention particulière à la question des interfaces homme-machine. L'intelligence artificielle et humaine sont fondamentalement différentes, et les interfaces entre les deux doivent être conçues avec soin et révisées en permanence, afin d'éviter les malentendus qui, dans de nombreuses applications, pourraient avoir de graves conséquences.
Vers la fin du processus d'élaboration de ce rapport, l'attention du public s'est de plus en plus tournée vers la possibilité d'utiliser l'IA pour soutenir des campagnes de désinformation ou interférer dans les processus démocratiques. Nous entendons nous concentrer sur ce domaine dans les travaux ultérieurs.