Une recherche rapide sur les mots "intelligence artificielle" et "paix" révèle des points de vue radicalement opposés. D'un côté, les sceptiques mettent en garde contre les menaces existentielles que l'IA pourrait faire peser sur l'humanité. De l'autre, les optimistes de la technologie vantent son potentiel à résoudre des problèmes omniprésents tels que la solitude, le changement climatique et même les conflits violents.
Si la polarisation des opinions n'est pas nouvelle, l'intérêt pour l'IA en tant que moyen de promouvoir la paix a bondi depuis 2022, à la suite de la publication de ChatGPT par OpenAI. Aujourd'hui, un nombre croissant d'entreprises affirment avoir développé des outils d'IA conçus pour aider à mettre fin aux guerres.
Quels sont exactement ces outils et quels sont les risques liés à leur application dans le contexte complexe et lourd d'enjeux des conflits armés ? Cliquez ici pour le savoir.
L'intelligence artificielle englobe un large éventail de technologies capables de résoudre des problèmes, de prendre des décisions et d'"apprendre" des tâches qui requièrent généralement l'intelligence humaine.
Cependant, les critiques affirment que l'IA n'est "ni intelligente, ni artificielle", soulignant l'importance du travail humain et des ressources naturelles nécessaires à la création et au maintien de ces systèmes.
Malgré les débats autour de sa définition, l'"IA" est le terme largement utilisé pour décrire divers outils développés par les entreprises du "PeaceTech Lab" dans le but d'atténuer les conflits violents. Des fonds dédiés aux initiatives en matière d'IA ont été créés et les Nations unies défendent activement l'IA en tant que moteur de l'innovation dans les efforts de consolidation de la paix.
Certains outils d'IA ont été spécifiquement conçus pour répondre aux défis particuliers auxquels sont confrontés les négociateurs de paix. Par exemple, ils permettent de recueillir et d'analyser des informations sur les points de vue du public, fournissant ainsi des informations cruciales qui peuvent éclairer les stratégies de négociation et favoriser un dialogue plus inclusif.
De nombreux outils d'IA sont multifonctionnels et ne se contentent pas de recommander des politiques, mais fournissent également des informations prédictives sur le comportement humain, permettant aux négociateurs et aux décideurs politiques d'anticiper les résultats et de prendre des décisions éclairées dans des situations complexes.
En Libye et au Yémen, l'ONU a utilisé des outils de traitement du langage naturel pour permettre une plus grande participation aux discussions politiques. Les technologies de traitement du langage naturel sont conçues pour classer, traduire, transcrire, résumer et générer du texte, offrant ainsi des moyens innovants de combler les lacunes en matière de communication dans des environnements complexes.
Les grands modèles de langage ont été utilisés pour analyser les données recueillies auprès d'individus partageant leurs opinions et posant des questions en ligne. Ces outils traitent de grandes quantités d'informations, permettant d'identifier des tendances et d'extraire des informations précieuses pour la prise de décision.
L'objectif de l'utilisation des technologies de l'IA dans les initiatives de consolidation de la paix est d'identifier les points d'accord et de désaccord entre divers groupes. Les experts affirment que de telles approches contribuent à prévenir l'éclatement ou la réapparition de guerres.
Akord.ai, un chatbot innovant développé par l'ONG Conflict Dynamics International (CDI), est formé sur 1 500 documents centrés sur le Soudan, y compris les accords de paix passés. Ce modèle de langage étendu vise à naviguer et à aborder les complexités de la guerre civile en cours au Soudan.
Azza M. Ahmed, conseillère principale pour le programme Soudan du CDI, a souligné la mission d'Akord.ai, qui consiste à donner des moyens d'action aux jeunes aspirant à contribuer à la construction de la paix au Soudan. L'outil s'attaque aux barrières critiques, en offrant un accès aux connaissances sur les processus passés et des conseils pratiques sur les négociations.
Tarig Hilal, responsable de l'innovation en matière d'IA chez Akord.ai, a souligné le déséquilibre dans les négociations, où les connaissances et l'expertise restent souvent concentrées entre quelques privilégiés. Décrivant l'objectif de l'outil, il a déclaré : "Akord.ai est comme un conseiller, un copilote, un ami".
Les recommandations fournies par Akord.ai sont enracinées dans la vision du monde de son créateur, Conflict Dynamics International (CDI). Cette organisation prône l'"accommodement politique", une approche de la résolution des conflits qui met l'accent sur le partage du pouvoir et le compromis.
Si l'accommodement politique a ses partisans, il fait également l'objet de critiques. Jonas Horner, un expert des négociations de paix au Soudan, a affirmé que "les groupes qui se battent pour arriver à la table afin d'être accommodés" étaient un facteur qui contribuait au conflit lui-même.
Alors qu'Akord.ai se concentre actuellement sur la réduction des obstacles à l'accès à l'information, l'utilisation potentielle de divers chatbots dans la conception d'accords de paix soulève d'importantes préoccupations. Des données mal traitées ou biaisées pourraient avoir des conséquences graves et de grande portée.
Timnit Gebru, fondateur et directeur exécutif de l'Institut de recherche sur l'IA distribuée, a mis en évidence une limitation critique des grands modèles de langage. Elle a expliqué que "ils produisent des modèles de texte sur lesquels nous les avons entraînés, mais ils inventent aussi des choses".
Timnit Gebru a mis l'accent sur la question du "biais d'automatisation", qui consiste à accorder une confiance excessive aux outils automatisés. "Les études montrent que les gens font trop confiance à ces systèmes et qu'ils prennent des décisions très importantes en fonction de ceux-ci", a-t-elle expliqué.
Les grands modèles linguistiques sont de plus en plus utilisés pour guider le calendrier des accords de paix. Un exemple est le projet Didi, une startup israélienne innovante qui vise à identifier les "moments de maturité" : les cas où les accords de paix peuvent sembler plus acceptables malgré des changements minimes de leurs conditions.
Le projet Didi est né d'une formation de grands modèles de langage sur les modèles linguistiques de la période précédant l'accord du Vendredi saint, qui a mis fin au conflit actif en Irlande du Nord il y a plus de 25 ans, et fournit un cadre historique aux efforts de la startup pour identifier les moments propices aux accords de paix.
Le PDG et fondateur du projet Didi, Shawn Guttman, et son équipe adaptent le modèle pour l'appliquer à la guerre d'Israël contre Gaza. En recueillant des données auprès des organes de presse israéliens et palestiniens, le projet Didi utilise des techniques d'apprentissage automatique pour analyser l'évolution du sentiment du public à l'égard de la paix.
Tout comme l'accommodement politique, le concept de "moments de maturité" fait l'objet de nombreuses critiques. Les experts affirment que ces moments coïncident souvent avec l'épuisement des populations locales, ce qui se traduit par des accords de paix qui ne s'attaquent pas aux causes sous-jacentes de la violence.
Shawn Guttman envisage le projet Didi comme un outil d'IA proactif dans le cadre des efforts de consolidation de la paix, s'efforçant de créer des moments de maturité plutôt que de simplement les identifier. En dotant les militants de la paix d'informations détaillées leur permettant de savoir s'ils influencent efficacement "les cœurs et les esprits humains".
Des preuves scientifiques suggèrent que les grands modèles de langage ont du mal à interpréter correctement les émotions humaines, car celles-ci sont souvent exprimées de manière nuancée et ambiguë. Comme prévu, les grands modèles de langage excellent dans le décodage d'entrées claires et structurées, telles que des langages de codage non ambigus.
Timnit Gebru critique les affirmations selon lesquelles les grands modèles de langage et les algorithmes de traitement du langage naturel peuvent interpréter les pensées ou les émotions humaines. Elle souligne que même la détection précise de marqueurs émotionnels n'équivaut pas à la compréhension de l'état émotionnel d'une personne, et insiste sur le fait que même si de telles capacités étaient possibles, leur utilisation soulèverait de profondes questions éthiques.
Les fournisseurs d'IA soulignent souvent que leurs outils ne sont pas infaillibles et ne doivent pas être considérés comme des solutions universelles. Toutefois, ces produits tirent parti de l'enthousiasme du public pour l'IA en présentant des solutions simples, apparemment scientifiques, à des questions politiques profondément complexes.
Si les problèmes politiques présentent souvent des défis techniques pour lesquels les outils d'IA peuvent apporter une aide, les causes profondes de la guerre sont liées à la dynamique du pouvoir et aux luttes politiques. Pour que l'IA joue un rôle significatif dans la consolidation de la paix, elle doit être développée de manière transparente et éthique, en complément des efforts humains et politiques.
Les experts soulignent le potentiel des outils d'IA tels qu'Akord.ai pour améliorer l'accès à l'information et favoriser l'inclusion dans les processus de paix. De même, les plateformes d'analyse des médias telles que Didi offrent des indications précieuses sur les stratégies de communication et le moment optimal pour les pourparlers de paix.
Tant les informaticiens que les négociateurs de conflits expriment des inquiétudes quant aux hypothèses sous-jacentes intégrées dans les grands modèles de langage. Ils mettent en garde contre les limites de cette technologie et les dangers potentiels liés à la révision d'approches de la paix qui n'ont pas abouti.
Les dangers posés par les technologies prédictives et les systèmes d'IA qui recommandent des solutions sont particulièrement aigus dans le contexte actuel. Avec 56 conflits armés dans le monde, le nombre le plus élevé depuis la Seconde Guerre mondiale, les conséquences de suppositions erronées ou d'erreurs dans ces outils sont amplifiées.
Sources: (Conflict Dynamics International) (The Bureau of Investigative Journalism) (Medium)
Découvrez aussi : Comment la technologie a-t-elle révolutionné nos vies et notre apprentissage ?
L'IA peut-elle apporter la paix au Moyen-Orient ?
Une nouvelle approche pour résoudre les conflits
LIFESTYLE Invention
Une recherche rapide sur les mots "intelligence artificielle" et "paix" révèle des points de vue radicalement opposés. D'un côté, les sceptiques mettent en garde contre les menaces existentielles que l'IA pourrait faire peser sur l'humanité. De l'autre, les optimistes de la technologie vantent son potentiel à résoudre des problèmes omniprésents tels que la solitude, le changement climatique et même les conflits violents.
Si la polarisation des opinions n'est pas nouvelle, l'intérêt pour l'IA en tant que moyen de promouvoir la paix a bondi depuis 2022, à la suite de la publication de ChatGPT par OpenAI. Aujourd'hui, un nombre croissant d'entreprises affirment avoir développé des outils d'IA conçus pour aider à mettre fin aux guerres.
Quels sont exactement ces outils et quels sont les risques liés à leur application dans le contexte complexe et lourd d'enjeux des conflits armés ? Cliquez ici pour le savoir.