Présenté par :
Dr Lauren Sanders
Chercheuse principale à la TC Beirne School of Law, Université du Queensland
M. Kabir Adamu
Directeur général, Beacon Consulting
Objectifs :
• Définissez une typologie des risques liés à l’IA pour les acteurs du secteur de la sécurité, découlant de problèmes tels que les biais, l’autonomie, les données mal formées et les violations potentielles du droit international humanitaire.
• Discutez de la manière dont ces risques peuvent affecter l’utilisation des systèmes d’IA dans les conflits en Afrique.
Comme pour toute nouvelle technologie qui progresse rapidement, son utilisation dans le domaine de la sécurité n’est pas sans risque. Au fur et à mesure que les systèmes d’IA deviennent plus sophistiqués, les universitaires, technologues et décideurs politiques s’inquiètent des implications de systèmes d’armes de plus en plus autonomes qui ne bénéficient pas d’un contrôle ou d’une surveillance humaine efficace. D’un point de vue plus technique, les problèmes de qualité des données, la fragilité face à de nouvelles circonstances, les hallucinations par lesquelles les systèmes d’IA observent des résultats inexistants et l’absence de raisonnement compréhensible soulèvent la possibilité que les systèmes d’IA utilisés à des fins militaires soient inexacts, défectueux ou produisent des conséquences involontaires. Des débats sont en cours pour déterminer dans quelle mesure l’utilisation de l’IA dans le domaine militaire et de la sécurité risque de ne pas respecter le droit des conflits armés.
Cette session abordera les risques pratiques, juridiques et éthiques auxquels sont confrontés les acteurs du secteur de la sécurité. Elle définira certains de ces risques, identifiera les domaines de débat et d’incertitude, ainsi que les pratiques et principes permettant d’atténuer les risques liés à l’utilisation de l’intelligence artificielle. Elle tentera de contextualiser la manière dont certains de ces risques se sont manifestés en Afrique, en se concentrant sur l’utilisation par le Nigeria de drones et d’autres systèmes d’armes de plus en plus autonomes.
Cliquer ici pour accéder à la page Web du programme, avec les lectures recommandées et les biographies des panélistes:
https://africacenter.org/fr/programs/ia-strategie/
En savoir plus sur la sécurité en Afrique sur notre site Web :
https://africacenter.org/fr/
S'abonner au Centre d'études stratégiques de l'Afrique :
http://www.youtube.com/subscription_center?add_user=Africacenterorg
Suivre le Centre d'études stratégiques de l'Afrique sur …
… Bluesky: https://bsky.app/profile/africacenter.bsky.social
… Facebook: https://www.facebook.com/AfricaCenter/
… Instagram: https://www.instagram.com/africacenter_strategicstudies/
… LinkedIn: https://www.linkedin.com/company/africa-center/
… Mastodon: https://mastodon.social/@africacenter
… Whatsapp: https://www.whatsapp.com/channel/0029VaM5T6XLo4hg1nGWUv3d
Dr Lauren Sanders
Chercheuse principale à la TC Beirne School of Law, Université du Queensland
M. Kabir Adamu
Directeur général, Beacon Consulting
Objectifs :
• Définissez une typologie des risques liés à l’IA pour les acteurs du secteur de la sécurité, découlant de problèmes tels que les biais, l’autonomie, les données mal formées et les violations potentielles du droit international humanitaire.
• Discutez de la manière dont ces risques peuvent affecter l’utilisation des systèmes d’IA dans les conflits en Afrique.
Comme pour toute nouvelle technologie qui progresse rapidement, son utilisation dans le domaine de la sécurité n’est pas sans risque. Au fur et à mesure que les systèmes d’IA deviennent plus sophistiqués, les universitaires, technologues et décideurs politiques s’inquiètent des implications de systèmes d’armes de plus en plus autonomes qui ne bénéficient pas d’un contrôle ou d’une surveillance humaine efficace. D’un point de vue plus technique, les problèmes de qualité des données, la fragilité face à de nouvelles circonstances, les hallucinations par lesquelles les systèmes d’IA observent des résultats inexistants et l’absence de raisonnement compréhensible soulèvent la possibilité que les systèmes d’IA utilisés à des fins militaires soient inexacts, défectueux ou produisent des conséquences involontaires. Des débats sont en cours pour déterminer dans quelle mesure l’utilisation de l’IA dans le domaine militaire et de la sécurité risque de ne pas respecter le droit des conflits armés.
Cette session abordera les risques pratiques, juridiques et éthiques auxquels sont confrontés les acteurs du secteur de la sécurité. Elle définira certains de ces risques, identifiera les domaines de débat et d’incertitude, ainsi que les pratiques et principes permettant d’atténuer les risques liés à l’utilisation de l’intelligence artificielle. Elle tentera de contextualiser la manière dont certains de ces risques se sont manifestés en Afrique, en se concentrant sur l’utilisation par le Nigeria de drones et d’autres systèmes d’armes de plus en plus autonomes.
Cliquer ici pour accéder à la page Web du programme, avec les lectures recommandées et les biographies des panélistes:
https://africacenter.org/fr/programs/ia-strategie/
En savoir plus sur la sécurité en Afrique sur notre site Web :
https://africacenter.org/fr/
S'abonner au Centre d'études stratégiques de l'Afrique :
http://www.youtube.com/subscription_center?add_user=Africacenterorg
Suivre le Centre d'études stratégiques de l'Afrique sur …
… Bluesky: https://bsky.app/profile/africacenter.bsky.social
… Facebook: https://www.facebook.com/AfricaCenter/
… Instagram: https://www.instagram.com/africacenter_strategicstudies/
… LinkedIn: https://www.linkedin.com/company/africa-center/
… Mastodon: https://mastodon.social/@africacenter
… Whatsapp: https://www.whatsapp.com/channel/0029VaM5T6XLo4hg1nGWUv3d