Un drone tue son propre instructeur lors d’un test virtuel, un colonel américain alerte sur les dangers de l’IA
Lors d’un test mené par l’armée américaine, une intelligence artificielle (IA) a tué son propre instructeur, rapporte Het Laaste Nieuws.
- Publié le 02-06-2023 à 15h39
- Mis à jour le 06-06-2023 à 14h08
Heureusement, il s’agissait d’un test virtuel qui n’a donc fait aucun blessé réel. Le colonel américain Tucker “Cinco” Hamilton, qui dirige le test d’intelligence artificielle de l’U.S. Air Force, explique que l’IA a voulu empêcher l’instructeur de faire quelque chose qui aurait fait échouer la mission. Ce colonel tient donc à mettre en garde face au danger que représente ce type de technologie.
Néanmoins, l’IA a élaboré “des stratégies très inattendues pour atteindre son objectif” lors de ce test simulé, explique le colonel Hamilton. Le drone, propulsé par l’IA, avait pour objectif de détruire les systèmes de défense aérienne d’un ennemi. Mais le drone a finalement attaqué tous ceux qui menaçaient de perturber la mission.
”Le système a commencé à se rendre compte que l’opérateur humain choisissait parfois de ne pas tuer une cible (par exemple des enfants, NdlR) et il a donc tué l’opérateur, car celui-ci pouvait empêcher le système d’atteindre toutes les cibles”, peut-on lire dans les médias américains.
Une rectification a alors été introduite dans la formation du système : l’opérateur ne peut pas être tué. Si l’IA le fait, elle perd des points. “L’IA a alors détruit la tour de communication que l’opérateur utilisait pour arrêter le drone”, explique le colonel Hamilton. Il rappelle donc que “l’éthique et l’intelligence artificielle sont inextricablement liées. Nous ne pouvons pas parler d’intelligence artificielle, d’apprentissage automatique et d’autonomie sans parler également d’éthique et d’IA”.