Politique et Géopolitique

Droits de l’homme en péril : l’ONU appelle à un moratoire sur l’utilisation de l’IA

Le chef des droits de l’homme de l’ONU appelle à un moratoire sur l’utilisation de la technologie de l’intelligence artificielle qui présente un risque sérieux pour les droits de l’homme, notamment les systèmes de balayage du visage qui suivent les personnes dans les espaces publics.

Michelle Bachelet, haut-commissaire des Nations unies aux droits de l’homme, a également déclaré mercredi que les pays devraient expressément interdire les applications d’intelligence artificielle qui ne respectent pas le droit international des droits de l’homme.

Parmi les applications qui devraient être interdites figurent les systèmes gouvernementaux de « notation sociale » (voir notre article L’humanité sous surveillance : Documentaires sur le crédit social) qui jugent les gens sur la base de leur comportement et certains outils d’IA qui classent les gens en groupes, par exemple en fonction de leur origine ethnique ou de leur sexe.

Les technologies basées sur l’IA peuvent être une force du bien, mais elles peuvent aussi « avoir des effets négatifs, voire catastrophiques, si elles sont utilisées sans tenir suffisamment compte de la manière dont elles affectent les droits de l’homme des personnes », a déclaré Mme Bachelet dans un communiqué.

Ses commentaires s’inscrivent dans le cadre d’un nouveau rapport de l’ONU qui examine comment les pays et les entreprises se sont précipités dans l’application de systèmes d’IA qui affectent la vie et les moyens de subsistance des gens sans mettre en place les garanties appropriées pour prévenir la discrimination et d’autres préjudices.

Elle n’a pas demandé l’interdiction pure et simple de la technologie de reconnaissance faciale, mais a déclaré que les gouvernements devraient mettre un terme à la numérisation des traits des personnes en temps réel jusqu’à ce qu’ils puissent démontrer que la technologie est précise, qu’elle n’entraînera pas de discrimination et qu’elle respecte certaines normes en matière de protection de la vie privée et des données.

Bien que les pays ne soient pas nommément cités dans le rapport, la Chine fait partie des pays qui ont déployé la technologie de reconnaissance faciale, notamment dans le cadre de la surveillance de la région occidentale du Xinjiang, où vit une grande partie de la minorité ouïgoure.

Le rapport exprime également une certaine méfiance à l’égard des outils qui tentent de déduire l’état émotionnel et mental des personnes en analysant leurs expressions faciales ou leurs mouvements corporels, affirmant que ces technologies sont susceptibles d’être biaisées, mal interprétées et manquent de fondement scientifique.

« L’utilisation de systèmes de reconnaissance des émotions par les autorités publiques, par exemple pour cibler des individus en vue d’une interpellation ou d’une arrestation par la police ou pour évaluer la véracité de déclarations lors d’interrogatoires, risque de porter atteinte aux droits de l’homme, tels que le droit à la vie privée, à la liberté et à un procès équitable », indique le rapport.

Les recommandations du rapport font écho à la pensée de nombreux dirigeants politiques des démocraties occidentales, qui espèrent exploiter le potentiel économique et sociétal de l’IA tout en répondant aux préoccupations croissantes quant à la fiabilité des outils capables de suivre et de profiler les individus et de formuler des recommandations quant à l’accès aux emplois, aux prêts et aux possibilités d’éducation.

Les régulateurs européens ont déjà pris des mesures pour limiter les applications les plus risquées de l’IA. Les réglementations proposées par les responsables de l’Union européenne cette année interdiraient certaines utilisations de l’IA, comme la numérisation en temps réel des traits du visage, et en contrôleraient étroitement d’autres qui pourraient menacer la sécurité ou les droits des personnes.

L’administration du président américain Joe Biden a exprimé des préoccupations similaires concernant ces applications, bien qu’elle n’ait pas encore défini une approche détaillée pour les limiter. Un groupe nouvellement créé, le Conseil du commerce et de la technologie, dirigé conjointement par des responsables américains et européens, a cherché à collaborer à l’élaboration de règles communes pour l’IA et d’autres politiques technologiques.

Les efforts visant à fixer des limites aux utilisations les plus risquées ont été soutenus par Microsoft et d’autres géants américains de la technologie qui espèrent orienter les règles concernant la technologie qu’ils ont contribué à construire.

« Si vous pensez aux façons dont l’IA pourrait être utilisée de manière discriminatoire, ou pour renforcer encore les tendances discriminatoires, c’est assez effrayant », a déclaré la secrétaire américaine au commerce, Gina Raimondo, lors d’une conférence virtuelle en juin. « Nous devons nous assurer que nous ne laissons pas cela se produire ».

Elle s’adressait à Margrethe Vestager, vice-présidente exécutive de la Commission européenne pour l’ère numérique, qui a suggéré que certaines utilisations de l’IA devraient être totalement interdites dans « des démocraties comme la nôtre », comme le marquage social qui peut fermer les privilèges d’une personne dans la société, et « l’utilisation large et généralisée de l’identification biométrique à distance dans l’espace public ».

Selon elle, il y a quelque chose de fondamental à pouvoir dire « Je vis dans une société réelle. Je ne vis pas dans la bande-annonce d’un film d’horreur dont je ne veux pas voir la fin ».

Afin de garantir notre indépendance et notre pérénité,
vous pouvez nous soutenir en cliquant ici

N'hésitez pas à nous suivre sur nos réseaux,
INSTAGRAM, TELEGRAM, TWITTER et VK

Source
U.S.News

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

Afin de garantir la pérennité du site, nous vous invitons à mettre le site en exception dans votre bloqueur de publicités. Merci !