Opportunités et risques de l'intelligence artificielle

Quand les algorithmes décident pour nous

15 avr. 2020 | RAINER KLOSE
L'intelligence artificielle (IA) devient de plus en plus puissante et est utilisée pour des tâches de plus en plus complexes. Cela soulève des questions éthiques, par exemple lorsque l'IA est utilisée pour prendre des déci-sions pour des personnes ou pour les juger. Une équipe de l'Empa a été fortement impliquée dans une nou-velle étude de TA-SWISS qui a examiné les opportunités et les risques de l'IA pour la société. L'étude, intitulée "Quand les algorithmes décident pour nous : Les opportunités et les risques de l'intelligence artificielle" a été présenté au public le 15 avril 2020.
/documents/56164/12681397/iStock-933939954-web.jpg/369c46e3-231e-4611-bf55-4d0f99f6082b?t=1586939518543
Image: iStockphoto
L'intelligence artificielle est un outil très puissant pour résoudre des problèmes complexes et traiter d'énormes quantités de données non triées. Son utilisation permet de traduire des langues mieux que jamais ou de vaincre des adversaires humains dans des jeux de stratégie de toutes sortes. L'IA est constamment améliorée et utilisée pour de plus en plus d'activités qui étaient auparavant réservées aux humains, comme l'identification de la fraude fiscale ou le diagnostic de maladies.
La confiance, c'est bien, le contrôle, c'est mieux
Mais les capacités techniques en pleine croissance nécessitent un œil attentif aux risques qu'elles comportent. L'IA peut-elle coûter beaucoup d'emplois ? Comment notre comportement de consommateur changera-t-il si de plus en plus de personnes suivent les recommandations d'achat d'un moteur de recherche intelligent ? Qu'ar-rive-t-il à nos médias si l'IA contribue à la production de fausses nouvelles ou ne dissout pas les bulles de fil-trage idéologiques, mais les élargit et les renforce ? Que peut-il se passer si l'État utilise l'IA, par exemple pour effectuer un travail de police proactif, émettre des règlements ou réduire la charge de travail des tribunaux ? Comment la recherche et l'éducation devraient-elles réagir aux opportunités et aux risques de l'IA et quelles compétences sont particulièrement pertinentes pour les chercheurs d'aujourd'hui et les décideurs de demain afin de faire le meilleur usage possible de l'IA pour la société ?
Ces questions et d'autres questions similaires ont été abordées dans l'étude TA-SWISS par une équipe de projet interdisciplinaire dirigée par Markus Christen (Digital Society Initiative, Université de Zurich), Clemens Mader, Lorenz Hilty, Claudia Som (Laboratoire Technologie et société, Empa) et Johann Čas (Institut d'évaluation de la technologie, Académie autrichienne des sciences). Les chercheurs ont élaboré leurs résultats en utilisant des méthodes telles que des études bibliographiques ciblées, des ateliers et des entretiens avec plus de 300 experts internationaux.
Instructions pour les décideurs politiques
Ce travail a abouti à neuf recommandations pour les domaines du travail: les domaines de l'éducation et de la recherche, de la consommation, des médias et de l'administration. Dans le domaine de l'éducation, par exemple, il est important non seulement de permettre aux experts de développer et de mettre en œuvre des systèmes d'IA, mais aussi de promouvoir la capacité à juger les effets juridiques, éthiques et sociaux de l'IA.  Dans les domaines où la situation des risques n'est pas claire, les experts demandent que la recherche visant à identifier ces risques soit intensifiée. À cette fin, un soutien financier des universités ou par le biais de fonds de tiers est souhaitable.
Les experts commentent également dans l'étude de TA-Swiss le manque de transparence de l'IA et ses éven-tuelles caractéristiques discriminatoires. Les mécanismes de contrôle possibles pour ces systèmes sont examinés, ainsi que les aspects juridiques découlant de l'utilisation de l'IA, tels que la responsabilité ou la protection des données.