Entités
Accédez à la base de données
L’Intelligence Artificielle (IA) est une technologie innovante ayant un potentiel significatif pour influencer favorablement le secteur financier. Elle peut conduire à la transformation numérique et l’innovation, optimiser les processus, fournir de nouvelles opportunités sur les clients, promouvoir l’inclusion, et plus encore.
Dans le secteur financier, l’IA prend des formes variées avec divers degrés d’autonomie, tels que les chatbots, la détection de fraude, l’évaluation de crédit, la gestion des risques, la gestion des portefeuilles d’investissements et les conseils automatisés entre autres. Les avantages potentiels de l’IA sont énormes, mais ils peuvent seulement se concrétiser si les bases de cette technologie et ses risques intrinsèques sont pleinement appréhendés, et un système de contrôle adapté est mis en place.
Pour garantir une compréhension claire et l’évaluation des risques liés à l’IA dans le secteur financier, la CSSF (Commission de Surveillance du Secteur Financier) a publié certains documents pour les entités réglementées. Ces documents ont pour but d’aider les entités à faire face aux défis et profiter des avantages associés aux différents cas d’usage de l’IA dans le secteur financier.
Le 1er août 2024, le règlement européen sur l’intelligence artificielle (AI Act), première réglementation complète du monde en matière d’intelligence artificielle, est entré en vigueur. L’AI Act vise à promouvoir l’adoption de l’IA axée sur l’humain et digne de confiance tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux consacrés dans la Charte des droits fondamentaux de l’Union européenne. La réglementation cherche à établir un marché intérieur harmonisé pour l’AI dans l’Union Européenne, encourageant l’adoption de cette technologie et créant un environnement propice à l’innovation et aux investissements.
L’AI Act est une législation horizontale (qui s’applique transversalement à tous les secteurs, y compris le secteur financier) qui suit une approche fondée sur les risques, imposant des règles plus strictes sur les systèmes IA classés comme « haut risque ».
Les systèmes IA présentant un risque particulier (par exemple les dialogueurs / chatbots) seront sujets à des obligations de transparence, comme par exemple l’information aux utilisateurs qu’ils interagissent avec une machine, tandis que certains contenus générés par IA comme les hypertrucages (deep fakes) devront être marqués comme tels. Les systèmes AI à usage général (general-purpose AI / GPAI), y compris les systèmes utilisant l’IA générative (GenAI), seront parmi les systèmes soumis à ces obligations de transparence.
Par ailleurs, pour les modèles d’IA à usage général qui présentent un risque systémique, des règles plus strictes s’appliqueront. Enfin, les systèmes IA considérés comme une menace flagrante aux droits fondamentaux des personnes seront interdits (par exemple, les systèmes IA utilisés pour la manipulation, la notation sociale ou pour le moissonnage non ciblé des images faciales sur internet).
Le AI Act introduit également un nouveau cadre de gouvernance, où les autorités nationales seront responsables de surveiller et d’appliquer les règles pour les systèmes IA, tandis que le niveau européen (en particulier, via le Bureau de l’IA (AI Office) nouvellement établi au sein de la Commission Européenne) sera responsable de la gouvernance des modèles généraux d’IA.
Pour assurer une cohérence et une collaboration à l’échelle européenne, le Comité européen de l’intelligence artificielle (Comité IA), composé de représentants des États Membres, sera établi. De plus, l’AI Act établit deux corps consultatifs pour fournir une expertise : le groupe scientifique et le Forum Consultatif.
Le règlement sur l’IA s’appliquera deux ans après son entrée en vigueur, le 2 août 2026, à l’exception des dispositions particulières suivantes :