Votre panier est actuellement vide !
L’IA en formation : De la compréhension à l’application responsable
Les formateurs auront une grande responsabilité, en tant que déployeurs des SIA (Article 26 de l’IA act).
Et compte tenu du règlement européen sur l’intelligence artificielle (Encore trop ignoré dans la mise en oeuvre), il ne s’agit pas de faire « n’importe quoi »… (comme on peut le voir sur certaines chaines de Youtubeurs invités en plus dans les médias).
Cette semaine, nouvelle session de formation sur l’IA à destination des formateurs/trices intervenant pour le CNFPT.
Cette session invite à comprendre la complexité des SIA et à intégrer le cadre réglementaire de l’usage des SIA dans les collectivités territoriales.
Ces SIA sont imprévisibles. Quelques prérequis sont nécessaires avant de passer à la pratique comme adopter une pensée mécaniste pour comprendre comment fonctionnent ces systèmes intelligents artificiels.
Le cadre réglementaire n’empêche pas leurs usages mais il tente d’imposer un déploiement raisonné dans ce contexte qui se veut plutôt volontairement accélérationniste.
Que représente l’article 4 du RIA : Maitrise de l’IA pour les collectivités et les entreprises ?
Que signifie le concept de MAITRISE de l’IA ?
Non, il ne s’agit pas de savoir se servir de Chat Gpt !
L’article 4 met l’accent sur la formation et la compétence des opérateurs de systèmes d’IA. Les entreprises doivent s’assurer que leurs employés sont adéquatement formés pour gérer et superviser les systèmes d’IA, ce qui inclut la compréhension des algorithmes et des implications éthiques de leur utilisation.
Quelles obligations pour les entreprises et les collectivités ?
Ce cadre juridique vise à encadrer les risques associés à l’intelligence artificielle, garantissant ainsi une utilisation éthique et responsable des technologies d’IA.
Bien comprendre ce point : Les entreprises doivent désormais démontrer leur capacité à gérer ces systèmes complexes, ce qui implique une formation adéquate et une compréhension approfondie des enjeux éthiques et juridiques liés à l’IA.
Concrètement pour appliquer l’Article 4, cela signifie :
– Former leurs équipes sur les systèmes d’IA
– Garantir la transparence des processus décisionnels (d’où la question centrale de l’explicabilité des systèmes et ne pas écouter ceux qui vous disent que ce n’est pas important !).
- Evaluer les risques associés aux applications d’IA
- S’assurer que les systèmes déployés respectent les normes éthiques et juridiques.
- Etablir des protocoles de conformité pour éviter des sanctions potentielles, ce qui pourrait transformer leur approche opérationnelle et stratégique…
Dead line pour être en conformité : Août 2026
Le 2 février 2025, certains SIA seront interdits, notamment l’analyse des émotions sur le lieu de travail…
Par exemple un outil comme Noota, qui fait des résumés de réunions Teams comporte une analyse des émotions…
Faites l’inventaire des SIA utilisables ou non utilisables sur le lieu de travail.