Certains dirigeants craignent de ne pas atteindre leurs objectifs en termes d’IA éthique
La croissance fulgurante de l’IA éthique fait naître des interrogations et même des craintes chez certains experts du secteur 😰 : ils craignent de ne pas atteindre les objectifs éthiques de l’entreprise. Mais alors, pour quelles raisons ? Hausse des coûts, mauvais résultats commerciaux… les risques évoqués sont divers et nombreux. Une étude conduite par Forrester met en lumière ces craintes, retour sur les éléments les plus marquants.
Qu’est-ce que réellement une IA éthique ?
De nombreux experts ont tenté de répondre à cette question tant au niveau national qu’international. Ce n’est qu’en avril 2019 que la Commission européenne a identifié 7 éléments essentiels pour parvenir à une IA éthique et de confiance :
- Facteur et contrôle humain : les systèmes d'IA devraient être les vecteurs de sociétés équitables sans restreindre ou dévoyer l'autonomie humaine ;
- Robustesse et sécurité : une IA éthique nécessite des algorithmes suffisamment fiables pour gérer les erreurs ou les potentielles incohérences ;
- Responsabilisation : mise en place de mécanismes pour garantir la responsabilité à l'égard des systèmes d'IA et de leurs résultats.
- Bien-être sociétal et environnemental : une IA éthique doit renforcer la durabilité et la responsabilité écologique ;
- Diversité, non-discrimination et équité : les systèmes d'IA devraient prendre en compte tout l'éventail des capacités, aptitudes et besoins humains ;
- Transparence : la traçabilité des systèmes d'IA doit être assurée ;
- Respect de la vie privée et gouvernance des données : une maîtrise totale des données personnelles des citoyens ;
Risque de ne pas atteindre les objectifs réglementaires
Les responsables interrogés par Forrester craignent de ne pas atteindre les objectifs réglementaires fixés par leur entreprise dès le premier jour. Ainsi, ce ne sont que la moitié d’entre eux qui sont capables de surmonter ces risques.
La raison ? Le principal obstacle est la grande complexité des processus automatisés et le temps d’adaptation.
Risque de déperdition des compétences des collaborateurs
Qui dit IA éthique dit nouveaux outils, et qui dit nouveaux outils dit besoin de formation et manque de compétence des collaborateurs.
Ainsi, l’autre risque annoncé par l'étude de Forrester est celui de voir une déperdition des compétences des collaborateurs en termes d’automatisation des processus. En effet, deux tiers des participants à l’étude expliquent que l’intégration de nouveaux outils sera très complexe.