AccueilActualités informatiquePrincipes Éthiques dans l'Utilisation de l'IA Générative

Principes Éthiques dans l’Utilisation de l’IA Générative

L’intelligence artificielle générative est en train de transformer l’économie et la société. Une étude a examiné comment les entreprises l’utilisent et quels sont les aspects éthiques et les préoccupations liées.

Avec l’émergence de chatbots comme ChatGPT et d’autres outils d’IA génératifs, le paysage de l’IA a considérablement changé. Les capacités pour optimiser les processus, stimuler l’innovation et résoudre des problèmes complexes sont énormes. Par exemple, le développement de nouveaux matériaux dans l’industrie automobile, la réduction des émissions dans l’industrie énergétique ou l’optimisation des processus RH à travers les secteurs.

Cela ouvre également de nouvelles perspectives pour l’éthique numérique pour prévenir les risques juridiques, financiers et de réputation des entreprises. Une étude de Deloitte a examiné les points de vue des entreprises sur ces questions. Plus de 1 700 experts numériques du monde entier ont été interrogés sur les aspects éthiques des innovations technologiques.

Sommaire

Potentiel et risques des nouvelles technologies

Le progrès technologique est à double tranchant à plusieurs égards, car il comporte à la fois un grand potentiel et des risques. Cela s’applique également à l’IA générative. Selon 39% des experts numériques interrogés, l’IA générative offre le plus grand potentiel pour relever les défis sociaux et apporter des améliorations sociales. Cependant, il y a une grande inquiétude quant aux risques éthiques tels que l’abus de données et la désinformation.

57% des répondants expriment des préoccupations concernant les risques éthiques associés aux technologies cognitives telles que l’IA générative. Cela représente une augmentation significative de 16 points de pourcentage par rapport à l’année précédente, principalement en raison de l’évolution rapide de l’IA générative depuis l’introduction de ChatGPT en novembre 2022. La réalité virtuelle arrive en deuxième position avec 11% des mentions (2022: 16%), suivie du calcul quantique avec 9% des mentions (2022: 8%).

Préoccupations concernant GenKI

Avec la montée en puissance de l’IA générative, pour la première fois cette année, l’étude a demandé aux experts numériques leurs préoccupations spécifiques lors de l’utilisation de cette technologie. Le résultat montre que 22% des experts numériques voient une menace pour la vie privée, par exemple si l’extraction d’informations personnelles à partir de données d’entraînement non protégées pour des modèles d’IA générative n’est pas empêchée.

14% des personnes interrogées s’inquiètent du manque de transparence, en particulier lorsque le fonctionnement d’un système complexe composé de millions de points de données produisant de l’information n’est pas clair. Douze pour cent craignent que des données d’entraînement manipulées ou protégées par le droit d’auteur puissent être utilisées.

GenKI présente des risques pour les entreprises

Si les entreprises ne traitent pas activement les risques éthiques, elles pourraient perdre la confiance de leurs clients et partenaires d’affaires et nuire à leur réputation, selon 38% des personnes interrogées. 27% voient des conséquences possibles pour les droits fondamentaux des individus et des communautés – allant de l’atteinte à la vie privée à la discrimination en passant par les erreurs de diagnostic médical – en particulier lorsque les technologies sont introduites trop rapidement.

Des sanctions réglementaires pourraient également être possibles pour les entreprises (17%), par exemple pour une violation du droit d’auteur.

Établir des principes éthiques

74% des personnes interrogées indiquent que leurs entreprises testent déjà l’utilisation de l’IA générative. Parmi celles-ci, 65% utilisent la technologie en interne, tandis que 31% l’utilisent pour des applications externes. Lors de l’implémentation de nouvelles technologies, il est essentiel d’établir des principes éthiques dès le départ, car les risques éthiques peuvent s’accroître rapidement. Avant l’introduction de nouvelles technologies, des principes éthiques numériques devraient être élaborés et des pratiques responsables devraient être établies dans toute l’entreprise.

L’étude offre également un aperçu des différentes approches adoptées par les entreprises face aux risques éthiques. Les entreprises pionnières échangent des informations au sein de réseaux, réagissent de plus en plus urgemment aux innovations et font des normes éthiques une tâche de gestion. Ils développent leurs propres solutions à l’aide de principes éthiques et de comités internes pour créer un cadre d’action avec des outils concrets pour prendre des décisions éthiques.

En revanche, il existe un groupe considérable de retardataires. 56% des personnes interrogées indiquent que leurs entreprises n’ont pas de principes éthiques ou de cadre d’orientation pour l’IA générative malgré son large utilisation.

Trois étapes vers l’innovation éthiquement durable

Les entreprises devraient adopter une approche en trois étapes pour développer des innovations durables sur le plan éthique :

  • Dans la première étape, l’exploration, l’importance de l’éthique numérique, des réglementations spécifiques et des principales préoccupations des employés, des clients et des parties prenantes externes doivent être identifiées.
  • Dans la deuxième étape, les responsabilités internes ainsi que les processus et structures correspondants peuvent être élaborés.
  • La troisième étape d’implémentation vise à rendre tous les employés capables de comprendre et de respecter les directives d’éthique numériques. Cela permet de fournir des aides à la décision dans les processus de transformation qui ne constituent pas un obstacle bureaucratique.

Si la direction de l’entreprise soutient les normes éthiques, 89% des employés les adopteront.

Vous pouvez télécharger l’étude « Ethique numérique et confiance dans les technologies 2023 » ici.


Pour en savoir plus sur le concept de partenaire du Bank Blog, cliquez ici.

Plus d'articles