IA générative : enjeux stratégiques et éthiques pour les entreprises

Retrouvez la synthèse de notre dernier décryptage consacré à l’IA Générative : une passionnante session animée par jerome BERANGER de GoodAlgo sur les enjeux stratégiques et éthiques pour les entreprises.

L’accélération exponentielle de l’IA générative s’inscrit dans le contexte de numérisation générale de
la société illustrée par les volumes de transactions effectuées chaque minutes sur les réseaux et
plateformes numériques chaque minute dans le monde.
L’engouement suscité par l’IA générative dépasse toutes les vitesses de croissance connues jusqu’à
présent. Alors qu’il a fallu 5 jours à ChatGPT pour atteindre le million d’utilisateurs, il avait fallu 10
mois à Facebook, 2 ans à Twitter et 3,5 ans à Netflix !
L’IA est multiforme (robots intelligents, analyse prédictive, reconnaissances textuelle, vocale ou
d’images) et ses domaines d’application sont multiples comme les finalités d’usages et les secteurs
d’activité concernés.


Pour les organisations, l’adoption de l’IA n’est pas une question compte tenu de ses capacités et de
son efficacité dans de multiples aspects de la vie professionnelle (productivité, créativité, analyse,
réalisation de tâches répétitives, etc.) et de nombreux métiers (programmeurs et développeurs
informatiques, journalistes, juristes, graphistes, médecins spécialistes, etc.).
De nouveaux enjeux apparaissent néanmoins pour les entreprises et les collectivités face à une
opinion publique inquiète face au développement de l’IA et craignant des menaces de dérives qu’elle
souhaite voir rapidement encadrées. L’éthique apparaît ainsi indispensable à l’acceptation de de l’IA
générative.


Jérôme BÉRANGER identifie deux typologies de risques liés aux IA génératives :

  • Les risques associés à la base de données d’apprentissage.
    Des informations d’apprentissages biaisées, mal étiquetées, non représentatives de la réalité
    ou bien en quantité insuffisantes auront un impact sur l’IA.
    Le plagiat met aussi toute production disponible en danger.
  • Les limites et risques algorithmiques.
    Le manque de transparence, l’absence de reproductibilité des réponses et de normes
    questionnent sur la fiabilité des réponses que peuvent donner l’IA.
    Les IA sont conditionnées par leurs algorithmes et peuvent être victimes de biais
    algorithmiques favorisant la discrimination ou la perte d’équité. Par ailleurs, les risques de
    sécurité sont très élevés.
    La définition de règles de gouvernance et l’adoption de bonnes pratiques éthiques sont donc
    indispensables à l’encadrement des IA génératives.
    Jérôme BÉRANGER a ensuite formulé plusieurs séries de recommandations concernant, notamment
    la collecte et la préparation des données, l’entraînement responsable des modèles, la mitigation des
    biais et de la discrimination, avant de conclure sur le nécessaire accompagnement des entreprises
    pour un numérique éthique.

La présentation a été prolongée d’une longue séance de questions/réponses.
GoodAlgo accompagne les entreprises dans leurs transitions vers l’utilisation de l’IA en organisant
formations et conférences pour favoriser l’acculturation de l’IA et son usage éthique. Elle propose
des audits éthiques des algorithmes pour identifier les risques qui en découlent, ainsi qu’une
labellisation des projets numériques et systèmes d’IA.

Groupement Français
de l’Industrie de l’Information

17, rue Castagnary 75015 Paris
Tél. +33 1 44 90 43 69