Depuis que le ChatGPT d’OpenAI est devenu viral à la fin de l’année 2022 en raison de sa capacité sans précédent à engager des conversations semblables à celles des humains et à fournir des réponses articulées dans des domaines de connaissance très variés, plusieurs concurrents ont commencé à introduire leurs propres itérations de la technologie. Ce type de technologie d’IA, connu sous le nom d’IA générative, est basé sur de grands modèles de langage qui sont formés sur des quantités massives de données, qui peuvent inclure du texte, des images ou d’autres médias. Les modèles identifient les schémas et les structures des données d’apprentissage et génèrent ensuite un nouveau contenu présentant des caractéristiques similaires en fonction des demandes de l’utilisateur.
L’intégration de l’IA générative dans une entreprise présente divers avantages – amélioration des processus, réduction des coûts et création de valeur, pour n’en citer que quelques-uns. Tirant parti de ces opportunités, des entreprises de différents secteurs ont déjà commencé à tester et à mettre en œuvre des outils d’IA générative. Les exemples vont des institutions financières qui déploient des robots conversationnels formés à partir de bases de données internes pour fournir des conseils financiers à leurs clients, aux établissements de santé qui automatisent la production de documents médicaux sur la base de conversations entre les patients et les médecins. Dans tous les secteurs, les entreprises intègrent également des outils d’IA générative dans le marketing, le service à la clientèle et le développement de produits.
Les investisseurs doivent donc prêter attention non seulement aux grandes entreprises technologiques qui élaborent les modèles fondamentaux, mais aussi aux entreprises qui commencent à intégrer des outils d’IA générative dans leurs activités. Comme pour la plupart des nouvelles technologies, il existe des risques potentiels qui doivent être correctement pris en compte et protégés avant un déploiement généralisé. La réglementation jouera un rôle important dans la réduction de ces risques. Mais comme le développement de la réglementation se fait à un rythme beaucoup plus lent que le développement et l’application de l’IA, les investisseurs doivent activement prendre en compte les risques et rechercher des opportunités de gestion dans les entreprises impliquées dans l’IA générative afin de faire face à ces risques.
Défis et risques de l’IA générative
Les modèles d’IA générative ont divers problèmes connus. Ces modèles ont tendance à « halluciner », en générant de faux résultats qui ne sont pas justifiés par les données d’apprentissage et en les présentant comme des faits. Ces erreurs peuvent être imputables à différents facteurs, tels qu’une architecture de modèle inadéquate ou du bruit et des divergences dans les données d’apprentissage. L’opacité qui entoure la manière dont les résultats des modèles sont générés est également un problème. Avec des milliards, voire des billions de paramètres de modèle qui déterminent les probabilités de chaque partie de la réponse, il est extrêmement difficile de faire correspondre les résultats du modèle aux données de base, y compris dans les cas d’hallucination.
En outre, si les données d’apprentissage contiennent des préjugés sociétaux ou si la conception de l’algorithme est influencée par des préjugés humains, le modèle peut apprendre et propager ces préjugés dans ses résultats. Les applications d’entreprise pourraient également être vulnérables aux problèmes de confidentialité des données et aux menaces de cybersécurité. Il s’agit notamment de la fuite d’informations sensibles dans les données d’apprentissage si le modèle est orienté vers le client ou le public, de l’utilisation de données personnelles ou sensibles dans l’apprentissage du modèle dont l’utilisation aurait nécessité un consentement explicite, ainsi que d’attaques malveillantes de pirates informatiques visant à manipuler les résultats du modèle.
Ces questions donnent lieu à divers risques juridiques et d’atteinte à la réputation, dont l’ampleur dépend de la criticité du cas d’utilisation et du secteur d’activité de l’entreprise. Par exemple, les secteurs de la finance et de la santé peuvent subir de graves conséquences si des problèmes surviennent, en raison des enjeux élevés de ces secteurs.
Exemples de cas d’utilisation dans le secteur financier
Dans les cas d’utilisation de conseils financiers, les hallucinations des modèles pourraient donner des conseils inappropriés ou proposer le mauvais produit à des clients non avertis, ce qui pourrait ébranler la confiance du public dans les systèmes d’IA et les institutions financières qui les utilisent. Manque de transparence L’opacité sur la manière dont les résultats des modèles sont générés est également une question clé pour les institutions financières, car celles-ci doivent être en mesure d’expliquer leurs décisions en interne et aux parties prenantes externes. Compte tenu de tous ces éléments, la meilleure pratique consiste à mettre en place un certain degré de séparation entre les résultats directs du modèle et le client, où le personnel interne pourrait être formé à reconnaître les erreurs et incohérences potentielles dans les résultats du modèle et à assumer la responsabilité finale du processus de prise de décision.
L’IA générative pourrait également offrir aux institutions financières un moyen rapide et peu coûteux d’établir le profil de leurs clients à des fins de campagnes de marketing, de gestion des risques et d’identification des transactions suspectes. Toutefois, un recours excessif au profilage génératif par l’IA pourrait constituer une violation des lois antidiscriminatoires en raison des préjugés potentiels intégrés dans les modèles. Un jugement humain approprié devra compléter les modèles génératifs d’IA qui établissent le profil des clients. Les institutions financières devront également se doter de politiques de confidentialité des données et de mesures de cybersécurité solides pour faire face aux risques que l’IA générative fait peser sur les informations sensibles de leurs clients et sur leurs données propriétaires.
Questions à considérer pour les investisseurs
Compte tenu de toutes ces questions et de tous ces risques, voici les questions que les investisseurs devraient se poser lorsqu’ils évaluent les entreprises qui utilisent des outils d’IA générative :
- Quels sont les mécanismes ou circonstances permettant d’atténuer les risques? Les solutions consistent notamment à demander du personnel interne formé de servir d’intermédiaire entre les résultats directs du modèle et le client ; à s’efforcer de comprendre les biais potentiels dans les données de formation et à les prendre en compte dans la conception du modèle ; à contrôler régulièrement et de manière proactive les résultats du modèle afin d’identifier et de traiter rapidement tout signe d’hallucinations ; à mettre en œuvre des mesures de cybersécurité robustes, etc.
- Quelles sont les mesures prises pour améliorer les performances du modèle? Les solutions consistent à s’assurer que les données de formation sont de haute qualité, précises et à jour, à mettre en œuvre des boucles de rétroaction itératives pour affiner et améliorer les performances du modèle, etc.
- Existe-t-il une transparence et un contrôle des principes éthiques de l’IA? Il s’agit d’assurer la transparence en matière d’approvisionnement en données et de respect de la vie privée, de définir des politiques et des procédures claires pour garantir le respect des normes éthiques et des nouvelles réglementations, de définir les rôles et les responsabilités des personnes impliquées dans le développement, le fonctionnement et la supervision du modèle d’IA générative, etc.