IA : innovation ou révolution ?

Selon Bert Flossbach, cofondateur de Flossbach von Storch AG, l'essor de l'intelligence artificielle a des implications considérables.

À l'instar d'Internet, qui a perturbé de nombreuses entreprises traditionnelles et en a créé de nouvelles, et qui a désormais pénétré presque tous les aspects de la société, l'intelligence artificielle changera également le monde à long terme. Qu'il s'agisse de recherche et de développement, de production, de consommation, de communication, d'enseignement ou de sécurité intérieure et extérieure, tous les secteurs ont déjà été pénétrés et modifiés par l'apprentissage automatique ou les logiciels formés. Lorsque l'on parle d'intelligence artificielle aujourd'hui, on fait surtout référence à des modèles linguistiques très répandus tels que ChatGPT, connus sous le nom d'IA générative. Les modèles traditionnels, tels que l'apprentissage automatique, existent quant à eux depuis bien plus longtemps. Tout d'abord, un bref aperçu.

Les modèles génératifs, tels que ChatGPT, sont basés sur des mots ou des images. Ils génèrent de nouvelles données et sont conçus pour produire un contenu créatif et plausible, tel que du texte, des images ou de la musique, similaire aux exemples à partir desquels ils ont été formés. Ils sont complexes et intensifs en termes de calcul, car ils doivent apprendre la distribution de probabilité des modules de texte et générer de nouveaux échantillons de données qui correspondent à la distribution statistique des données d'entraînement. Comme dans le sport, un entraînement constant est essentiel pour améliorer les performances. Les modèles génératifs s'améliorent lorsqu'ils sont constamment alimentés en nouvelles données. La solution la plus évidente consisterait à entraîner à nouveau le modèle d'IA, ce qui était possible sans trop d'efforts ni de frais jusqu'à il y a quelques années. Toutefois, en raison de la taille des nouveaux modèles, la quantité de formation a augmenté de manière significative. En conséquence, l'IA générative est devenue un terrain de jeu pour quelques grandes entreprises financièrement solides, telles que Microsoft, Google, Meta, Amazon et Apple, qui peuvent facilement investir des dizaines de milliards de dollars dans de nouveaux centres de données et de nouvelles puces.

Les modèles traditionnels, tels que l'apprentissage automatique (ML) et l'apprentissage profond (DL), sont souvent basés sur des données numériques, qui doivent généralement être prétraitées et mises sous une forme numérique pour faire des déclarations basées sur des données existantes. Ils sont plus efficaces et plus rapides parce que leur spécialité est la classification ou la prédiction et qu'ils peuvent traiter de nouvelles données avec relativement peu d'efforts. Elles sont conçues pour faire des estimations aussi précises que possible, sur la base de leurs propres données (par exemple, les prévisions météorologiques).

En résumé, l'IA générative crée de nouvelles choses, tandis que l'IA non générative classifie les choses existantes et en déduit des prévisions. Les modèles d'IA traditionnels destinés à des applications spéciales existent depuis très longtemps. Pour le grand public, ils ont surtout été réalisés en secret. La victoire de l'ordinateur Deep Blue d'IBM contre le champion du monde d'échecs Garry Kasparov en 1997 a été remarquée avec étonnement comme un exemple de la puissance d'innovation de la technologie informatique. Lorsque le modèle d'IA AlphaGo (Google DeepMind) a battu le champion du monde coréen de go Lee Sedol en mars 2016, la surprise a été bien plus grande. Ce jeu de plateau d'Asie de l'Est avec une grille de 19 x 19 lignes compte encore deux quadrillions (2x1015) de combinaisons possibles après trois coups, soit 16,5 millions de fois plus qu'après trois coups d'échecs.

Alors que Deep Blue d'IBM tentait encore d'utiliser un algorithme pour anticiper systématiquement le plus grand nombre possible de coups d'échecs, AlphaGo évaluait 150 000 parties humaines, puis faisait jouer différentes copies du logiciel les unes contre les autres pour simuler des millions de nouvelles parties "artificielles". Cette méthodologie était révolutionnaire et considérée par les experts comme le début d'une nouvelle ère de l'IA.

Huit années se sont écoulées depuis. La puissance de calcul des ordinateurs s'est considérablement améliorée. À l'automne 2022, l'OpenAI a rendu un modèle d'IA générative accessible au grand public pour la première fois avec ChatGPT 3.5. En réponse à des questions, il a écrit des discours stéréotypés, des poèmes humoristiques et des résumés de texte utiles, mais il a aussi produit beaucoup d'absurdités (hallucinations). À peine un an plus tard, ChatGPT 4.0 est sorti et a réalisé des performances étonnantes. Il était non seulement plus précis pour résumer, traduire, créer et formuler des textes, mais il permettait également d'effectuer des recherches sur des sujets plus complexes. Néanmoins, l'utilisateur doit toujours être en mesure de valider les résultats, ce qui nécessite généralement sa propre expertise, car il n'y a souvent pas de références.

Les performances des modèles d'IA générative comportent toutefois des risques. Chaque utilisateur peut faire créer des images, des vidéos ou des textes qui peuvent priver des personnalités publiques de leur légitimité, manipuler l'opinion publique et influencer ainsi les campagnes électorales.

Les directives de contenu de ChatGPT interdisent la création de telles images, mais d'autres modèles d'IA les autorisent, bien que les représentations soient encore souvent peu réalistes. Les hallucinations qui sont encore produites sont également critiques, car elles présentent de manière convaincante des faits complètement faux dans un langage soigné.

Mustafa Suleyman, cofondateur de DeepMind (dont le modèle informatique a battu le champion du monde coréen de Go) et d'Inflection AI, brosse un tableau dystopique des dangers de l'IA galopante dans son livre très remarqué, The Coming Wave (La vague qui vient). Il décrit les risques de cyberattaques généralisées, d'armes létales agissant de manière autonome, la menace de déstabilisation politique et économique des gouvernements et des sociétés civiles, et la perturbation de nombreux domaines de travail avec des conséquences profondes pour des centaines de millions d'employés.

Il souligne la nature ambivalente du logiciel, qui peut créer de bonnes choses, mais aussi provoquer le contraire. Il peut s'agir de nouveaux emplois et de nouveaux actifs économiques d'une part, et de la destruction de sources de richesse existantes d'autre part. Il peut également s'agir de progrès dans la lutte contre des maladies jusqu'ici incurables et de dommages collatéraux, ou d'épidémies incontrôlées de virus qui peuvent être cultivés de manière rentable dans des laboratoires incontrôlés à l'aide de l'IA. À la fin de son livre, Suleyman décrit des moyens de réduire les effets secondaires indésirables d'une IA universelle, par exemple par des efforts concertés des gouvernements, des sociétés civiles, de la science et des entreprises. Toutefois, il n'a que peu d'espoir que ces efforts aboutissent face aux luttes de pouvoir géopolitiques et cite l'exemple de la Chine, où l'utilisation de l'IA contribue au développement d'un État de surveillance omniprésente.

Nous devons attendre de voir si les risques évoqués se concrétisent et comment le monde y réagit. Dès le début de l'ère de l'internet, des mises en garde ont été lancées contre les cyberattaques, le vol de données et les abus. Ces avertissements étaient justifiés, mais le monde s'y est adapté et a développé des mécanismes de défense. Une chose est sûre : avec les progrès de l'intelligence artificielle, les incertitudes vont également augmenter. Il y aura des gagnants et des perdants. Toutes les entreprises qui profitent aujourd'hui du boom ne pourront pas en faire autant demain. Les grandes entreprises technologiques ont un avantage considérable sur leurs concurrents plus petits grâce à leur expertise et à leurs énormes réserves financières.

C'était également le cas de Yahoo, jusqu'à ce que Google entre en scène et, grâce à un algorithme de recherche supérieur, évince l'ancien leader des moteurs de recherche. L'IA est une révolution technologique qui, d'une part, peut rendre les grands acteurs encore plus puissants et, d'autre part, créer une asymétrie qui permet aux Davids de battre les Goliaths.

Les petits perturbateurs, tels que Microsoft, Amazon, Apple et Alphabet (Google) l'ont été par le passé, parviennent rarement à perturber les structures de pouvoir traditionnelles. Les prétendus perturbateurs deviennent souvent eux-mêmes des victimes de la perturbation, comme l'illustrent les exemples présentés dans le tableau et le cours de leurs actions dans la figure 2.

Par exemple, certains modèles d'entreprise qui sont encore considérés comme sûrs aujourd'hui peuvent être affaiblis ou même sapés à l'avenir par le développement rapide et l'utilisation généralisée de l'intelligence artificielle. Un enseignement important à tirer de cette situation est que les entreprises devraient examiner leur vulnérabilité aux changements technologiques, diversifier un peu plus leurs portefeuilles et essayer de ne pas compter uniquement sur quelques gagnants (supposés) de l'intelligence artificielle.

L'IA peut-elle prédire les performances des marchés boursiers ?

Isaac Newton a reconnu avec justesse l'imprévisibilité du comportement humain par rapport à la prévisibilité des lois physiques, en déclarant : « Je peux calculer le mouvement des corps célestes, mais pas la folie des gens. »

Pour prédire les performances des marchés boursiers, il faudrait non seulement calculer la folie des gens, mais aussi être capable de prédire l'avenir, qui ne se déroulera pas comme prévu si tout le monde sait à l'avance ce qui va se passer.

Par exemple, si l'on s'interroge sur les perspectives de succès d'une entreprise particulière et de ses actions, les limites des modèles de langage génératifs apparaissent rapidement. Le résultat est généralement le consensus des estimations des analystes ou des opinions de la presse financière, mais pas un jugement compréhensible et autodérivé. Un modèle linguistique génératif n'en est pas capable.

Cependant, l'IA peut soutenir le processus analytique, par exemple en évaluant la force concurrentielle d'une entreprise ou la qualité de sa gestion. L'utilité des résultats dépend fortement des bonnes questions posées (« prompts ») et de leur clarification étape par étape. En fin de compte, les résultats doivent encore être soumis à un contrôle des faits et de la plausibilité. Lors de l'évaluation du management, l'important est de déterminer si la personne est apte à occuper un poste de direction dans l'entreprise concernée.

Par exemple, la combinaison d'une base de données propre à l'entreprise et de l'IA générative permet de vérifier la rigueur et la crédibilité des déclarations des dirigeants et de les classer selon qu'ils ont tendance à blanchir ou à exposer les problèmes et à proposer des solutions concrètes.

D'autres caractéristiques telles que la compétence professionnelle, l'authenticité, la motivation et le style de leadership peuvent également être testées de cette manière. La qualité des résultats dépend de la qualité de la base de données et de la manière dont les questions ou les tâches sont formulées. Avec l'expérience et le nombre croissant d'études de cas (surtout positives ou négatives), la base de données s'améliore et les questions des analystes s'affinent, ce qui permet d'obtenir de meilleurs résultats. Il ne faut pas prétendre à une précision de 100 %. Il se peut également que ce ne soit pas tant l'IA elle-même qui améliore le processus analytique, mais plutôt la clarification des questions et la systématique appliquée par les modèles d'IA.

Serge Vanbockryck

Senior PR Consultant, Befirm

 

Recevez des mises à jour par e-mail

En cliquant sur « S'abonner », je confirme avoir lu et accepté la Politique de confidentialité.

À propos de Flossbach von Storch

Flossbach von Storch est l'un des principaux gestionnaires d'actifs indépendants en Europe, avec plus de 70 milliards d'euros d'actifs sous gestion et plus de 300 employés. La société a été fondée à Cologne en 1998 par le Dr Bert Flossbach et Kurt von Storch. Ses clients sont des investisseurs de fonds, des investisseurs institutionnels, des particuliers fortunés et des familles. 

Toutes les décisions d'investissement sont prises sur la base de la vision du monde propre à la société, qui repose sur l'analyse critique des contextes économiques et politiques. En tant que société gérée par son propriétaire, Flossbach von Storch n'est pas lié par les directives d'une banque ou d'une entreprise.