Décrocher une heure dans l’emploi du temps ultra-serré de James Manyika, c’est comme prendre rendez-vous avec plusieurs personnes en même temps. Car le vice-président senior chargé de la recherche, de la technologie et de la société chez Google chapeaute les chantiers liés au quantique, à la fusion nucléaire et à une grande partie de l’intelligence artificielle. Celui qui est né il y a cinquante-huit ans au Zimbabwe réfléchit à l’impact de ces recherches sur la société. Capable d’éradiquer des tâches répétitives, de détecter certaines pathologies, comme de prévenir des catastrophes naturelles, l’IA s’annonce comme un ouragan qui va bouleverser le futur du travail et la géopolitique. Un sujet qui passionne celui qui a longtemps dirigé le McKinsey Global Institute. Cette technologie a aussi des allures de blessure narcissique pour l’homme. Comment ce dernier doit-il réagir quand sa création le dépasse sur un nombre croissant de tâches cognitives ? Membre de l’Aspen Institute, le titulaire d’un master en intelligence artificielle décroché à Oxford conseille également l’ONU sur le sujet.
Surtout, Google ne peut plus rester les bras croisés. Paradoxalement, ce sont en effet des chercheurs maison (ils ont depuis quitté l’entreprise) qui ont publié en 2017 un des articles fondateurs de l’IA générative, et pourtant, sans doute pour protéger son modèle économique, Google avait décidé de ne rien en faire à l’époque. Trop prudent, donc, face à cette technologie sujette aux biais et aux erreurs, le moteur de recherche doit désormais affronter la concurrence d’entreprises chinoises, comme Baidu, et de Microsoft, ou encore de start-up, telles OpenAI, Anthropic ou Perplexity, innovant avec des équipes plus petites à un rythme inédit.
Le Point : À quel point l’avènement de l’intelligence artificielle représente un marqueur dans l’histoire de l’humanité ?
James Manyika : L’IA est une révolution d’abord parce qu’elle peut être utilisée dans tous les pans de la société et de l’économie. Ensuite, parce qu’il s’agit de la première technologie capable d’accomplir des tâches cognitives que nous pensions réservées aux humains, tels le raisonnement intuitif ou encore la créativité. C’est une avancée historique majeure ! À ce titre, elle aura un impact plus vaste et profond que l’électricité et la machine à vapeur.
Dans quel domaine cette révolution est-elle déjà palpable ?
Prenez la biomédecine. Rien qu’au cours des trois dernières semaines, chez Google, nous avons révélé des innovations majeures. Nous avons d’abord présenté Med-Gemini, un modèle de langue spécialement affiné pour le raisonnement médical, en mesure de croiser les données d’un patient avec des corpus médicaux complexes ainsi que de s’auto-améliorer. La semaine suivante, nous avons annoncé AlphaFold 3, un modèle d’IA qui permet de modéliser la quasi-totalité de la forme des molécules, des protéines à l’ADN, en analysant l’ARN et leurs interactions (voir encadré ci-dessous). Les versions précédentes de ce modèle d’IA sont déjà utilisées par plus de 1,8 million de scientifiques dans le monde. Et, enfin, la semaine dernière, l’équipe Connectomics de Google Research a rendu publics des travaux, réalisés notamment avec des chercheurs de Harvard, qui ont permis la reproduction en 3 D la plus aboutie des synapses et des neurones d’un cerveau humain. L’équipe a publié un article dans la revue Science sur la reconstruction détaillée d’une région du cerveau, mettant en évidence de nouvelles structures neuronales qui aideront les chercheurs à comprendre certains troubles neurologiques.
Peut-on considérer ces programmes comme réellement intelligents ?
Votre question nous pousse à nous interroger sur ce qu’est l’intelligence humaine. Or sa perception a évolué au cours du temps. Autrefois, être intelligent signifiait pouvoir faire des calculs mentaux rapidement. C’était le cas lorsque j’étais enfant au Zimbabwe. L’arrivée des calculatrices a bouleversé cette vision. Nous avons ensuite valorisé la mémorisation. Les personnes capables de se souvenir de nombreuses informations étaient vues comme intelligentes. De nos jours, nous mettons davantage l’accent sur la pensée critique, c’est-à-dire la faculté à analyser, à raisonner et à argumenter. Nous utilisons souvent les dissertations pour évaluer l’intelligence des étudiants, car ils doivent montrer qu’ils peuvent structurer leurs idées. Cependant, avec les progrès actuels, même cette définition de l’intelligence est remise en question. Les systèmes d’IA sont capables de rédiger des essais cohérents…
La Silicon Valley, dont Sam Altman, cocréateur d’OpenAI, se passionne pour l’« artificial general intelligence » (AGI), une IA capable de supplanter les fonctions cognitives humaines. Cela peut faire peur…
Il y a deux manières d’envisager l’AGI. La première, comme une intelligence apte à accomplir une gamme variée de tâches humaines, comme le raisonnement, la résolution de problèmes, la compréhension de langues naturelles, la créativité en poésie. Cela signifie que l’IA pourrait effectuer n’importe quelle tâche cognitive que nous pouvons faire, de manière aussi efficace que nous. Nous en sommes aujourd’hui très proches. La deuxième définition inclut des capacités d’auto-amélioration, d’apprentissage autonome, ou encore celle de prendre des décisions indépendantes. C’est-à-dire la capacité à définir ses propres objectifs et à choisir ce sur quoi travailler. Certains évoquent même la conscience, bien que ce soit un concept très débattu et complexe. Pour eux, l’AGI implique un comportement autonome qui va au-delà de la simple exécution de tâches variées. Si vous retenez cette définition, je crois que nous en sommes encore éloignés, elle nécessitera des percées scientifiques supplémentaires.
Quels sont justement ces défis scientifiques ?
Nous devons améliorer le raisonnement, la mémoire, la planification, et la capacité de l’IA à accomplir des tâches de raisonnement « hors distribution », à savoir des tâches pour lesquelles elle n’a pas été spécifiquement formée. En d’autres termes, l’IA doit pouvoir appliquer ses compétences à des contextes totalement nouveaux et inconnus. C’est un domaine où les systèmes actuels montrent encore des limites, car ils sont souvent dépendants des données sur lesquelles ils ont été formés. Enfin, les systèmes d’IA doivent être capables de comprendre et d’interagir avec leur environnement de manière plus naturelle et intuitive. Cela inclut la perception sensorielle, la manipulation d’objets, et la navigation dans des espaces physiques. Les progrès dans ce domaine nécessitent des avancées en robotique, en vision par ordinateur, et en traitement du langage naturel pour permettre une interaction plus fluide et plus efficace avec le monde réel.
C’est ce qu’ambitionne de faire Yann Le Cun, le responsable de l’intelligence artificielle de Meta, avec le modèle Jepa, qui veut donner une prise sur l’extérieur aux machines…
Oui, nous devons travailler sur des modèles qui comprennent mieux le contexte et peuvent s’adapter à des situations nouvelles ou imprévues.
Beaucoup de professions intellectuelles craignent de voir leurs emplois disparaître…
Cela me rappelle les années de mon doctorat en intelligence artificielle, il y a déjà vingt-huit ans… Il y a encore quinze ans, quand on posait cette question à un chercheur ou à un économiste, il répondait : « Oh oui, l’IA et l’automatisation seront formidables parce qu’elles pourront réaliser toutes les tâches répétitives, celles pour lesquelles nous pouvons écrire des instructions précises. Mais elles ne pourront jamais accéder au raisonnement intuitif, au travail créatif. » C’est pourtant le cas à présent…
Personne ne semble à l’abri de voir son travail remplacé par la machine, pas même Google, qui a récemment procédé à des licenciements…
Oui, nous nous sommes restructurés. Nous devons nous assurer que nos équipes aient les compétences nécessaires pour travailler aux côtés de l’IA et utiliser ces outils de manière efficace. Cela implique une formation continue. Certaines tâches seront automatisées, de nouveaux emplois seront créés, et la nature de nombreux emplois changera grâce à l’IA. Les compétences en résolution de problèmes et la capacité de travailler ensemble seront également fondamentales à l’avenir.
Certains craignent aussi que la machine ne se retourne contre l’homme…
Il est important que les objectifs de l’IA correspondent à nos objectifs, à nous, humains. C’est ce que l’on appelle l’alignement. Il est crucial que l’homme puisse contrôler ces systèmes. Il est également crucial de trouver des solutions pour les métiers où les salaires pourraient être tirés vers le bas. Je comprends ces inquiétudes, mais il est important de noter que l’IA apportera également de nombreux avantages.
L’IA, qui nécessite de grandes capacités de calcul, consomme énormément d’énergie…
Les modèles d’IA, en particulier ceux basés sur les modèles Transformer [un outil de compréhension du langage qui a permis la génération de texte, NDLR] consomment beaucoup d’énergie. Cela est dû au fait que la complexité des calculs augmente de manière quadratique avec la taille des modèles et la quantité de données utilisées pour les entraîner. Nous travaillons sur des modèles plus petits et plus efficaces pour réduire cette consommation. Par exemple, Gemini existe en quatre tailles, dont la Nano, et nous essayons d’inventer des versions encore plus petites.
La fusion nucléaire pourrait-elle contribuer à résoudre certains des défis énergétiques ?
Oui, et c’est paradoxalement l’IA qui nous aide à mettre au point cette énergie du futur ! Nous avons mené des recherches sur le confinement du plasma dans les tokamaks, une technologie qui permet de fusionner deux atomes en créant davantage d’énergie que celle qui a été consommée, comme ce fut le cas récemment en Suisse, où Google DeepMind et le Swiss Plasma Center de l’École polytechnique fédérale de Lausanne (EPFL) travaillent ensemble. Grâce à l’IA, nous avons pu montrer qu’il est possible de contenir un champ de plasma haute énergie de manière plus efficace. Cela pourrait avoir des implications majeures pour l’avenir de l’énergie.
L’informatique quantique nous permettra-t-elle de répondre à temps aux besoins croissants en puissance de calcul de l’IA ?
Elle offrira des calculs plus rapides et plus efficaces. Nous avons défini six jalons techniques pour arriver à un ordinateur quantique pleinement tolérant aux pannes. Nous avons atteint le premier en 2019 : il consistait à montrer que l’ordinateur quantique peut résoudre des problèmes infiniment plus complexes que n’importe quelle architecture fondée sur Turing-Von Neumann, qui ont posé dès 1945 les fondements de l’informatique actuelle. Nous avons fait une simulation en 2019. Et l’année dernière, nous avons montré la correction d’erreur. C’était le deuxième jalon. Nous avons encore les jalons trois, quatre, cinq, six. Certains de ces jalons sont des défis d’ingénierie. D’autres sont des percées scientifiques. Cela arrivera dans une période que j’estime entre cinq ans et… un siècle.
Dans quelle mesure l’IA est-elle en train de définir un nouvel ordre mondial ? En 2017, Vladimir Poutine a déclaré que le pays qui maîtrisera l’IA sera le maître du monde…
Au sein de l’Organe consultatif de haut niveau sur l’IA de l’ONU, nous avons formé un groupe comprenant 39 membres de 33 pays. Ce qui est frappant, c’est que les pays du Sud global sont beaucoup plus optimistes que l’Europe ou l’Amérique du Nord… L’IA y est perçue, par exemple, comme un moyen de résoudre la pénurie de professeurs ou de praticiens médicaux. Cependant, le développement, le déploiement et l’utilisation de l’IA sont largement dominés par quelques pays du Nord, à travers quelques grandes entreprises. Pour répondre à la prédiction de Vladimir Poutine, oui, la maîtrise de l’IA donne un avantage stratégique immense, mais il est crucial que cette maîtrise soit partagée pour éviter des déséquilibres mondiaux trop importants.
L’Afrique n’est-elle pas la grande oubliée de l’intelligence artificielle ?
Le manque d’accès à des ressources telles que les données, la puissance de calcul et les modèles avancés est une préoccupation majeure sur le continent africain. Idem pour l’accès à l’électricité. Pour corriger cela, il est essentiel de créer des politiques qui permettent à toutes les régions du monde de participer à cette révolution technologique.
Où se situe la France dans cette course technologique ?
Les chercheurs français m’impressionnent ! Nous en comptons d’ailleurs beaucoup dans les rangs de Google. Certains Français sont à l’origine d’aventures extraordinaires, comme Mistral AI ou Hugging Face. Il faut créer les conditions pour qu’ils prennent leur envol !
Les générateurs de vidéos sont de plus en plus bluffants, tels Veo, de Google, ou Sora, d’OpenAI. La perception faussée de la vérité peut être dangereuse pour les démocraties…
Il est fondamental de garantir la transparence sur l’origine des contenus générés par l’IA. Des techniques comme le watermarking[une technologie qui permet de déposer un filigrane imperceptible dans une vidéo, NDLR] peuvent aider à faire la distinction entre les contenus créés par des machines et les contenus réels. En outre, des régulations claires sont essentielles pour assurer que toutes les parties prenantes respectent les mêmes règles. La société doit s’adapter et apprendre à discerner la vérité dans un monde numérique, en développant des compétences de discernement et en s’appuyant sur la pensée critique, comme c’est parfois le cas sur les réseaux sociaux.
Pour certains chercheurs éminents, comme Yoshua Bengio, Prix Turing, permettre à tous d’avoir accès aux logiciels, en « open source » revient à diffuser la recette de la bombe atomique…
L’open source a toujours été au cœur de l’innovation technologique. Chez Google, cela s’est traduit par des projets comme Android, qui permet aux innovateurs de développer, de tester et d’améliorer le fonctionnement des téléphones portables. Pour cette raison, nous avons mis en open source certaines parties de notre modèle d’IA Gemma, qui offre des performances de pointe dans diverses tâches telles que la réponse à des questions. Cela dit, la question de l’open source en IA est complexe. D’un côté, cette démarche est formidable car elle permet aux chercheurs et aux entrepreneurs d’accéder aux outils nécessaires pour innover. D’un autre côté, qu’adviendra-t-il si elle tombe entre les mains d’acteurs malveillants ? Pour l’instant, nous ne discernons pas de risques majeurs. Mais je dis bien pour l’instant ! Cela pourrait changer à mesure que la technologie progresse…
Que faut-il enseigner aux enfants pour les préparer au futur ?
Tout dépend de leur âge ! Il est important d’enseigner les sciences, les mathématiques et les arts. L’accent doit également être mis sur la compréhension des concepts et la créativité. Les compétences en résolution de problèmes, en pensée critique et en collaboration seront également cruciales. Concernant la programmation, cela dépend. Mon fils a 22 ans, et je l’ai toujours incité à apprendre à programmer. Mais s’il avait 3 ans, je pourrais répondre différemment à cette question… Car la programmation est de plus en plus facile pour les machines. Donc, si ma fille ou mon fils semblait être un programmeur moyen, je leur dirais peut-être de ne pas se concentrer là-dessus. Il est important de noter que les systèmes actuels peuvent gérer la programmation de tâches relativement simples, mais, pour les tâches plus complexes, ils ne sont pas encore tout à fait au niveau. Une compréhension humaine approfondie est encore nécessaire. Donc, s’ils étaient du calibre de Jeff Dean [le responsable scientifique de Google, NDLR], je leur dirais d’apprendre à programmer, car ils pourraient aller au-delà des capacités actuelles des systèmes d’IA.
La concurrence n’a jamais été aussi vive… Anthropic vient de lancer son modèle Claude en Europe, et OpenAI a multiplié les annonces la veille de votre conférence annuelle consacrée aux développeurs…
Comme Sundar Pichai [le PDG de Google, NDLR] l’a rappelé, nous suivons notre propre rythme et nous raisonnons à long terme. Pour nous, la véritable course est celle où l’on obtient les meilleurs résultats et l’on développe la technologie de manière responsable. Il s’agit de rendre la technologie la plus utile possible pour la société tout en gérant les risques de manière appropriée. C’est cette course-là que nous voulons gagner.
Qu’attendez-vous encore de l’IA ?
L’IA peut accélérer la recherche en génomique, en science des matériaux et en physique. Un grand défi est de voir si l’IA peut résoudre des problèmes scientifiques réputés insolubles ou de créer des théories mathématiques, je trouve cela enthousiasmant !
Entre agents conversationnels, la bataille s’intensifie
Gemini Le polyvalent
Le service d’IA générative et multimodale de Google, spécialisé dans le deep learning, existe en quatre tailles, dont une version Nano qui peut tourner hors-ligne sur les smartphones.
ChatGPT Le créatif
Dévoilé le 13 mai, le nouveau logiciel d’OpenAI a bluffé les usagers par ses capacités. Le chatbot converse et traduit en temps réel, tout en intégrant une dimension émotionnelle dans la voix.
Claude Le littéraire
Claude 3, nouvelle version du chatbot de la société américaine Anthropic, est maintenant accessible en Europe et propose trois modèles de puissance : Haiku, Sonnet et Opus.
LLaMA Le discret
La maison mère de Facebook vient de sortir la version 3 de son modèle linguistique, disponible en deux tailles selon le nombre de paramètres utilisés (jusqu’à 70 milliards) dans ses réponses.
Grok Le rebelle
Développée à l’inititive d’Elon Musk et accessible en France, Grok est une IA générative liée au réseau social X. Assumant un ton décalé, l’outil est disponible en mode « fun » ou « classique ».
Perplexity L’outsider
Le Petit Poucet des IA veut se démarquer des géants du secteur en misant sur une recherche la plus complète possible, scientifiquement crédible et dont les sources sont répertoriées.
Astra : l’assistant ultra personnalisé
Imaginez une IA qui retrouve votre mug, corrige du code informatique inscrit sur un tableau ou encore suggère le prénom d’un doudou… Voici certaines des compétences du Projet Astra, présenté lors de la Google I/O, conférence annuelle réservée à ses développeurs. Ce nouvel agent conversationnel, en langage naturel basé sur Gemini et encore à l’état de prototype, s’appuie sur les vidéos filmées par votre smartphone pour fournir ses réponses.
Et maintenant, le cerveau…
Cartographier les neurones
Connectomics, la branche de Google Research spécialisée dans la cartographie des connexions cérébrales, a généré la reproduction en 3D la plus détaillée à ce jour des synapses et des neurones d’un cerveau humain. Cette structure travaille notamment avec l’Institut Max-Planck et Harvard. À terme, cet outil pourrait aider les chercheurs à mieux appréhender et traiter les troubles neurologiques.
–
Modéliser les protéines
Logiciel d’intelligence artificielle basé sur les outils de deep learning de Google, AlphaFold3 est capable d’annoncer à quoi ressemblera une protéine à partir de sa seule séquence et de dessiner sa structure en 3D. Il peut également prédire la structure et les interactions de la quasi-totalité des molécules. Cet outil est déjà utilisé par certains laboratoires pour accélerer la création de médicaments.