L'IA générative commerciale a-t-elle été lancée trop tôt ? Le retour de Demis Hassabis
Le PDG de Google DeepMind, Demis Hassabis, critique le déploiement prématuré de l'IA générative commerciale en 2022, soulignant les risques systémiques et les dérives imprévues pour la recherche fondamentale.

Un lancement précipité qui a bouleversé l'écosystème de l'IA
Lors d'un entretien avec le podcast *Cleo Abram*, Demis Hassabis, PDG de Google DeepMind, a exprimé des regrets quant à la commercialisation accélérée de l'IA générative en 2022. Selon lui, le déploiement de ChatGPT par OpenAI a pris de court l'ensemble du secteur, y compris Google, forçant une réorientation brutale des priorités de recherche. Hassabis souligne que cette accélération a compromis des années de travail collaboratif en recherche fondamentale, notamment dans les domaines de la sécurité et de l'éthique algorithmique.
L'impact de cette décision s'est fait sentir à plusieurs niveaux : d'abord sur la gouvernance des modèles, ensuite sur la transparence des architectures, et enfin sur la course aux performances commerciales. Les équipes de DeepMind, initialement focalisées sur des projets comme AlphaFold ou des collaborations académiques, ont dû adapter leurs infrastructures pour répondre à la demande du marché grand public, avec des conséquences encore difficiles à évaluer.
Les risques systémiques d'une IA générative déployée sans garde-fous
Hassabis met en lumière les dangers d'un déploiement commercial non encadré, notamment en matière de désinformation et de manipulation algorithmique. Les modèles comme ceux d'OpenAI ou de Google (PaLM, Bard) reposent sur des architectures de type *Transformer*, optimisées pour la génération de texte fluide mais peu robustes face aux biais de données ou aux attaques par *prompt injection*. Ces vulnérabilités, connues des chercheurs depuis des années, ont été exposées au grand public sans solutions techniques immédiates.
Un exemple concret : les modèles génératifs actuels, bien que performants en *zero-shot learning* (apprentissage sans données d'entraînement supplémentaires), peinent à garantir la cohérence factuelle ou la neutralité sémantique. Les travaux de DeepMind sur les *safety layers* (couches de sécurité) intégrées aux modèles, comme ceux du projet *Sparrow*, n'ont pas encore abouti à des solutions scalables pour le grand public. Hassabis estime que ces garde-fous auraient dû être déployés avant la mise en production des outils.
L'architecture des modèles génératifs : entre puissance et fragilité
Les modèles d'IA générative reposent sur des architectures *Transformer* massivement parallèles, comme celles décrites dans l'article *Attention Is All You Need* (Vaswani et al., 2017). Ces architectures, optimisées pour le traitement du langage naturel (NLP), utilisent des mécanismes d'*attention* pour pondérer dynamiquement l'importance des mots dans une séquence. Cependant, leur déploiement à grande échelle pose des défis majeurs : consommation énergétique, latence des inférences, et gestion des *hallucinations* (génération de contenus non fondés).
Google DeepMind a développé des variantes comme *Pathways*, une architecture hybride combinant *Transformers* et *diffusion models* pour améliorer la cohérence des réponses. Pourtant, même ces avancées peinent à résoudre le problème des *bias* (biais) intégrés dans les jeux de données d'entraînement, souvent issus de corpus web non filtrés. Hassabis évoque des pistes comme le *reinforcement learning from human feedback* (RLHF) pour atténuer ces biais, mais leur efficacité reste limitée face à la complexité des données réelles.
Les limites des benchmarks actuels et l'illusion de la performance
Les évaluations des modèles génératifs s'appuient sur des benchmarks standardisés comme *MMLU* (Massive Multitask Language Understanding) ou *Big-Bench*, qui mesurent la précision des réponses sur des tâches spécifiques. Pourtant, ces tests ne reflètent pas la réalité des usages grand public : les utilisateurs interagissent avec des modèles via des interfaces conversationnelles, où la pertinence contextuelle prime sur la précision factuelle. Hassabis critique cette approche, soulignant que les benchmarks actuels favorisent les modèles *overfittés* (trop spécialisés) au détriment de la généralisation.
Un autre enjeu technique est la *latence des inférences* : les modèles comme ceux d'OpenAI ou de Google nécessitent des clusters de GPU (NVIDIA A100/H100) pour des temps de réponse acceptables, ce qui limite leur accessibilité aux acteurs sans infrastructure cloud massive. DeepMind a exploré des optimisations comme la *quantification* (réduction de la précision des poids des modèles) ou le *distributed inference*, mais ces techniques introduisent des compromis entre performance et qualité des sorties.
L'impact sur la recherche fondamentale et les collaborations académiques
Avant 2022, Google DeepMind collaborait avec des institutions comme l'Université de Cambridge ou le CERN sur des projets de recherche fondamentale, notamment en physique théorique et en biologie computationnelle. Ces partenariats reposaient sur des modèles ouverts et reproductibles, avec une documentation rigoureuse des architectures. Le virage commercial a entraîné une privatisation partielle des outils, limitant l'accès aux chercheurs externes et réduisant la transparence des pipelines de développement.
Hassabis évoque également le risque de *capture réglementaire* : les géants du numérique, comme Google ou Microsoft, orientent désormais les agendas de recherche vers des applications commerciales plutôt que vers des questions sociétales (éthique, équité, impact environnemental). Les projets comme *DeepMind Ethics & Society* ont vu leur budget réduit au profit de divisions dédiées à l'optimisation des modèles pour le marketing ou les services cloud.
Les alternatives envisagées par DeepMind : vers une IA plus responsable ?
Face à ces constats, DeepMind explore plusieurs pistes pour concilier innovation et responsabilité. L'une d'elles est le développement de *modèles hybrides*, combinant des approches symboliques (basées sur des règles) et neuronales pour améliorer la robustesse des sorties. Une autre piste est l'adoption de *protocoles de vérification* comme ceux proposés par le projet *TruthfulQA*, qui évalue la capacité des modèles à éviter les réponses trompeuses.
Hassabis mentionne aussi l'importance de l'*open science* : DeepMind a récemment publié des travaux sur des architectures comme *RETRO* (Retrieval-Enhanced Transformer), qui intègrent des mécanismes de recherche externe pour réduire les hallucinations. Cependant, ces initiatives restent marginales face à l'ampleur des enjeux commerciaux. Le PDG insiste sur la nécessité d'un cadre réglementaire international, similaire à celui encadrant l'énergie nucléaire, pour éviter une course aux armements technologiques sans garde-fous.
Les leçons pour l'industrie et les régulateurs
Le retour de Hassabis intervient à un moment charnière pour l'industrie de l'IA, où les régulateurs européens (via l'*AI Act*) et américains tentent de définir des règles pour encadrer les systèmes à haut risque. Le PDG de DeepMind plaide pour une approche *gradualiste* : plutôt que de freiner l'innovation, il propose de conditionner le déploiement commercial à des audits indépendants et à des mécanismes de *redressement* en cas de dérive (comme ceux proposés par le *UK AI Safety Institute*).
Un exemple concret est la proposition de DeepMind d'intégrer des *watermarks* (filigranes invisibles) dans les contenus générés par IA, une technique déjà explorée par des startups comme *Watermark AI*. Ces filigranes permettraient de tracer l'origine des contenus et de lutter contre la désinformation, mais leur adoption se heurte à des résistances techniques (coût de calcul) et commerciales (perte de compétitivité).
Conclusion : entre lucidité et ironie technologique
Demis Hassabis, prix Nobel de chimie et figure de proue de l'IA moderne, livre une critique aussi rare qu'indispensable : celle d'un secteur qui a troqué la rigueur scientifique contre le mirage des profits immédiats. Son aveu rappelle étrangement les mises en garde de J. Robert Oppenheimer après Hiroshima – à ceci près que, cette fois, l'arme de destruction massive n'est pas un engin nucléaire, mais une technologie capable de façonner nos esprits à l'échelle planétaire. Ironie du sort : c'est en invoquant la prudence que le patron de DeepMind justifie implicitement l'hégémonie de son propre groupe sur le marché. Peut-être est-ce là le paradoxe ultime de l'IA : plus elle devient puissante, plus elle exige de nous… de la patience.