Les ambitions de la Big Tech américaine semblent sans limites à l’heure où les États-Unis ont porté Trump au pouvoir. En face, l’Europe semble en retard dans un domaine technologique clé, porteur de promesses comme de dangers majeurs.

© Audrey Suslov
Alors que l’intelligence artificielle s’insère à grande vitesse dans notre vie quotidienne, cette nouvelle technologie est peu comprise des usagers comme des responsables politiques. Elle est aujourd’hui largement dominée par les États-Unis et la Chine. Mais l’Europe n’est pas en reste. Des décisions politiques, plus que des investissements massifs, pourraient permettre aux Européens de disputer l’hégémonie américaine à l’heure de la domination des géants de la « Big Tech ».
En tant que scientifiques, comment définissez-vous cette nouvelle technologie appelée « intelligence artificielle » ?
Benjamin Bayart, Ingénieur et cofondateur de la Quadrature du Net
Définir l’intelligence artificielle (IA) en ingénieur n’a que peu d’intérêt. Le public ne voit qu’un fragment : les IA génératives, qui produisent textes, images ou vidéos souvent médiocres hors contexte. Demandez-lui un discours sur les finances publiques, vous aurez une soupe tiède, vaguement cohérente, sans intelligence.
Dans les médias, « IA » est devenue la nouvelle tarte à la crème, comme « algorithme » il y a cinq ans. Un mot fourre-tout qui masque des réalités pourtant intéressantes. Ce qui compte, c’est l’effet social. On n’a pas compris la machine à vapeur en étudiant Watt, mais en observant ses impacts sur les rapports sociaux. L’IA, c’est pareil : la technique compte pour l’usage, pas pour penser la société.
Laurence Devillers, Chercheuse en informatique, autrice de l’IA, ange ou démon ?, éditions du Cerf, 2025
L’IA englobe des algorithmes prédictifs et génératifs. Les chatbots comme ChatGPT, capables de produire du langage, reposent sur l’IA générative et ont un impact réel : certains les considèrent comme des psys, des amis ou assistants ! Le langage reflète une vision du monde. Formées principalement sur des données en anglais, ces IA véhiculent donc une culture anglo-saxonne.
Pourtant, ChatGPT maîtrise le français avec une aisance qui surpasse celle de beaucoup d’entre nous, renforçant l’illusion d’intelligence. L’IA générative fonctionne grâce à des algorithmes d’apprentissage, créant du contenu à partir de milliards de textes, mais sans véritable compréhension ni idées propres, générant des erreurs qu’elle ne peut détecter, appelées hallucinations. Elle produit des résultats incertains, et cette incertitude la rend préoccupante.
Et pourtant, on la confie déjà à des enfants. Je suis pro-technologie, mais la diffuser de cette manière, sans un cadre éducatif approprié permettant de renforcer l’esprit critique, est dangereux.
Alexandre Basquin, en tant que sénateur, que pensez-vous de l’impact de l’IA ?
Alexandre Basquin, Sénateur PCF du Nord
Ce qui m’importe, c’est de voir qui contrôle l’IA aujourd’hui – cela en dit long sur ce qu’elle deviendra demain. Pour l’instant, elle repose sur l’intelligence humaine et la captation massive, souvent le pillage, de données. Meta, par exemple, est interpellé par les auteurs et éditeurs. Nous vivons un choc technologique qui peut devenir un choc de civilisation. L’IA promet autant l’émancipation que l’aliénation. Et qui la dirige ? Google, Meta, Microsoft, OpenAI… Aucun ne cherche le bien commun. L’IA prend clairement la forme que lui dictent les logiques capitalistes.
Certains y voient même un risque existentiel pour l’humanité, qui pourrait se retrouver dépassée et dominée par une « intelligence artificielle générale »… Un fantasme ou un danger réel ?
Benjamin Bayart Pour moi, tout ça relève du fantasme. Mais, en marketing, ça marche : ça fait gonfler une bulle spéculative avec des valorisations boursières délirantes, sans rapport avec les revenus générés ni le business réel. C’est la même logique que la bulle du Web à la fin des années 1990. Cela dit, il y a aussi des usages pertinents, même avec l’IA générative. J’accepterais de m’en servir, par exemple, pour résumer un long article scientifique, sur un sujet que je maîtrise, en trois paragraphes, parce que je peux en évaluer la qualité, repérer les erreurs.
Mais, sans expertise, c’est impossible de savoir si le contenu tient debout. Ce qui compte vraiment, comme le soulignait Alexandre Basquin, c’est la question des rapports de pouvoir. À qui profite l’IA ? Est-ce qu’elle crée de la valeur économique réelle, ou capte-t-elle simplement des investissements qui seraient plus utiles ailleurs ? Derrière les annonces de centaines de milliards investis, une part va dans les infrastructures – comme les data centers –, mais une autre alimente clairement la spéculation.
Laurence Devillers Il est urgent que politiques et investisseurs lèvent le voile sur les systèmes d’IA. Leur fonctionnement doit être compris, car ils ont un pouvoir réel de manipulation, d’endoctrinement et de diffusion de fake news. Il faut analyser les interactions humains-machines et poser des garde-fous éthiques.
L’IA peut être un vrai progrès, notamment en santé et en sciences, à condition de préserver notre libre arbitre. Mon rêve : un monde où l’IA est comprise de tous, et où le pouvoir ne reste pas concentré entre les mains de quelques-uns. Ce n’est pas seulement une question de contrôle, mais de compréhension. C’est l’objet de mon livre l’IA, ange ou démon ? : rendre ces enjeux accessibles à tous.
Alexandre Basquin Il y a des fantasmes autour de l’IA, mais c’est aussi un outil qui peut apporter d’immenses progrès en santé, éducation, connaissances. Le problème, c’est que le manche est tenu par les géants de la Big Tech. Elon Musk a proposé 97 milliards pour racheter OpenAI…
Leur but : capter un maximum de données pour bâtir un modèle économique ultrarentable – et, je le crains, un modèle politique demain. C’est le projet des libertariens, avec une vision du monde à l’opposé de la mienne. Le privé prospère aussi sur les failles de la recherche publique.
Rien de concret n’est sorti du sommet sur l’IA, à part l’annonce de 109 milliards d’euros investis en France… avec des fonds venus du Canada et des Émirats. Cela montre à quel point notre dépendance est extrême. Faute de moyens publics, on n’est même pas en position de réguler.
Aux États-Unis, 500 milliards d’euros vont être consacrés au projet Stargate… Vont-ils renforcer l’hégémonie américaine ?
Laurence Devillers Le marketing autour de l’IA générative aux États-Unis relève du bluff : injecter des milliards ne garantit pas la meilleure IA. L’exemple de DeepSeek-R1, l’équivalent chinois de ChatGPT, montre qu’on peut obtenir des performances similaires à bien moindre coût. La course se joue entre les États-Unis et la Chine, mais l’Europe, elle, peine à exister.
Et pourtant, elle avait lancé Bloom dès l’époque de GPT-3 : un modèle multilingue, soutenu par des milliers de chercheurs publics et privés, financé par le CNRS et le ministère de la Recherche. Mais ce projet a été largement ignoré par les responsables politiques. Le sommet de l’IA à Paris a toutefois amorcé une dynamique : promouvoir une innovation européenne encadrée par une régulation (comme l’AI Act), à contre-courant des logiques de dérégulation américaines.
Benjamin Bayart Je ne crois pas à une hégémonie américaine. L’Europe, et la France en particulier, a un bon niveau technique et scientifique en IA. Nos ingénieurs sont souvent débauchés par les Américains – rarement l’inverse. On a les compétences, mais pas la confiance politique. Beaucoup, comme Cédric O (ancien secrétaire d’État chargé du Numérique), pensent qu’on est incapable d’héberger nos propres infrastructures.
Résultat : des milliards d’argent public filent vers les entreprises américaines, au lieu de soutenir notre propre écosystème. Une recherche qu’on ne finance pas n’a pas lieu. Pourtant, les enjeux sont énormes : économiques, stratégiques, géopolitiques.
Le numérique est un secteur clé qu’on a choisi de ne pas soutenir en France. L’éducation nationale vient encore de signer avec Microsoft, alors que des dizaines d’entreprises françaises pouvaient offrir le même service, pour un budget équivalent. S’il s’agit de construire un avion de chasse, on applique pourtant le raisonnement selon lequel il vaut mieux le faire nous-mêmes pour être indépendants.
Laurence Devillers Malgré les talents que compte la France, nos dirigeants peinent à défendre une voie souveraine en IA. Certains de nos étudiants sont recrutés à l’étranger avant même d’avoir fini leur thèse. L’exemple chinois de DeepSeek prouve qu’on peut rivaliser avec les États-Unis, notamment grâce à une approche open source, essentielle pour comprendre les algorithmes et poursuivre la recherche. Pour développer une IA forte en Europe, nos priorités devraient être claires : former les jeunes, préparer la coopération humains-machines dans le travail, et investir dans la recherche et la science ouverte.
Comment peut-on réagir aujourd’hui en France pour retrouver une forme de souveraineté sur ces technologies ?
Alexandre Basquin Nous sommes pris entre le marteau américain et l’enclume chinoise. Les États-Unis misent sur la puissance de calcul au service des géants de la tech, pendant que l’Europe se met en position de soumission, faute de moyens pour sa recherche. Il faut une régulation internationale forte. L’ONU reste trop silencieuse : intégrer l’IA et le numérique à sa charte serait un pas crucial face aux risques de manipulation de masse.
J’appelle à une désescalade numérique, non pas sur la recherche, mais sur les usages. Mettre ChatGPT dans les mains des enfants n’est pas un progrès. Un moratoire s’impose, comme le demandent plusieurs ONG. L’IA doit se concentrer sur les priorités : santé, éducation, climat. Il est temps de convoquer une COP du numérique.
Benjamin Bayart Je crois peu au succès d’une COP du numérique, comme pour celles sur le climat. Par contre, on dispose d’outils efficaces qu’on n’utilise pas. La commande publique, par exemple, pourrait soutenir nos entreprises, mais on continue à l’orienter vers les géants américains. Que le ministère des Armées achète ses services informatiques à Microsoft, c’est de la folie. On sait pourtant faire des lois utiles.
Le RGPD (règlement général sur la protection des données), appliqué strictement comme le demande la Cour de justice de l’UE, devrait pousser tous les acteurs américains hors du marché européen. Il est incompatible avec le Patriot Act et le Cloud Act. Logiquement, on devrait exclure les Gafam des marchés publics et soutenir nos propres acteurs. Mais rien ne se passe : les Cnil hésitent à sanctionner, et l’Irlande joue le rôle de paradis réglementaire.
Le RGPD autorise pourtant des amendes massives contre les abus sur les données personnelles. Il suffirait de l’appliquer. Quant à la recherche, voir les labos quémander des financements à Google ou Meta est problématique. Je ne suis pas contre les fonds étrangers, mais c’est la baisse du financement public qui pousse les chercheurs à tendre la main. Et ça, on peut le corriger.
Laurence Devillers La recherche industrielle en France ne s’intègre pas suffisamment à la recherche scientifique. Les grandes entreprises technologiques américaines investissent davantage. En tant que chercheurs, nous avançons pour développer des outils innovants, sans nous soucier de savoir si c’est la Chine ou un autre pays qui en bénéficie. C’est aux responsables politiques de comprendre cette réalité et de prendre les mesures qui s’imposent.
Pourquoi des entreprises américaines ne devraient-elles pas payer un montant beaucoup plus conséquent pour une Cifre (convention industrielle de formation par la recherche) que des entreprises françaises, par exemple ? Il est crucial d’avoir des politiques qui soient véritablement conscientes de l’importance de la science, de la valeur des chercheurs en France et du potentiel des outils que nous pouvons concevoir pour renforcer notre souveraineté.
Quel modèle économique devrait adopter un projet européen pour contrer les puissances américaines et chinoises ?
Benjamin Bayart Le modèle américain de la Big Tech est toxique : monopoles, plateformes fermées, sans interopérabilité. Tant que l’entreprise se tient tranquille, ça passe. Mais avec un Musk aux commandes, ça peut déraper. Si l’Europe confie un monopole à une entreprise capitaliste, elle répétera les mêmes erreurs. À l’inverse, des systèmes ouverts et interopérables, avec plusieurs acteurs, offrent une vraie résilience.
Le logiciel libre permet la recherche ouverte et le partage entre public et privé. C’est un bien commun numérique avec une vraie valeur économique, où l’Europe est déjà performante. S’appuyer sur ce modèle, c’est bâtir une alternative crédible et, par la régulation, pousser les Gafam vers la sortie.
Sur le même thème
Laurence Devillers Un vrai mouvement vers l’open source est en cours, et les Chinois l’ont bien compris avec DeepSeek. En misant sur la distillation – reproduire la performance d’un grand modèle dans un plus petit –, ils ont montré qu’on pouvait sortir de la course aux modèles géants pour aller vers des systèmes plus frugaux, moins énergivores.
C’est la preuve qu’une approche open source est pertinente. L’Europe peut suivre cette voie, avec une éthique intégrée dès la conception. Nous avons l’énergie, les compétences, les start-up et les ressources de calcul pour créer une troisième voie d’innovation, tout en maîtrisant les risques sociétaux de l’IA.
Alexandre Basquin On ne peut pas mettre une telle technologie entre quelques mains, que ce soit des monopoles privés ou publics. Si on considère que le numérique est un bien commun, il faut le circonscrire aux sujets de préoccupation majeure en le sortant des logiques capitalistiques.
L’intelligence artificielle peut nous offrir de véritables opportunités. On ne peut donc pas regarder passer les trains. On doit redonner du sens collectif à ce que l’on veut faire du numérique. On ne pourra y arriver qu’avec les gens eux-mêmes, en le rendant plus démocratique. Ça implique de les informer sur les usages que l’on en fait.
En savoir plus sur MAC
Subscribe to get the latest posts sent to your email.