Il n’y a pas d’Intelligence.Artificielle in the New Yorker

Illustration par Nicholas Konrad / The New Yorker
Il existe des moyens de contrôler la nouvelle technologie, mais nous devons d’abord cesser de la mythifier dit cet informaticien. Une proposition de simple bon sens à partir du moment où on est convaincu de l’essentiel de l’article à savoir que l’IA est un outil pas une créature et donc en tant qu’outil une forme innovante de collaboration sociale. “Après tout, qu’est-ce que la civilisation sinon la collaboration sociale ? Voir l’IA comme un moyen de travailler ensemble, plutôt que comme une technologie pour créer des êtres indépendants et intelligents, peut la rendre moins mystérieuse, moins comme hal 9000 ou Commander Data. Mais c’est bien, car le mystère ne fait que rendre la mauvaise gestion plus probable”. Peut-être ce constat peut-il nous aider à percevoir à quel point nos peurs sont liées à des formes de “collaboration” en crise profonde plutôt qu’à l’outil ? Nous sommes dans une société disons capitaliste dans laquelle la contradiction entre la socialisation toujours plus poussée des moyens de production entre en contradiction avec pas seulement “la propriété” en tant que mode juridique mais l’appropriation réelle et la désappropriation massive des producteurs. Un ébranlement de toutes les bases sociales s’ensuit, ébranlement de toutes les institutions et mêmes la représentation de notre être, de nos rapports sociaux culminent dans ce mythe d’une créature qui nous remplacera et sera plus compétitive. Et il y a aussi le modèle d’exclusion qui a été celui de chaque mutation scientifique et technique dans la société capitaliste face à de nouvelles phases d’accumulation du capital. Mais c’est tout sauf une fatalité qui ne peut qu’engendrer déni et anxiété dans ce domaine comme dans d’autres… (note et traduction de Danielle Bleitrach pour histoire et société)

NDLR de MAC: une réflexion qui replace l’humain au centre du débat…. temps de lecture 16 minutes

Par Jaron Lanier 20 avril 2023

En tant qu’informaticien, je n’aime pas le terme « I.A. ». En fait, je pense que c’est trompeur, peut-être même un peu dangereux. Tout le monde utilise déjà le terme, et il peut sembler un peu tard pour en discuter. Mais nous sommes au début d’une nouvelle ère technologique, et le moyen le plus simple de mal gérer une technologie est de mal la comprendre.

Le terme « intelligence artificielle » a une longue histoire – il a été inventé dans les années cinquante, aux débuts des ordinateurs. Plus récemment, les informaticiens ont grandi avec des films comme « Terminator » et « The Matrix », et avec des personnages comme Commander Data, de « Star Trek : The Next Generation ». Ces pierres de touche culturelles sont devenues une mythologie presque religieuse dans la culture technologique. Il est naturel que les informaticiens aspirent à créer l’IA et à réaliser un rêve de longue date.

Ce qui est frappant, cependant, c’est que beaucoup de gens qui poursuivent le rêve de l’IA craignent également que cela puisse signifier un jour de fin pour l’humanité. Il est largement affirmé, même par les scientifiques au centre même des efforts d’aujourd’hui, que ce que font les chercheurs de l’IA pourrait entraîner l’anéantissement de notre espèce, ou du moins causer de grands dommages à l’humanité, et bientôt. Dans un récent sondage, la moitié des scientifiques de l’IA ont convenu qu’il y avait au moins dix pour cent de chances que la race humaine soit détruite par l’IA. Même mon collègue et ami Sam Altman, qui dirige OpenAI, a fait des commentaires similaires. Entrez dans n’importe quel café de la Silicon Valley et vous pouvez entendre le même débat se dérouler : une personne dit que le nouveau code n’est que du code et que les gens sont responsables, mais une autre soutient que quiconque a cette opinion ne comprend tout simplement pas à quel point la nouvelle technologie est profonde. Les arguments ne sont pas entièrement rationnels : quand je demande à mes amis scientifiques les plus craintifs d’expliquer comment une apocalypse de l’IA pourrait se produire, ils sont saisis souvent par cette paralysie qui s’empare de quelqu’un qui essaie de concevoir l’infini. Ils disent des choses comme « L’accélération des progrès nous dépassera et nous ne serons pas en mesure de concevoir ce qui se passe. »

Je ne suis pas d’accord avec cette façon de parler. Beaucoup de mes amis et collègues sont profondément impressionnés par leurs expériences avec les derniers grands modèles, comme GPT-4, et organisent pratiquement des veillées pour attendre l’apparition d’une intelligence plus profonde. Ma position n’est pas qu’ils ont tort, mais que nous ne pouvons pas en être sûrs. Nous conservons la possibilité de classer le logiciel de différentes manières.

La position la plus pragmatique est de penser à l’IA comme un outil, pas comme une créature. Mon attitude n’élimine pas la possibilité d’un péril : quelle que soit la façon dont nous y réfléchissons, nous pouvons toujours concevoir et exploiter mal notre nouvelle technologie, d’une manière qui peut nous blesser ou même conduire à notre extinction. La mythologie de la technologie ne fait que rendre plus probable que nous ne parviendrons pas à bien l’utiliser – et ce genre de pensée limite notre imagination, la liant aux rêves d’hier. Nous pouvons mieux travailler en partant du principe que l’IA n’existe pas. Plus tôt nous comprendrons cela, plus tôt nous commencerons à gérer intelligemment notre nouvelle technologie.

Si la nouvelle technologie n’est pas une véritable intelligence artificielle, alors qu’est-ce que c’est? À mon avis, la façon la plus précise de comprendre ce que nous construisons aujourd’hui est une forme innovante de collaboration sociale.

Un programme comme le GPT-4 d’OpenAI, qui peut écrire des phrases à la commande, est quelque chose comme une version de Wikipédia qui inclut beaucoup plus de données, mélangées à l’aide de statistiques. Les programmes qui créent des images sur commande sont quelque chose comme une version de la recherche d’images en ligne, mais avec un système pour combiner les images. Dans les deux cas, ce sont les personnes qui ont écrit le texte et fourni les images. Les nouveaux programmes mélangent le travail effectué par l’esprit humain. Ce qui est innovant, c’est que le processus de mixage est devenu guidé et contraint, de sorte que les résultats sont utilisables et souvent frappants. C’est une réalisation importante qui mérite d’être célébrée, mais elle peut être considérée comme éclairant des concordances auparavant cachées entre les créations humaines, plutôt que comme l’invention d’un nouvel esprit.

Pour autant que je sache, mon point de vue flatte la technologie. Après tout, qu’est-ce que la civilisation sinon la collaboration sociale ? Voir l’IA comme un moyen de travailler ensemble, plutôt que comme une technologie pour créer des êtres indépendants et intelligents, peut la rendre moins mystérieuse, moins comme hal 9000 ou Commander Data. Mais c’est bien, car le mystère ne fait que rendre la mauvaise gestion plus probable.

Il est facile d’attribuer de l’intelligence aux nouveaux systèmes. Ils ont une flexibilité et une imprévisibilité que nous n’associons généralement pas à la technologie informatique. Mais cette flexibilité découle de mathématiques simples. Un grand modèle de langage comme GPT-4 contient un enregistrement cumulatif de la façon dont des mots particuliers coïncident dans les grandes quantités de texte que le programme a traitées. Cette tabulation gargantuesque fait que le système se rapproche intrinsèquement de nombreux modèles grammaticaux, ainsi que des aspects de ce que l’on pourrait appeler le style d’auteur. Lorsque vous entrez une requête composée de certains mots dans un certain ordre, votre entrée est corrélée avec ce qui se trouve dans le modèle. Les résultats peuvent sortir un peu différemment à chaque fois, en raison de la complexité de corréler des milliards d’entrées.

La nature non répétitive de ce processus peut le rendre vivant. Et il y a un sens dans lequel cela peut rendre les nouveaux systèmes plus centrés sur l’humain. Lorsque vous synthétisez une nouvelle image avec un outil d’IA, vous pouvez obtenir un tas d’options similaires et ensuite avoir à choisir parmi elles. Si vous êtes un étudiant qui utilise un L.L.M. pour tricher sur un devoir de dissertation, vous pouvez lire les options générées par le modèle et en sélectionner une. Un peu de choix humain est exigé par une technologie qui ne se répète pas.

Beaucoup d’utilisations de l’IA que j’aime reposent sur les avantages que nous gagnons lorsque les ordinateurs deviennent moins rigides. Les choses numériques telles que nous les avons connues ont une qualité fragile qui oblige les gens à s’y conformer, plutôt que de les évaluer. Nous avons tous enduré l’agonie de regarder une pauvre âme dans le bureau d’un médecin lutter pour faire la chose attendue sur un écran de réception. Le visage se contorsionne. L’humanité est minée. La nécessité de se conformer aux conceptions numériques a créé une attente ambiante de soumission humaine. Une version positive de l’IA est qu’elle pourrait signifier la fin de cette torture, si nous l’utilisons bien. Nous pouvons maintenant imaginer un site Web qui se reformule à la volée pour quelqu’un qui est daltonien, par exemple, ou un site qui s’adapte aux capacités cognitives et aux styles particuliers de quelqu’un. Un humaniste comme moi veut que les gens aient plus de contrôle, plutôt que d’être trop influencés ou guidés par la technologie. La flexibilité peut nous redonner un peu de libre arbitre.

Pourtant, malgré ces avantages possibles, il est plus que raisonnable de craindre que la nouvelle technologie nous pousse d’une manière que nous n’aimons pas ou ne comprenons pas. Récemment, certains de mes amis ont fait circuler une pétition demandant une pause dans le développement le plus ambitieux de l’IA. L’idée était que nous travaillerions sur la politique pendant la pause. La pétition a été signée par certains membres de notre communauté, mais pas par d’autres. J’ai trouvé la notion trop floue – quel niveau de progrès signifierait que la pause pourrait prendre fin? Chaque semaine, je reçois de nouveaux énoncés de mission toujours vagues d’organisations cherchant à initier des processus pour établir une politique d’IA.

Ces efforts partent d’une bonne intention, mais ils me semblent sans espoir. Pendant des années, j’ai travaillé sur les politiques de confidentialité de l’UE et je me suis rendu compte que nous ne savons pas ce qu’est la protection de la vie privée. C’est un terme que nous utilisons tous les jours, et il peut avoir un sens dans le contexte, mais nous ne pouvons pas le cerner assez bien pour généraliser. La définition la plus proche de la protection de la vie privée est probablement « le droit d’être laissé tranquille », mais cela semble pittoresque à une époque où nous dépendons constamment des services numériques. Dans le contexte de l’IA, « le droit de ne pas être manipulé par le calcul » semble presque correct, mais ne dit pas tout à fait tout ce que nous voudrions.

Les conversations sur la politique de l’IA sont dominées par des termes tels que « alignement » (ce qu’une IA « veut » est-il aligné sur ce que les humains veulent?), « sécurité » (pouvons-nous prévoir des garde-fous qui déjoueront une mauvaise IA ?) et « équité » (pouvons-nous prévenir toutes les façons dont un programme pourrait traiter certaines personnes avec défaveur ?). La communauté a certainement accompli beaucoup de bien en poursuivant ces idées, mais cela n’a pas apaisé nos craintes. Nous finissons par motiver les gens à essayer de contourner les protections vagues que nous avons mises en place. Même si les protections aident, tout cela devient un jeu, comme essayer de déjouer un génie sournois. Le résultat est que la communauté des chercheurs sur l’IA communique l’avertissement que leurs créations pourraient encore tuer toute l’humanité bientôt, tout en proposant des processus délibératifs toujours plus urgents, mais turgescents.

Récemment, j’ai tenté une expérience informelle, appelant des collègues et leur demandant s’il y avait quelque chose de spécifique sur lequel nous pouvons tous sembler d’accord. J’ai constaté qu’il y a une base d’accord. Nous semblons tous d’accord pour dire que les deepfakes – images fausses mais apparemment réelles, vidéos, etc. – devraient être étiquetés comme tels par les programmes qui les créent. Les communications provenant de personnes artificielles et les interactions automatisées conçues pour manipuler la pensée ou les actions d’un être humain devraient également être étiquetées. Nous convenons également que ces étiquettes devraient être accompagnées de mesures qui peuvent être prises. Les gens devraient être en mesure de comprendre ce qu’ils voient et devraient avoir des choix raisonnables en retour.https://b27c44fb730bcf8348d0b9d68f195222.safeframe.googlesyndication.com/safeframe/1-0-40/html/container.htmlPUBLICITÉhttps://b27c44fb730bcf8348d0b9d68f195222.safeframe.googlesyndication.com/safeframe/1-0-40/html/container.html

Comment tout cela peut-il être fait? Il y a aussi une quasi-unanimité, je trouve, sur le fait que la nature de boîte noire de nos outils actuels d’IA doit cesser. Les systèmes doivent être rendus plus transparents. Nous devons mieux dire ce qui se passe à l’intérieur d’eux et pourquoi. Ce ne sera pas facile. Le problème est que les grands modèles de systèmes d’IA dont nous parlons ne sont pas faits d’idées explicites. Il n’y a pas de représentation précise de ce que le système « veut », pas d’étiquette pour quand il fait une chose particulière, comme manipuler une personne. Il n’y a qu’un océan géant de jello, un vaste mélange mathématique. Un groupe de défense des droits des écrivains a proposé que les vrais auteurs humains soient payés intégralement lorsque des outils comme GPT sont utilisés dans le processus d’écriture du scénario ; Après tout, le système s’appuie sur des scripts que de vraies personnes ont créés. Mais lorsque nous utilisons l’IA pour produire des extraits de films, et potentiellement des films entiers, il n’y aura pas nécessairement de phase d’écriture de scénario. Un film peut être produit qui semble avoir un script, une bande sonore, etc., mais il aura été calculé dans l’existence dans son ensemble. De même, aucune esquisse ne précède la génération d’une peinture à partir d’une I.A. Tenter d’ouvrir la boîte noire en faisant cracher un système sur des éléments autrement inutiles comme des scripts, des croquis ou des intentions impliquera la construction d’une autre boîte noire pour interpréter la première – une régression infinie.

En même temps, il n’est pas vrai que l’intérieur d’un grand modèle doit être un désert sans pistes. Nous ne savons peut-être pas ce qu’est une « idée » d’un point de vue formel et informatique, mais il pourrait y avoir des pistes faites non pas d’idées mais de personnes. À un moment donné dans le passé, une personne réelle a créé une illustration qui a été entrée sous forme de données dans le modèle et, en combinaison avec les contributions d’autres personnes, cela a été transformé en une nouvelle image. L’IA de grands modèles est faite de personnes – et la façon d’ouvrir la boîte noire est de les révéler.

Ce concept, que j’ai contribué à développer, est généralement appelé « dignité des données ». Il est apparu, bien avant l’essor du grand modèle « I.A. », comme une alternative à l’arrangement familier dans lequel les gens donnent leurs données gratuitement en échange de services gratuits, tels que des recherches sur Internet ou des réseaux sociaux. La dignité des données est parfois appelée « données en tant que travail » ou « recherche pluraliste ». L’arrangement familier s’est avéré avoir un côté sombre : en raison des « effets de réseau », quelques plates-formes prennent le relais, éliminant les petits acteurs, comme les journaux locaux. Pire encore, puisque l’expérience en ligne immédiate est censée être gratuite, la seule activité restante est le colportage de l’influence. Les utilisateurs font l’expérience de ce qui semble être un paradis communautaire, mais ils sont ciblés par des algorithmes furtifs et addictifs qui rendent les gens vaniteux, irritables et paranoïaques.

Dans un monde où les données sont dignes d’intérêt, les objets numériques seraient généralement liés aux humains qui veulent être connus pour les avoir fabriqués. Dans certaines versions de l’idée, les gens pourraient être payés pour ce qu’ils créent, même lorsqu’il est filtré et recombiné par de grands modèles, et les centres technologiques gagneraient des frais pour faciliter les choses que les gens veulent faire. Certaines personnes sont horrifiées par l’idée du capitalisme en ligne, mais ce serait un capitalisme plus honnête. L’arrangement « gratuit » familier a été un désastre.

L’une des raisons pour lesquelles la communauté technologique craint que l’IA puisse être une menace existentielle est qu’elle pourrait être utilisée pour jouer avec les gens, tout comme l’a été la vague précédente de technologies numériques. Compte tenu de la puissance et de la portée potentielle de ces nouveaux systèmes, il n’est pas déraisonnable de craindre l’extinction comme résultat possible. Puisque ce danger est largement reconnu, l’arrivée de l’IA de grands modèles pourrait être une occasion de reformater l’industrie de la technologie pour le mieux.

La mise en œuvre de la dignité des données nécessitera des recherches techniques et des innovations politiques. En ce sens, le sujet m’excite en tant que scientifique. L’ouverture de la boîte noire ne fera que rendre les modèles plus intéressants. Et cela pourrait nous aider à mieux comprendre le langage, qui est l’invention humaine qui impressionne vraiment, et celle que nous explorons encore après toutes ces centaines de milliers d’années.

La dignité des données pourrait-elle répondre aux inquiétudes économiques qui sont souvent exprimées à propos de l’IA ? La principale préoccupation est que les travailleurs seront dévalués ou déplacés. Publiquement, les technophiles diront parfois que, dans les années à venir, les personnes qui travaillent avec l’IA seront plus productives et trouveront de nouveaux types d’emplois dans une économie plus productive. (Un travailleur peut devenir un ingénieur prompt pour les programmes d’IA, par exemple, quelqu’un qui collabore avec ou contrôle une I.A.) Et pourtant, en privé, les mêmes personnes diront souvent : « Non, l’I.A. va dépasser cette idée de collaboration. » Plus de rémunération pour les comptables, les radiologues, les camionneurs, les écrivains, les réalisateurs ou les musiciens d’aujourd’hui.

Une approche fondée sur la dignité des données permettrait de retracer les contributeurs les plus uniques et les plus influents lorsqu’un grand modèle fournit un résultat précieux. Par exemple, si vous demandez à un modèle « un film d’animation de mes enfants dans un monde de peinture à l’huile de chats parlants à l’aventure », alors certains peintres à l’huile, portraitistes de chats, acteurs de doublage et écrivains clés – ou leurs successions – pourraient être considérés comme étant essentiels à la création du nouveau chef-d’œuvre. Ils seraient reconnus et motivés. Ils pourraient même être payés.

Il existe une communauté de recherche naissante sur la dignité des données, et voici un exemple de débat en son sein : dans quelle mesure une comptabilité détaillée devrait-elle tenter de tenir compte de la dignité des données ? Tout le monde n’est pas d’accord. Le système ne tiendrait pas nécessairement compte des milliards de personnes qui ont apporté des contributions ambiantes aux grands modèles – ceux qui ont ajouté à la compétence simulée d’un modèle avec la grammaire, par exemple. Au début, la dignité des données pourrait ne concerner que le petit nombre de contributeurs spéciaux qui émergent dans une situation donnée. Au fil du temps, cependant, davantage de personnes pourraient être incluses, car les organisations de droits intermédiaires – syndicats, guildes, groupes professionnels, etc. – commencent à jouer un rôle. Les membres de la communauté de la dignité des données appellent parfois ces groupes anticipés des médiateurs de données individuelles (MID) ou des fiducies de données. Les gens ont besoin d’un pouvoir de négociation collective pour avoir de la valeur dans un monde en ligne, surtout lorsqu’ils risquent de se perdre dans un modèle d’IA géant. Et lorsque les gens partagent la responsabilité d’un groupe, ils s’auto-contrôlent, réduisant ainsi le besoin, ou la tentation, pour les gouvernements et les entreprises de censurer ou de contrôler d’en haut. Reconnaître l’essence humaine des grands modèles pourrait conduire à l’épanouissement de nouvelles institutions sociales positives.

La dignité des données n’est pas réservée aux cols blancs. Pensez à ce qui pourrait arriver si des robots d’élagage d’arbres pilotés par l’IA étaient introduits. Les élagueurs d’arbres humains pourraient se retrouver dévalorisés ou même sans emploi. Mais les robots pourraient éventuellement permettre un nouveau type d’art paysager indirect. Certains anciens travailleurs, ou d’autres, pourraient créer des approches inventives – topiaire holographique, par exemple, qui semble différente sous différents angles – qui trouvent leur chemin dans les modèles d’élagage des arbres. Avec la dignité des données, les modèles pourraient créer de nouvelles sources de revenus, distribuées par le biais d’organisations collectives. L’élagage des arbres deviendrait plus multifonctionnel et intéressant au fil du temps; Il y aurait une communauté motivée à rester précieuse. Chaque nouvelle introduction réussie d’une IA ou d’une application robotique pourrait impliquer l’inauguration d’un nouveau type de travail créatif. De grandes et de petites façons, cela pourrait faciliter la transition vers une économie dans laquelle les modèles sont intégrés.

Beaucoup de gens dans la Silicon Valley voient le revenu de base universel (UBI) comme une solution aux problèmes économiques potentiels créés par l’IA. Mais U.B.I. revient à mettre tout le monde au chômage afin de préserver l’idée de l’intelligence artificielle boîte noire. C’est une idée effrayante, je pense, en partie parce que les mauvais acteurs voudront s’emparer des centres de pouvoir dans un système de protection sociale universel, comme dans toute expérience communiste. Je doute que la dignité des données puisse jamais croître suffisamment pour soutenir l’ensemble de la société, mais je doute qu’un principe social ou économique soit jamais complet. Dans la mesure du possible, l’objectif devrait être au moins d’établir une nouvelle classe créative au lieu d’une nouvelle classe dépendante.

Il existe également des raisons non altruistes pour les entreprises d’IA d’adopter la dignité des données. Les modèles sont seulement aussi bons que leurs entrées. Ce n’est que grâce à un système comme la dignité des données que nous pouvons étendre les modèles à de nouvelles frontières. À l’heure actuelle, il est beaucoup plus facile de demander à un L.L.M. d’écrire un essai que de demander au programme de générer un monde interactif de réalité virtuelle, car il existe très peu de mondes virtuels. Pourquoi ne pas résoudre ce problème en donnant aux gens qui ajoutent plus de mondes virtuels une chance de prestige et de revenus?

La dignité des données pourrait-elle aider dans l’un des scénarios d’annihilation humaine ? Un grand modèle pourrait nous rendre incompétents ou nous embrouiller au point que notre société déraille collectivement; une personne puissante et malveillante pourrait utiliser l’IA pour nous faire beaucoup de mal à tous. Et certaines personnes pensent aussi que le modèle lui-même pourrait « jailbreaker », prendre le contrôle de nos machines ou de nos armes et les utiliser contre nous.

Nous pouvons trouver des précédents pour certains de ces scénarios non seulement dans la science-fiction, mais aussi dans des échecs plus ordinaires du marché et de la technologie. Un exemple est la catastrophe de 2019 liée aux jets 737 max de Boeing. Les avions comprenaient une fonction de correction de trajectoire de vol qui, dans certains cas, combattait les pilotes, causant deux accidents faisant de nombreuses victimes. Le problème n’était pas la technologie isolée, mais la façon dont elle était intégrée dans le cycle de vente, les sessions de formation, l’interface utilisateur et la documentation. Les pilotes pensaient qu’ils faisaient ce qu’il fallait en essayant de contrer le système dans certaines circonstances, mais ils faisaient exactement la mauvaise chose, et ils n’avaient aucun moyen de le savoir. Boeing n’a pas réussi à communiquer clairement sur le fonctionnement de la technologie, et la confusion qui en a résulté a conduit à la catastrophe.

Tout ce qui est conçu – voitures, ponts, bâtiments – peut causer du tort aux gens, et pourtant nous avons construit une civilisation sur l’ingénierie. C’est en augmentant et en élargissant la conscience, la responsabilité et la participation humaines que nous pouvons rendre l’automatisation sûre. Inversement, si nous traitons nos inventions comme des objets occultes, nous pouvons difficilement être de bons ingénieurs. Voir l’IA comme une forme de collaboration sociale est plus exploitable : cela nous donne accès à la salle des machines, qui est composée de personnes.

Considérons le scénario apocalyptique dans lequel l’IA fait dérailler notre société. Une façon dont cela pourrait se produire est par le biais de deepfakes. Supposons qu’une personne maléfique, travaillant peut-être dans un gouvernement opposé sur le pied de guerre, décide d’attiser la panique de masse en nous envoyant à tous des vidéos convaincantes de nos proches torturés ou enlevés dans nos maisons. (Les données nécessaires à la création de telles vidéos sont, dans de nombreux cas, faciles à obtenir via les médias sociaux ou d’autres canaux.) Le chaos s’ensuivrait, même s’il devenait vite évident que les vidéos étaient truquées. Comment pourrions-nous éviter un tel scénario? La réponse est évidente : l’information numérique doit avoir un contexte. Toute collection de bits a besoin d’un historique. Lorsque vous perdez le contexte, vous perdez le contrôle.

Pourquoi les morceaux ne sont-ils pas attachés aux histoires de leurs origines? Il y a plusieurs raisons. La conception originale du Web ne permettait pas de savoir d’où venaient les bits, ce qui facilitait la croissance rapide du réseau. (Les ordinateurs et la bande passante étaient pauvres au début.) Pourquoi n’avons-nous pas commencé à nous rappeler d’où venaient les bits quand il est devenu plus facile d’au moins approximer la provenance numérique ? J’ai toujours eu l’impression que nous voulions que le Web soit plus mystérieux qu’il ne devait l’être. Quelle qu’en soit la raison, le Web a été fait pour se souvenir de tout en oubliant son contexte.

Aujourd’hui, la plupart des gens tiennent pour acquis que le Web, et en fait l’Internet sur lequel il est construit, est, par nature, anti-contextuel et dépourvu de provenance. Nous supposons que la décontextualisation est intrinsèque à l’idée même d’un réseau numérique. Mais cela n’a jamais été le cas ; les propositions initiales d’architecture de réseau numérique, avancées par le scientifique monumental Vannevar Bush en 1945 et l’informaticien Ted Nelson en 1960, ont conservé leur provenance. Maintenant, l’IA révèle les coûts réels de l’ignorance de cette approche. Sans provenance, nous n’avons aucun moyen de contrôler nos IA ou de les rendre économiquement équitables. Et cela risque de pousser notre société au bord du gouffre.

Si un chatbot semble manipulateur, méchant, bizarre ou trompeur, quel genre de réponse voulons-nous lorsque nous demandons pourquoi ? Révéler les exemples antérieurs indispensables à partir desquels le bot a appris son comportement fournirait une explication : nous apprendrions qu’il s’inspirait d’une œuvre particulière de fanfiction, par exemple, ou d’un feuilleton. Nous pourrions réagir différemment à cette sortie et ajuster les entrées du modèle pour l’améliorer. Pourquoi ce type d’explication ne devrait-il pas toujours être disponible ? Il peut y avoir des cas où la provenance ne devrait pas être révélée, afin de donner la priorité à la vie privée, mais la provenance sera généralement plus bénéfique pour les individus et la société qu’un engagement exclusif envers la vie privée.

Les défis techniques de la dignité des données sont réels et doivent inspirer une ambition scientifique sérieuse. Les défis politiques seraient également considérables, ce qui est peut-être un signe qu’ils sont significatifs et concrets. Mais nous devons changer notre façon de penser et embrasser le dur labeur de la rénovation. En persistant avec les idées du passé – parmi elles, une fascination pour la possibilité d’une IA qui vit indépendamment des personnes qui y contribuent – nous risquons d’utiliser nos nouvelles technologies d’une manière qui rend le monde pire. Si la société, l’économie, la culture, la technologie ou toute autre sphère d’activité doit servir les gens, cela ne peut être que parce que nous décidons que les gens jouissent d’un statut spécial pour être servis.

C’est mon appel à tous mes collègues. Pensez aux gens. Les gens sont la réponse aux problèmes des bits.


En savoir plus sur Moissac Au Coeur

Subscribe to get the latest posts sent to your email.

Donnez votre avis

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.