header-logo

Communication marketing basée sur l'intelligence artificielle

Avis de non-responsabilité : le texte affiché ci-dessous a été traduit automatiquement à partir d'une autre langue à l'aide d'un outil de traduction tiers.


L\’IA, c\’est du pipeau

Aug 11, 2023 5:38 PM ET

Par : Brian D. Wassom

A l\'heure ou nous ecrivons ces lignes, la societe semble se trouver aux alentours de la quatrieme phase de sa relation avec l\'intelligence artificielle generative : elle est encore eprise, mais commence a se degriser suffisamment pour reconnaitre que l\'objet de nos affections n\'est peut-etre pas tout a fait digne de notre confiance. Tous les enthousiastes, a l\'exception des plus ardents, ont fini par comprendre que nous ne pouvons pas tenir pour acquis que tout ce que les applications de l\'IA nous disent est vrai. La chouchoute du moment, ChatGPT, par exemple, ne cache pas qu\'en reponse a nos questions, elle mele avec autant d\'ardeur la realite et la fiction. La description la plus courante de ces elucubrations est celle d\'"hallucination" - un terme anthropomorphisant qui implique que l\'application souhaite reellement etre honnete avec nous, mais qu\'elle est involontairement freinee par une rupture schizophrenique occasionnelle avec la realite.

Dans la mesure ou cette terminologie indique que ChatGPT ne nous ment pas intentionnellement, elle est tout a fait justifiee. Mais dans la mesure ou le terme "hallucination" implique que l\'application dit par ailleurs la verite, il est materiellement trompeur. Bien sur, parler de l\'IA comme s\'il s\'agissait de quelque chose de plus personnel que l\'interaction complexe de 1 et de 0 est notre premiere erreur, et sa propre marque de fiction. Une citation attribuee a Stephen Hawking definit l\'"intelligence" comme "la capacite a s\'adapter au changement". Selon cette definition, les programmes d\'IA agissent de maniere intelligente. Ce qui differencie l\'IA des logiciels ordinaires, c\'est sa capacite a adapter son mode de fonctionnement en fonction du retour d\'information accumule a partir des donnees et des actions anterieures. Nous appelons ces processus "apprentissage automatique" ou "apprentissage profond", et les modeles d\'IA les plus avances sont connus sous le nom de "reseaux neuronaux" - tous ces termes s\'inspirent du mode de fonctionnement de l\'esprit humain.

Mais ces termes sont plus analogiques qu\'exacts. L\'IA n\'est pas - et ne peut pas etre - "intelligente" de la meme maniere qu\'un cerveau humain, car les logiciels n\'ont pas d\'esprit. Le Merriam Webster definit plus precisement le terme "intelligence" comme "la capacite d\'apprendre ou de comprendre", "l\'usage habile de la raison" et "la capacite d\'appliquer des connaissances [...] ou de penser de maniere abstraite". Les machines ne peuvent rien faire de tout cela. Si un programme d\'IA genere des donnees qui correspondent a la realite, c\'est le resultat heureux des efforts de son programmeur humain. Ces programmeurs sont comme des ingenieurs civils qui concoivent un reseau complexe de canalisations souterraines avec suffisamment de precision pour que l\'eau ne coule qu\'a l\'endroit voulu. Mais un programme d\'IA ne sait pas plus qu\'un tuyau qu\'il dit la verite qu\'il distribue l\'eau correctement, car il n\'a pas d\'esprit pour determiner ce qu\'est la realite.

Nous pouvons au moins etre rassures par le fait que l\'IA ne peut pas nous mentir. Un menteur est quelqu\'un qui reconnait la verite et choisit de tromper l\'auditeur en lui faisant croire quelque chose de different. L\'IA ne peut pas "connaitre" la verite, elle ne peut donc pas mentir.

Mais elle ne peut pas non plus "halluciner", a proprement parler ; halluciner, c\'est toujours percevoir une realite, mais pas la realite reelle. Par consequent, si nous devons continuer a parler de l\'IA en termes anthropomorphises, comme cela semble inevitable, nous devrions au moins etre plus precis. En nous bercant d\'une comprehension erronee du fonctionnement du logiciel, nous risquons de mal comprendre ce qu\'il fait pour nous, et donc de passer a cote de ses limites et de ses veritables utilites potentielles. A cette fin, je propose que la maniere la plus precise de decrire les resultats des programmes d\'IA generative soit - pour utiliser l\'abreviation - "BS".

Je ne plaisante pas. Dans un livre paru en 2005, qui est devenu sa publication la plus populaire, le philosophe americain Harry G. Frankfurt, aujourd\'hui age de 94 ans, a entrepris de definir ce terme souvent utilise mais mal compris. Intitule On Bullsh*t, l\'ouvrage affirme que "l\'essence de [la BS] n\'est pas qu\'elle est fausse, mais qu\'elle est bidon". Contrairement au menteur, qui "tente activement de nous eloigner d\'une apprehension correcte de la realite", l\'artiste de la BS "ne se soucie pas de savoir si les choses qu\'il dit decrivent correctement la realite. Il se contente de les choisir, ou de les inventer, pour atteindre son but".

C\'est la description la plus proche que nous puissions faire des conversations de ChatGPT avec nous. La seule difference entre un chatbot et un artiste BS humain est que la personne le fait intentionnellement. L\'IA n\'a aucune intention. Mais cela ne fait que confirmer la description. Comme le dit Frankfurt, "[le BS] est inevitable chaque fois que les circonstances exigent que quelqu\'un parle sans savoir de quoi il parle". Puisque ChatGPT ne peut pas savoir de quoi il parle, il ne peut pas dire autre chose que BS.

C\'est plus facile a voir dans le contexte d\'un chatbot, mais le meme principe s\'applique a toutes les manifestations de l\'IA. D\'autres programmes d\'IA sont connus pour faire des recommandations de traitement medical basees sur des conclusions inexactes tirees de donnees incompletes. Ou des decisions en matiere d\'emploi fondees sur des ensembles de donnees faussees par des discriminations anterieures. Ou d\'identifier des suspects criminels sur la base de donnees de reconnaissance faciale qui lisent plus mal les visages de couleur que les visages blancs. Ou de corriger automatiquement des mots qui transforment un message texte innocent en un faux pas mortifiant.

Aucun de ces resultats n\'etait inevitable, pas plus qu\'ils n\'etaient intrinsequement imputables aux programmes eux-memes. Les inexactitudes des resultats de l\'IA peuvent etre, et seront souvent, reduites par des humains mettant en ouvre un code plus raffine - des tuyaux plus sophistiques pour s\'assurer que l\'eau ne va que la ou elle est censee aller et nulle part ailleurs. Cela dit, une grande partie de l\'emerveillement et de l\'inquietude que suscitent les programmes d\'IA les plus avances tient au fait que leurs auteurs humains ne savent pas comment ils fonctionnent ; l\'IA elle-meme a depuis longtemps reecrit son propre code tant de fois que sa fonction est impenetrable, meme pour ses createurs. Le BS engendre le BS.

Mais cela ne veut pas dire que nous ne devrions pas continuer a developper et a utiliser des applications d\'IA. Au contraire, des personnes brillantes developpent des applications utiles et ethiques de l\'IA. Le pouvoir et l\'utilite de ces inventions ne peuvent etre nies, tant qu\'elles restent des outils concus a cet effet et non des conseillers de confiance. Les solutions d\'IA doivent etre mises en ouvre dans le cadre de garde-fous suffisamment restrictifs pour garantir que le resultat final du programme a suffisamment de chances d\'etre en correlation avec la realite pour etre utile (apres examen et revision par l\'homme) a l\'objectif vise. Les parametres acceptables varient selon le contexte. Et parfois, un peu de BS peut etre une bonne chose - comme lorsque l\'on utilise ChatGPT pour reflechir a la maniere de rendre une reunion interessante, ou que l\'on se fie a Midjourney pour obtenir des images etonnantes et inspirantes, meme si les personnes qu\'elles representent finissent par avoir quelques doigts en plus.

Mais la rapidite de l\'adoption de l\'IA dans pratiquement tous les secteurs economiques a la fois, associee a l\'admiration haletante avec laquelle les vendeurs et les cadres de niveau intermediaire parlent du potentiel de ces applications, reste une source de preoccupation serieuse. Meme si une partie de notre societe sait qu\'il vaut mieux ne pas faire confiance a l\'IA, nous sommes encore beaucoup trop nombreux a nous laisser seduire par ses confidences sur l\'oreiller.

Les outils alimentes par l\'IA seront utiles pour un eventail de plus en plus large d\'applications qui informent et assistent la prise de decision humaine, mais ils doivent toujours etre manies par des humains exercant un jugement independant. "Le [BS artist] ... ne rejette pas l\'autorite de la verite, comme le fait le menteur .... Il n\'y prete aucune attention. En vertu de cela, le [BS] est un plus grand ennemi de la verite que ne l\'est le mensonge", a averti Frankfurt. Dans la mesure ou nous nous permettons, a nous ou a nos entreprises, de nous fier sans esprit critique a l\'IA generative comme source de verite, nous finirons par le regretter.


iCrowdNewswire
Tags:   French, United States, Wire