Le Hollandais Volant

On est mal barré avec les IA génératives…

i
Sur couleur-science, mon blog science : dans les commentaires, on me dit que Bard (l’IA générative de Google) dit quelque chose de contraire à ce que je mets dans mon article.

À moi donc de prendre le temps de dire que Bard dit de la merde.

Mais vous voyez venir le bordel ?

  1. Qui suis-je, moi, ou n’importe qui, n’importe quel prof, face à une IA fabriquée par l’entreprise la plus futuriste de la planète ?
  2. Si on doit désormais prendre le temps à débunker les IA en plus de devoir débunker les conspis (au lieu de passer du temps à faire des vrais trucs), on va pas s’en sortir.
  3. Ces « IA » fonctionnent en lisant des milliards de textes et en recrachant des combinaisons de mots qu’il rencontre le plus souvent dans le champ lexical de la question qu’on lui soumet. C’est pour cette raison que le texte produit semble crédible, est généralement grammaticalement correcte, mais peut être factuellement et totalement faux.

Y a 20 ans, le grand méchant c’était Wikipédia : « Oui, Wikipédia c’est cool et collaboratif, mais parfois y a de la merde. » Quel prof n’a jamais dit ça ? Quel élève n’a jamais entendu ça ?
Et c’est vrai, pourtant, bien que ça ne soit pas pire qu’ailleurs.

J’ai déjà corrigé des pages Wikipédia à la vue d’erreurs. Mais j’ai chez moi un dictionnaire encyclopédique qui dit que la molécule d’eau H20 contient deux atomes d’oxygène pour un atome d’hydrogène (alors que c’est exactement le contraire).
L’erreur est humaine, elle s’est glissée dedans. Soit. Je suppose que ça a été corrigé depuis. Je l’espère.

Tiens, justement : l’erreur est humaine. Sauf qu’une IA, c’est humain ? Non. Voilà un joli paradoxe. On fait quoi ?

Perso je resterais éloigné de ce genre de générateurs de blabla si l’on n’est pas conscient de tout ça. Ce qu’ils produisent, c’est du flan, un truc artistique, pour le fun, mais rien de plus. Ils prennent des mots et des phrases, mélangent tout ça, et ressortent un texte qui se lit mais dont le fond est bancal.

C’est dangereux de considérer de l’art comme de la vérité.

Vous imaginez un alien qui verrait un Picasso, et qui se mettrait à la recherche d’un organisme qui ressemble à ce qu’il a vu ? On ne pourrait pas lui reprocher : après tout, s’il fait ça sur un De Vinci ou un Raphaël, ça marche.
Donc pourquoi pas un Picasso ? S’il a vu les deux premiers et que ça marche, pourquoi penser que ça en serait différent pour le suivant ?

Ben ici, on est exactement en train de faire pareil : on a à faire à un texte créé par un programme qui ne sait absolument pas ce qu’il fait, qui ne fait que mélanger des mots et les ressortir avec des calculs probabilistes. Mais c’est précisément pour cela que le texte final est tout sauf juste.

Et encore… Je ne parle pas des Deep-Fake : ces contenus (textes, photos, vidéos…) volontairement fausses pour faire dire n’importe quoi à n’importe qui avec une crédibilité telle que même les médias les plus sérieux sont enclins à tomber dans le panneau (et là aussi, les médias sérieux doivent passer du temps à débunker ça plutôt que faire leur vrai travail…).

Image d’en-tête produite par Bing AI (ou je sais)