#22746 - Reality Check - AI Photo Detection Game
Un jeu où ils donnent deux photos, et il faut trouver celle produite par IA.
J’ai 70 % sur 20 questions. C’est parfois pas si facile que ça.
Un jeu où ils donnent deux photos, et il faut trouver celle produite par IA.
J’ai 70 % sur 20 questions. C’est parfois pas si facile que ça.
Ah oui, avec toutes les IA de partout, c’est peut-être le moment de ressortir cette chanson, héhé.
Jolie démonstration de la limite des « IA », et surtout qu’il n’y a aucune intelligence dedans. Ce sont juste des statistiques.
Pas plus que les moteurs de recherches (enfin à leur début) classaient par pertinence plus que par une logique probabiliste.
À nous d’apprendre à les comprendre, sans les surestimer mais certainement pas en les sous-estimant.
Je suis d’accord avec ça, mais qu’on arrête de nous dire que ces machines sont intelligentes, si en même temps on nous dit que c’est — à nous utilisateurs — d’être assez intelligent pour comprendre qu’elles ne peuvent pas compter le nombre de lettres dans un mot…
D’ailleurs, je vais arrêter d’employer le terme de « IA », et parler de « LLM ». Déjà parce que c’est plus juste, et ensuite parce que ça éliminera le « I » de « IA » qui n’a pas sa place dans les ChatGPT, Gemini, Claude et autres Gork.
Je ne dis pas que tout est à jeter et que ça ne sert à rien, et je rejoins l’auteur ici pour dire que c’est à nous d’une part d’être vigilent, et d’autre part d’apprendre à s’en servir correctement. Mais franchement, je sais que je sais ça parce que je suis un technophile geek programeur pas trop idiot qui manipule la logique informatique depuis plus l’âge de 15 ans.
La plupart des Michus font des captures d’écran qu’ils collent dans Word, impriment, puis re-scannent et mettent ça en PJ pour l’envoyer à 15 autres Michus dans des chaînes d’e-mail ; ou encore cherchent Orange dans Google Chrome pour rechercher ensuite la Webmail d’Orange dans la barre de recherche Google sur le site d’Orange, pour retrouver un mail envoyé à eux-même avec le lien vers leur GMail.
Ces gens là, on ne va pas leur faire croire que l’IA « vu à la télé » n’est pas intelligente, ou qu’elle peut dire de la merde sur des trucs techniques.
Moquez-vous, et dîtes que je suis condescendant ou élitiste si ça vous chante, mais c’est la vérité, et vous le savez.
Et comptez pas sur moi pour essayer de faire changer leur petites habitudes à ces gens là : je préférerais encore aller crier « Vive l’Ukraine libre » dans la face de Poutine, car moins risqué.
N’est-ce pas parce que toutes les données sources (sondages, etc.) montrent cette différence, que l’IA le ressort à son tour, histoire de coller à ce qu’il « sait » ?
Dans ce sens, ça ne paraît pas surprenant. Pas du tout. L’IA, apprenant de ce qu’il voit, n’est que le reflet de la société.
Il n’a donc absolument aucun sens de vouloir compter sur ces trucs pour améliorer la face du monde sur ces plans là.
Ça serait comme vouloir améliorer n’importe quoi en le plaçant devant un miroir.
Que ça provoque une boucle de rétroaction qui amplifie les différences, oui c’est malheureux, et même dangereux (et qu’il faut le savoir pour pouvoir contrer ça). Mais ça montre simplement que l’IA en question est encore très loin d’être réellement intelligente, et encore moins douée d’une sagesse pouvant améliorer le monde. Le changement ne viendra pas des IA mais de nous. On doit d’abord corriger la réalité, pour que les fables pondues par les IA puissent refléter ces changements.
On ne pourra pas changer la situation en modifiant les IA d’abord et espérer que ça se répercute dans la société. Il faut également — et surtout — faire évoluer la société, si l’on veut que cette situation change pour le mieux.
~
Ah et on ne peut donc pas dire que les IA soient fondamentalement misogynes (sauf à prouver qu’elles aient été programmées pour l’être — chose qu’il est impossible de faire à notre niveau, je me doute, mais ça reste une preuve nécessaire pour les qualifier ainsi).
Et je dis bien « fondamentalement misogynes » : elles sont misogynes de facto parce que le monde l’est et qu’elles regardent le monde, et s’en inspirent. Mais donnez leur un monde égalitaire, et je n’ai aucun doute qu’elles donneront des résultats qui le soient également.
Les sénateurs s’en foutent des droits. Ce qu’ils veulent, c’est le pognon associé.
En ce qui me concerne, je reste sur ça : https://lehollandaisvolant.net/?d=2025/03/13/18/48/59-ia-et-droits-dauteur
Ils veulent utiliser les données de mes sites ? Très bien, mais alors tout ce qu’ils produisent avec finit dans le domaine public. C’est ce que j’exige en retour.
Bien-sûr, comme je dis dans l’article, ce n’est que mon avis et ce ne sont que mes exigences.
Aucune chance toutefois que ça passe, mais le droit promet d’être intéressant (même si on sait tous que ça profitera à quelques acteurs (style Sacem) et pas à nous ; après tout, la Sacem pour les citer vole déjà les droits sur le contenu du domaine public).
intelligence = heuristic * attempt
If your attempts are purely random, you need roughly the size of the search space to find a solution. A heuristic cuts that down significantly. That is essentially what an LLM is.
Claude Code uses the same models provided through the API or the web interface. Yet, users feel a boost in intelligence. The model didn't get smarter but because Claude Code can make several attempts on its own, its overall intelligence increases for the end user.
As LLMs performance plateaus, intelligence can be derived from the second factor. In this regard, AI tools can have value on their own.
Une explication approchée, mais qui me semble se tenir pour ce qui est des LLM/« IA ».
En fait, on a effectivement fabriqué des singes savant : en essayant toutes les combinaisons de code possibles, forcément, à un moment, on va tomber sur le code qui fera ce qu’on lui demande. Et on se dire qu’on est quand-même très fort.
Ici les IA ne sont pas stupides non plus : elles ont des algorithmes statistiques, mais peuvent tout de même faire des millions de tentatives différentes à la suite pour essayer de trouver la meilleure solution, et ça, un ordinateur peut très bien le faire.
Trollol : une parodie débile de ChatGPT :D
Petite BD trouvée en ligne.
C’est un peu ça.
Il en va de même pour les lettres de motivation et les CV. Aujourd’hui tout le monde passe les CV dans les moulinettes des « IA » sans les regarder.
Pire, on en vient à faire de l’optimisation pour que ça passe mieux le filtre des IA : une sorte de SEO. Une AIO, si on peut dire.
Vala. Apple vient de démontrer que les « IA » comme celles derrière ChatGPT et les autres ne sont du tout intelligentes mais ont simplement une énorme mémoire.
Quand on leur pose un problème qu’elles ont déjà rencontré, aucune difficulté pour recracher la logique à appliquer et la réponse.
Mais là ils leur ont posé une question inédite, sous la forme d’un puzzle/mini-jeu et là, le taux de réussite est de 0%, y compris en leur allouant toute la puissance nécessaire.
Et même en leur expliquant pas à pas ce qu’elles doivent faire, elles n’y arrivent pas car elles n’ont pas « appris » à le faire : les systèmes finissent par abandonner la question.
Incapables de réflexion, incapables de s’adapter à un nouveau problème ou de reconnaître des schémas mathématiques à appliquer, incapables d’imaginer des solutions potentielles nouvelles et les tester.
En bref, ce ne sont que des moteurs de recherche un peu plus évolués avec des fonctionnalités spécifiques (parfois pratiques, ne jetons pas tout non plus), mais pas une once d’intelligence derrière.
T’es tranquillement en train de regarder des videos Youtube de la watchlist, quand soudain une vidéo de Jamy, donc un français, balance une horrible voix artificielle en anglais, impossible à désactiver (version Web sur iPhone).
Ces débiles de chez YouTube ont décidé que si tu écoutais des vidéos en anglais, elles doivent tous être en anglais. Donc un peu comme les titres traduits automatiquement, mais là pour l’audio aussi.
Tout ça, probablement, parce que ce sont des connards d’américains à des années-lumière de penser qu’une personne puisse parler et comprendre plusieurs langues. Si ça vous amuse tant, traduisez donc ça : ga vous fuck vous selbst.
Ils font donc comme Microsoft, à faire les choix pour l’utilisateur, peu importe si ça va lui plaire ou non.
Entre ça et l’impossibilité de plus en plus grande de télécharger une vidéo (à cause de l’impossibilité de plus en plus grande de la regarder sereinement parce qu’il y’a désormais autant de pubs qu’à la télé), ça va finir par un boycott total de la plateforme. Si certains créateurs n’étaient pas uniquement là-bas, ça ferait longtemps que je serais parti. 😡
PS : j’utilise divers bloqueurs de pub sur mon iOS, servant essentiellement à Safari, et fonctionnant pas trop mal. Y compris sur Youtube (Web, donc).
Sauf que si sur mobile je dois me taper Jamy en anglais, mais que sur PC, j’ai bien Jamy en français, mais avec des pubs, ça ne me convient pas.
Et hors de question que je paye pour me passer de pub. Si je dois payer, ce que je serais prêt à faire avec Nebula par exemple, c’est pour soutenir les créateurs et avoir un service convenable, pas faire sauter une merdification artificielle. À deux ou trois créateurs près, je passe sur Nebula, mais bon, ça m’agace d’avoir à jongler entre plusieurs applis.
Ma question :
how is the tunnel effet related to the electron capture process?
Sa réponse :
The tunnel effect plays a crucial role in the electron capture process, which is a type of radioactive decay. Here's how they are related:
Electron Capture Explained:
In electron capture, an atomic nucleus absorbs an inner-shell electron, typically from the K or L shell.
This process transforms a proton within the nucleus into a neutron, and a neutrino is emitted.
This is most likely to happen in isotopes that have too many protons compared to neutrons.
The Role of Tunneling:
For the nucleus to capture an electron, the electron's wave function must have a non-zero probability of being found within the nucleus.
However, there's a potential barrier, primarily due to the electrostatic repulsion between the positively charged nucleus and the negatively charged electron.
[…]
Lol.
Et encore, je ne suis pas un expert : je ne vois qu’une seule erreur grossière ici.
Mais si déjà il faut ça pour démêler le vrai du faux, alors imaginez un étudiant ou un moldu complet dans le domaine qui reçoit une réponse et la prend pour agent comptant ?
Et comme j’ai dit par ailleurs : ceux qui posent les questions de façon honnêtes (donc sans l’intention de piéger l’IA), les posent généralement parce qu’ils ne sont pas experts, et ne voient donc pas les problèmes, même les plus évidents.
Hélas, ce sont les mêmes personnes qui viennent ensuite te dire « mé chat-gépétay adi ke ».
Pour info, pour ceux qui ne l’ont pas vu, l’erreur est à la fin :
the electrostatic repulsion between the positively charged nucleus and the negatively charged electron
Ce qui est faux : un noyau positif et un électron négatif, ça ne se repousse pas, mais ça s’attire.
Si tous les électrons ne tombent pas sur le noyau, c’est par des phénomènes quantiques (qui maintiennent l’électron sur dans leur orbitale). Le passage d’un électron dans le noyau reste possible, mais c’est exceptionnel, et c’est une des causes de la radioactivité par capture électronique : un proton et un électron se combinent pour former un neutron et un neutrino.
Humans tend to make mistakes at the edges of our knowledge, our mistakes tend to clump around the same things, we make more of them when bored or tired, and so on. We have as a result developed controls and systems of checks and balances to help reduce the frequency and limit the harm of our mistakes.
But these controls don’t carry over to AI systems, because AI mistakes are pretty strange.
The mistakes of AI models (particularly Large Language Models) happen seemingly randomly and aren’t limited to particular topics or areas of knowledge. Models may unpredictably appear to lack common sense.
Oui : les humains font des erreurs là où s’arrête leurs connaissances ou leur expérience. Faire des erreurs et surtout les corriger, ça permet de repousser constamment cette limite, et donc aussi d’étendre nos connaissances.
L’IA, elle, ses erreurs, surviennent n’importe où, n’importe comment et de façon totalement aléatoire. C’est très étrange et ça rend l’ensemble des productions d’une IA particulièrement fragiles et impossible à utiliser tel qu’elle. Il doit y avoir une équipe humaine intelligente pour vérifier le travail de la machine, ligne par ligne, mot par mot.
Ça rejoint ce que j’ai dit dans mon post sur ChatGPT : c’est pratique pour les choses simples car les erreurs sont peu nombreuses et faciles à corriger. Mais ça interdit l’usage d’une IA pour quelque chose d’aussi fondamental que la recherche, c’est à dire de mettre un pied dans l’inconnu dont on ne connaît pas encore la véracité. Le travail de vérification serait alors au moins aussi important qu’une équipe de chercheurs humains : autrement dit, pour ça, l’IA est inutile (en gros).
Et comme simple exemple d’erreurs à la con d’une IA, on peut citer les freinages fantômes d’une voiture (semi-)autonome. Et encore : le freinage est sans vrai danger pour les occupants (éventuellement la voiture derrière, mais c’est son problème). Un coup de volant fantôme serait en revanche bien plus dramatique.
L’effet ne serait pas différent que d’avoir un singe schizophrène et dément sur les genoux avec une main sur le volant.
Avoir une IA qui se ne trompe pas dans 99 % des cas n’est pas compliquée. Ce qui est compliqué, c’est de passer les 1 % restants. Or ce 1 % restant, c’est ce qui consommera alors 99 % des ressources.
Pour écrire une dissertation de Français au collège 99 % d’exactitude suffisent. Mais pour piloter une voiture, un train ou un avion, une IA ne peut convenir.
Et si les pilotes automatiques existent pour les voitures (niveau 1 ou 2) ou encore les trains (métros) et les avions (AP), ces systèmes sont redondants avec plusieurs calculateurs et capteurs en même temps afin de ne pas faire quelque chose sans être totalement sûr ; ils se désactivent quand ils ne sont pas sûr en redonnant la main à l’humain (voitures ou avions), et surtout sont utilisés sans apprentissage, mais avec des ordres très précis. Les rames de métro totalement autonomes ne réfléchissent pas pour savoir s’ils doivent rouler ou non : tant qu’ils n’ont pas le signal direct qui va bien ils ne bougent pas. Et par signal direct je parle de « tu roules », pas une image qu’ils doivent interpréter comme le font les autopilotes 100 % autonomes des voitures expérimentales (le métro n’interprète pas le signal).
Les bagnoles semi-autonomes de niveau 1 ou 2 n’ont pas d’apprentissage continu. Ils ne savent pas mieux détecter une voiture après 50 000 km qu’au début. Heureusement, car si ça peut s’améliorer, ça peut aussi se dégrader. Ils apprennent des choses, mais pas pour ça.
Les bagnoles avec auto-pilote niveau 3 ou plus surveillent leur environnement et apprennent et c’est une autre histoire, et c’est aussi pour ça qu’ils sont bien plus rares.
Ceux qui critiquent les conduites autonomes en disant que leur décision dans le cas d’un « dilemme du tramway » ne sera jamais totalement éthique, devraient se demander ce qu’ils feraient — eux, humains — dans la même situation.
S’ils en sont incapables ils ne devraient pas critiquer un système autonome pour la même chose.
Ils devraient aussi s’imaginer à expliquer à la famille de la ou des victimes les raisons de leur choix.
Et en toute honnêteté, perso je ne sais pas ce que je ferais dans une telle situation.
Et par expérience, je pense que je n’aurais même pas à choisir. Ce dilemme, dans ce cas des voitures autonomes, se présente en cas d’accident (de la route). Et au cours d’un accident, tout se passe trop vite pour pouvoir faire quoi que ce soit consciemment.
C’est pourtant simple non ?
Être un particulier et créer des petites vidéos sur Youtube avec de la musique des industriels de la culture : pas bien.
Être un industriel et créer des machines à blabla avec du contenu des particuliers : bien.
Bien encore une preuve que le #copyreich est toute relative et surtout une affaire de qui a le plus de pognon.
Super, maintenant même Billy pourra produire des inepties en grand volume directement chez lui…