#22792 - LLMs are a failure. A new AI winter is coming.
Perso je ne dirais pas que — techniquement — ça soit un échec.
Y a quand-même certains résultats utiles.
Mais je reste d’accord avec ça :
Transformers must never be used for certain applications – their failure rate is unacceptable for anything that might directly or indirectly harm (or even significantly inconvenience) a human. This means that they should never be used in medicine, for evaluation in school or college, for law enforcement, for tax assessment, or a myriad of other similar cases. It is difficult to spot errors even when you are an expert, so nonexpert users have no chance whatsoever.
… et même avec tout le reste. Sur d’autres plans, c’est loin d’être rose. Et qui plus est, ça reste des modèles qui n’ont AUCUNE intelligence. Les traîter comme s’ils en avaient, c’est ça qui est dangereux. Car on attribue des capacités à quelque chose qui ne les a pas. Un peu comme la politique, en fait : on met sa confiance dans des individus qui promettent de résoudre tous nos problèmes, mais au final ce sont des connards qui ne font que les empirer.
Et comme il dit aussi : sur la recherche d’une vraie intelligence, les LLM ont heurté un nouveau mur. Mais justement : c’en est un nouveau. Pas l’ancien. On a quand-même progressé, et je pense que la méthode de générer des réponses (le côté « LLM » des soi-disants « IA ») servira pour quand il y aura une vraie IA.
Une vraie IA reste une machine. Même si elle sera capable de réflexion, si on veut qu’elle communique avec nous, il faudra qu’elle puisse parler. Et pour ça, le principe des LLM n’est pas perdue pour autant.
Entre temps, il ne pas confondre LLM et IA. C’est clairement pas la même chose.