Geoffrey Hinton (un des parrains de l’IA, prix Turing 2018 avec Yann LeCun et Yoshua Bengio) dit ceci en mai 2023, à la BBC : « Right now, what we’re seeing is things like GPT-4 eclipses a person in the amount of general knowledge it has and it eclipses them by a long way. In terms of reasoning, it’s not as good, but it does already do simple reasoning, » « And given the rate of progress, we expect things to get better quite fast. So we need to worry about that.«
Yoshua Bengio partage à peu près la même inquiétude à l’opposé de Yann LeCun.
Récemment sur X, Geoffrey Hinton résume son opposition à Yann LeCun de la façon suivante : « The central issue on which we disagree is whether LLMs actually understand what they are saying. You think they definitely don’t and I think they probably do. Do you agree that this is the core of our disagreement? » ce à quoi répond (partiellement YLC) : « LLMs obviously have some understanding of what they read and generate. But this understanding is very limited and superficial. Otherwise, they wouldn’t confabulate so much and wouldn’t make mistakes that are contrary to common sense. »
Les LLM (Large Language Model) tels que #ChatGPT comprennent-ils quelque-chose à ce qu’ils lisent et/ou génèrent ? N’est-ce pas leur faire un trop grand honneur de poser cette question ? Entre le perroquet stochastique et une machine qui comprend, n’y a-t-il pas des étapes intermédiaires ?
Yannick MENECEUR dans un articlefort intéressant au sujet de cette querelle et de la régulation de l’#IA propose une autre réflexion :
Leurs positions, même avec leurs divergences, renforcent en réalité la crédibilité de « l’IA » comme étant un outil à même de répondre à la plupart des maux de notre société… mais dont la puissance créé des dangers à la hauteur des performances alléguées.
Or, laissez-moi vous rassurer : même si elles peuvent être instrumentalisées de manière délétère, la statistique et les probabilités ne présentent pas un danger extrême pour l’humanité ! Car « l’IA » à laquelle nous avons affaire reste, pour la simplifier à l’extrême, une grosse machinerie statistique.
Le réel danger, et nos trois chercheurs l’omettent soigneusement, c’est la persistance à surévaluer systématiquement les capacités de systèmes qui restent stupides, artisanaux et fragiles. Contribuer à entretenir l’illusion qu’ils vont pouvoir se substituer progressivement à une prise de décision érudite et experte, résultant d’une longue formation parmi des pairs, relève d’une totale incompréhension de la réalité des objets à l’œuvre, entretenue par un savant marketing de l’industrie numérique.
Je ne vois pas comme lui en l’#IA une « grosse machinerie statistique », je pense que le terme est mal choisi lorsqu’on fait référence à des réseaux de neurones ou des transformers, et si je suis d’accord avec ce qu’il écrit concernant la « prise de décision » je nuancerais toutefois le propos car si l’#IA ne décide pas elle fournit tout au moins parfois une grande part de l’information qui laisse peu de latitude pour ensuite décider (par exemple lorsqu’elle détecte une tumeur avec une meilleure précision que le radiologue).
Par ailleurs, du côté de l’#IA générative , y renoncer c’est choisir de se priver d’un outil spectaculaire pour améliorer notre productivité et même notre créativité.
Le débat pour décider si les LLM comprennentquelque-chose est en fait très mal posé.
La véritable question est de savoir ce qui fait la spécificité de l’humain et ce n’est pas en interrogeant les ingénieurs que nous trouverons la réponse mais c’est en se tournant vers la pathologie spécifiquement humaine. L’aphasique a plus à nous apprendre sur le langage (malgré lui) que ChatGPT.