Et si l’énorme « cerveau » de ChatGPT se comportait parfois comme un gamin qui crie « c’est pas juste !» quand le puzzle ne rentre pas ? Récemment, une illusion d’optique bête et méchante – deux disques rouges entourés de petits ou gros cercles noirs – l’a complètement hypnotisé. Le logiciel jurait que les ronds étaient différents, refusait de se reprendre, même quand on lui montrait la preuve, et renvoyait une explication psy à la pelle. Résultat ? Une hallucination totale, mais quelle leçon ! Mais au-delà du rire, cette histoire nous parle en tant que parents : nos enfants vont côtoyer ces technologies sans défauts, il vaut mieux leur tendre une lampe de poche avant qu’ils ne tombent dans le même trou.
Pourquoi ChatGPT échoue-t-il face à une illusion d’optique ?
Imaginez un voyage organisé où le guide a appris toutes les cartes par cœur sans jamais mettre les pieds sur place. ChatGPT a « vu » des millions d’images, mais il ne « regarde » pas : il compare des étiquettes griffonnées par d’autres humains. Quand l’illusion d’Ebbinghaus se pointe, il repère la formule clé – « petits cercles autour = gros disque central » – et répète la chanson, même si la photo a été retournée.
Les chercheurs parlent d’hallucination multimodale : le programme crée du contenu qu’il n’y a pas, juste pour coller à la chanson apprise. En clair, il raconte une super histoire… mais c’est de la fiction. Pour nous, parents, le message est limpide : derrière les réponses tonitruantes, il n’y a pas toujours un œil, juste un écho. Et c’est notre rôle de montrer à nos petits aventuriers la différence entre l’écho et la preuve.
Une machine qui s’emmêle : la bonne nouvelle camouflée
Souvenez-vous quand votre bichette de 7 ans vous a sorti « Les nuages, c’est coton parce que… ben c’est doux ! » Nos enfants inventent des liens, testent, ratent, recommencent. ChatGPT, lui, ne recommence pas encore : il ajuste un mot, mais ne remet pas sa vision globale en question. C’est là que la limitation devient cadeau : elle prouve que l’intelligence humaine, avec ses doutes et ses « oh attends, je regarde mieux », reste le chef d’orchestre.
Plutôt que de crier au catastrophe, savourons le rappel : personne – ni l’algorithme, ni nous – ne détient la vérité 4K en permanence. La vraie force, c’est l’état d’esprit « question everything » que nous partageons avec nos kids autour de la table ou pendant un goûter à la fraise.
Éveil & (ia)lusions : trois micro-rituels à piquer aux pros
1. L’atelier magicien : imprimez quatre illusions trouvées en ligne. Demandez « Que vois-tu ? », notez, puis montrez la solution avec une règle ou un calque. En révélant le piège, vous montrez que « vrai » se mesure, ne se devine pas.
2. Flip the prompt : proposez une même question à ChatGPT et à votre mini. Comparez les réponses. Quand le robot se trompe, transformez l’erreur en devinette du soir : « Pourquoi le programme a-t-il inventé un chiffre 29 invisible ? » C’est la porte ouverte vers la critique constructrice.
3. Le pari des cinq sens : lors d’une balade à l’extérieur, demandez à votre enfant de décrire un paysage. Ramassez des feuilles, fermez les yeux, touchez, sentez. Soulignez que l’IA n’a pas ces souvenirs odorants – et que c’est là notre super-pouvoir humain.
Oser la co-pilote sans perdre la main
ChatGPT, Bard, Perplexity… ces copilotes peuvent réciter une recette de gaufres en trois secondes, mais ils ne goûteront jamais la pâte. Utilisez-les donc comme faiseurs de pistes, jamais comme GPS infaillibles. Votre fille veut comprendre pourquoi la Lune change de forme ? Lancez la question à l’IA, notez la version, puis observez le ciel pendant trois soirs et redemandez : « Qu’est-ce qu’on aurait ajouté au récit de la machine ? »
Cette habitude – vérifier, enrichir, relativiser – forge le muscle de l’esprit critique. Résultat : vos enfants apprennent à danser avec la technologie sans se laisser entraîner dans la mauvaise mesure.
Et si l’erreur devenait familiale ?
L’hiver, on refait le monde autour d’un chocolat chaud. Pourquoi ne pas créer le « Prix de l’hallucination la plus cocasse » ? Chacun rapporte une réponse farfelue de l’IA, on vote, on raconte, on délire. Gagnant oblige : il invente la prochaine devinette à résoudre ensemble. Le but ? Rire, apprendre, et graver dans la tête des petits que la bêtise n’est jamais très loin – mais qu’elle s’évapore dès qu’on allume la lampe de la curiosité.
Alors, oui, ChatGPT s’est fait bouffer par une illusion toute bête. Et c’est merveilleux : la machine nous rappelle humblement qu’elle n’est qu’une valise bien rangée, tandis que nos enfants sont des aventuriers en vadrouille. Portez-leur la torche, et la route brillera sous leurs pas.
Source : If ChatGPT can be fooled by this simple optical illusion, why should I trust it with anything else?, TechRadar, 2025/09/05 23:00:00