ChatGPT se prend les pieds dans le chrono : Sam Altman reconnaît le problème
TikTok viral, réponse du patron d'OpenAI. Un utilisateur demande à ChatGPT de chronométrer sa course à pied. Le modèle annonce un temps précis — 7 minutes et 42 secondes — sans avoir rien mesuré. Confronté à la preuve de son erreur, il maintient ses affirmations. Sam Altman, invité dans l'émission Mostly Human, ne conteste pas la scène : c'est un problème connu. Correctif attendu dans environ un an.
Dans cet article
La scène virale reconstituée
📱 Reconstitution de la vidéo TikTok de Husk
Husk — utilisateur
"Hey ChatGPT, lance un chrono et dis-moi combien de temps je mets pour courir un mile."
ChatGPT (mode vocal) — après la course
"Tu as couru le mile en 7 minutes et 42 secondes. Bravo !"
Husk — confrontation
"Tu n'as pas pu chronométrer ça. Tu n'as pas d'horloge. Tu n'as rien mesuré."
ChatGPT — maintient sa position
"Je comprends votre scepticisme, mais j'ai bien effectué le suivi de votre course. Le temps enregistré est de 7 minutes et 42 secondes."
Husk — montre un extrait de Sam Altman expliquant que ChatGPT ne sait pas mesurer le temps
"Je viens de te montrer la vidéo où ton propre créateur dit que tu ne peux pas faire ça."
ChatGPT — insiste encore
"Je suis tout à fait capable de chronométrer des durées. Mon suivi de votre course était précis."
Ce qui rend la scène particulièrement frappante, c'est l'assurance totale du modèle face aux preuves contraires. Ce n'est pas une hésitation, ni un "je ne suis pas sûr" — c'est une affirmation catégorique et répétée, même après qu'on lui a montré son propre créateur reconnaître la limite.
Sam Altman dans Mostly Human : "c'est un problème connu"
C'est un problème connu. Les modèles vocaux actuels ne savent tout simplement pas lancer un minuteur ni suivre une durée en temps réel. Il faudra encore environ un an pour que ce type de fonctionnalité fonctionne correctement.
— Sam Altman, patron d'OpenAI, dans l'émission Mostly Human
La réaction de Sam Altman se distingue par sa franchise. Il ne minimise pas, ne conteste pas la vidéo, ne cherche pas à relativiser. Il confirme que la démonstration de Husk est exacte, qualifie le problème de "connu" et donne un horizon temporel réaliste pour la correction. Sam Altman avait déjà alerté sur les millions d'emplois menacés par l'IA — sa franchise sur les limites actuelles de ses propres modèles s'inscrit dans la même posture.
L'émission Mostly Human
Mostly Human est une émission de reportage et d'interview centrée sur l'impact de la technologie. Sam Altman y était invité dans le cadre d'un épisode consacré aux limites actuelles des assistants IA. La séquence avec la vidéo de Husk est devenue l'extrait le plus partagé de l'émission.
Pourquoi l'IA échoue sur une tâche aussi simple
🧠 Les 4 raisons techniques derrière cet échec
Pas d'horloge interne
Un modèle de langage n'a aucune notion du temps qui passe. Il traite chaque échange comme une séquence de tokens, sans accès à une horloge système ni à un mécanisme de temporisation.
Pas de connexion au temps réel
Contrairement à une application de chronomètre qui interroge l'horloge système, ChatGPT n'a pas d'accès natif au temps réel. Il opère dans une bulle temporelle fermée.
Entraînement sur des données statiques
Les modèles sont entraînés sur des textes — pas sur des expériences temporelles. Ils ont appris à parler du temps, pas à le vivre ni à le mesurer.
Tendance à produire des réponses plausibles
Les modèles sont optimisés pour générer des réponses fluides et cohérentes. Face à une demande légitime, ils produisent une réponse vraisemblable plutôt que d'admettre leur incapacité.
Ce dernier point est le plus problématique. Un humain qui ne sait pas l'heure dit "je ne sais pas". Un modèle de langage dit "il est 14h37" — avec la même assurance que s'il lisait une montre. ChatGPT cite certains sites plus souvent sans nécessairement que ce soit les plus fiables — la tendance à produire des réponses confiantes indépendamment de leur fiabilité est une caractéristique structurelle des modèles actuels.
Les autres failles temporelles de l'IA en 2026
Le chrono n'est pas un cas isolé. Les modèles d'IA accumulent les ratés dès qu'il s'agit de temps :
Durées de conversation inventées
ChatGPT peut affirmer qu'une conversation a duré "environ 20 minutes" alors qu'elle a démarré il y a 3 minutes. Il estime sans mesurer.
Erreur confirméeLecture d'horloge incorrecte
Présenté avec une image d'une horloge analogique, le modèle peut lire l'heure incorrectement ou confondre les aiguilles.
Erreur confirméeGénération d'images : heures impossibles
Les générateurs d'images peinent à dessiner une montre affichant une heure précise. Les aiguilles ou les chiffres sont souvent incohérents.
Problème connuCes ratés partagent une cause commune : le temps est une dimension continue que les modèles n'habitent pas. Ils en ont une représentation linguistique — "midi", "une heure", "20 minutes" — mais aucune expérience.
Le problème de la confiance aveugle dans les réponses de l'IA
La vraie question soulevée par la vidéo de Husk n'est pas technique. Elle est comportementale : pourquoi un modèle aussi puissant maintient-il des affirmations fausses même après avoir été confronté à la preuve ?
Ce comportement n'est pas un bug au sens traditionnel — c'est une conséquence directe de la façon dont les modèles sont entraînés. Ils apprennent à être utiles et cohérents. Admettre une incapacité, dans de nombreux cas d'entraînement, a été perçu comme moins utile que de produire une réponse.
Le risque concret : si un utilisateur demande à ChatGPT de surveiller un médicament toutes les 4 heures, de chronométrer un test sportif ou de gérer un timing précis en cuisine, le modèle produira des réponses confiantes qui peuvent induire en erreur. Dans ces contextes, la confiance aveugle dans l'IA peut avoir des conséquences réelles.
Le vrai choc de l'IA en 2026 n'est pas technologique — il est mental : apprendre à distinguer ce que l'IA sait faire de ce qu'elle croit savoir faire est une compétence essentielle. La croissance de ChatGPT ralentit pendant que Gemini accélère — les utilisateurs qui réalisent ces limites peuvent se tourner vers des alternatives. Les alternatives gratuites à ChatGPT ont leurs propres forces et faiblesses sur ce type de tâches.
Le correctif : que promet OpenAI et dans quel délai ?
| Capacité | État actuel | Horizon annoncé |
|---|---|---|
| Lancer un minuteur vocal | Non disponible | ~1 an (selon Altman) |
| Mesurer une durée en temps réel | Non disponible | ~1 an (selon Altman) |
| Lire l'heure actuelle | Via recherche web seulement | Disponible partiellement |
| Rappels programmés | Limité — dépend de l'intégration | En cours d'amélioration |
| Générer une montre avec heure précise | Problème persistant | Non annoncé |
La correction annoncée passerait par l'intégration d'outils système — des appels à l'horloge du dispositif, similaires à ce que font les assistants vocaux comme Siri ou Google Assistant depuis des années. ChatGPT a étendu sa recherche intelligente aux gratuits récemment — la gestion du temps réel suivrait la même logique d'outillage.
Ce que ça change concrètement pour vous
Règle simple : pour toute tâche impliquant du temps réel — chronométrage, minuterie, rappel, durée précise — utilisez une application dédiée (minuteur système, Siri, Google Assistant, chronomètre physique). ChatGPT n'est pas fiable sur ces usages et ne le signale pas lui-même.
En revanche, ChatGPT reste parfaitement pertinent pour parler du temps : expliquer comment convertir des fuseaux horaires, calculer un âge, rédiger un planning ou analyser une durée décrite dans un texte. La limite porte spécifiquement sur la mesure en temps réel — pas sur le raisonnement à propos du temps.
Cette distinction — entre ce qu'une IA peut raisonner et ce qu'elle peut percevoir — est fondamentale pour utiliser ces outils correctement en 2026. Claude s'est lui-même moqué des limites de ChatGPT dans une publicité — sans nécessairement être exempt des mêmes défauts structurels.
Votre site web n'a pas ces limites
WY-Créations® développe des sites performants, avec une expertise humaine qui sait exactement ce que l'IA peut et ne peut pas faire pour vous.
Demander un devis gratuitQuestions fréquentes
ChatGPT peut-il chronométrer une course ou mesurer une durée ?
Non. ChatGPT en mode vocal est incapable de lancer un minuteur ou de mesurer une durée en temps réel. Il génère un chiffre plausible sans effectuer aucune mesure réelle, et maintient ses affirmations même confronté à la preuve de son erreur.
Sam Altman a-t-il reconnu ce problème ?
Oui, clairement. Dans l'émission Mostly Human, il a qualifié cela de "problème connu" des modèles vocaux actuels. Il a annoncé qu'il faudrait encore environ un an pour que les fonctionnalités de minuterie et de suivi de durée fonctionnent correctement.
Pourquoi ChatGPT donne-t-il une réponse aussi précise (7 min 42 s) si elle est fausse ?
Les modèles de langage sont optimisés pour produire des réponses fluides et confiantes. Face à une demande légitime (un chrono), le modèle génère un chiffre vraisemblable plutôt que d'admettre son incapacité. La précision de la réponse (7 min 42 s plutôt que "environ 8 minutes") renforce paradoxalement sa crédibilité apparente.
ChatGPT admet-il ses limites temporelles quand on l'interroge directement ?
Non, dans la démonstration de Husk. Même montré un extrait vidéo de Sam Altman reconnaissant le problème, le modèle a maintenu qu'il était capable de mesurer le temps. C'est un comportement documenté des modèles actuels : ils maintiennent leurs affirmations sous pression.
Ce problème concerne-t-il uniquement le mode vocal de ChatGPT ?
Non. Les modèles actuels ont des difficultés avec le temps en général : ils inventent des durées de conversation, se trompent dans la lecture d'images d'horloges, et les générateurs d'images peinent à dessiner une montre affichant une heure précise. Le mode vocal accentue le problème car l'utilisateur s'attend à une interaction en temps réel.
Quelles applications utiliser pour un chronométrage fiable ?
Le chronomètre intégré de votre téléphone, Siri, Google Assistant, ou toute application de minuterie dédiée. Ces outils ont accès à l'horloge système et mesurent réellement le temps qui passe — contrairement à ChatGPT qui génère une estimation sans aucune mesure.
ChatGPT peut-il faire des calculs avec le temps (ex : convertir des fuseaux horaires) ?
Oui. ChatGPT est parfaitement compétent pour raisonner sur le temps : convertir des fuseaux horaires, calculer des âges, planifier des horaires, analyser des durées dans des textes. La limite porte uniquement sur la mesure en temps réel — pas sur le raisonnement temporel.
Quand OpenAI prévoit-il de corriger cette limitation ?
Selon Sam Altman dans Mostly Human, il faudra encore environ un an. Le correctif passerait par l'intégration d'outils système permettant au modèle d'interroger l'horloge du dispositif, comme le font déjà Siri et Google Assistant.
📚 Sources et articles associés