Le GPT-5 d’OpenAI a été présenté comme le modèle d’IA le plus avancé de l’entreprise à ce jour, avec des améliorations majeures en termes de précision et de raisonnement. L’un des changements clés soulignés par l’entreprise est une réduction significative des hallucinations, terme utilisé lorsque l’IA produit des informations fausses ou trompeuses. Cette amélioration vise à rendre le modèle plus fiable pour des tâches complexes, qu'il s'agisse de répondre à des questions, d'aider à la recherche ou de générer du contenu créatif.
Le nouveau mode « réflexion » du modèle, combiné à de meilleures données d’entraînement et à des mécanismes de sécurité raffinés, est conçu pour fournir des réponses à la fois plus précises et plus transparentes face à l’incertitude. GPT-5 est également plus susceptible d'admettre qu'il ne sait pas quelque chose au lieu de fournir une réponse sûre mais incorrecte. Ces mises à jour représentent les efforts continus d’OpenAI pour répondre à l’une des plus grandes critiques des modèles d’IA précédents : ils produisent souvent des informations convaincantes mais factuellement incorrectes.
Selon lecarte systèmepour GPT-5, la réduction des hallucinations est mesurable et varie selon les modes :
- Réflexion GPT-5 avec navigation : taux d'hallucinations de 4,5 %
- GPT-5-main : taux d'hallucinations de 9,6 %
- o3 : 12,7 % de taux d'hallucinations
- GPT-4o : taux d'hallucinations de 12,9 %
Malgré ces avancées, GPT-5 n’est pas parfait. Des tests ont montré que même si les taux d'hallucinations ont diminué par rapport au GPT-4o, le modèle peut toujours commettre des erreurs fondamentales. Les exemples incluent des fautes d’orthographe, une mauvaise identification de lieux géographiques et la création de détails qui n’existent pas. Ces erreurs soulignent que, même si la précision s’est améliorée, la capacité du modèle à garantir l’exactitude factuelle reste limitée. Cela signifie que les utilisateurs doivent continuer à vérifier le contenu généré par l’IA avant de s’y fier pour prendre des décisions importantes.
Le lancement de GPT-5 a également suscité un débat sur la manière dont l’IA est présentée au public. Les visuels et le matériel promotionnel utilisés lors de l'annonce ont ensuite été critiqués pour avoir déformé certaines statistiques, ce qui a conduit à des clarifications. Cela a soulevé des questions sur la transparence non seulement dans les réponses de l’IA, mais également dans la manière dont ses capacités sont communiquées.
Les améliorations apportées à GPT-5 marquent un pas en avant pour la fiabilité de l’IA, mais elles rappellent également qu’aucun modèle d’IA n’est parfait. Même avec des taux d’hallucinations réduits, la technologie dépend toujours de modèles de données plutôt que d’une véritable compréhension des faits. Pour les applications dans les domaines de l’éducation, du journalisme, de la santé et d’autres domaines à enjeux élevés, la surveillance humaine reste essentielle.
Plus de lecture :OpenAI fait face à une plainte relative à la confidentialité en Norvège suite aux « hallucinations » diffamatoires de ChatGPT
Dans l’ensemble, GPT-5 se rapproche de l’objectif d’un assistant IA plus fiable, mais la prudence reste de mise. Les points forts du modèle en matière de raisonnement, de créativité et de capacité de conversation sont clairs, mais ses faiblesses le sont également lorsqu’il s’agit de précision factuelle. À mesure que la technologie de l’IA continue d’évoluer, l’équilibre entre fluidité et précision restera au cœur de la conversation.
