Outils & IA Par L'équipe Olra

ChatGPT et appels d'offres publics : 7 limites clés

ChatGPT pour répondre à un appel d'offres public ? 7 limites structurelles qui font perdre des marchés : contexte, hallucinations, RGPD, sources.

ChatGPT est un outil remarquable pour beaucoup de tâches rédactionnelles. Pour les appels d'offres publics, c'est un outil utile dans un périmètre précis — et dangereux en dehors. Les 7 limites décrites dans cet article ne sont pas des critiques passagères : ce sont des contraintes architecturales des LLMs généralistes qui s'appliquent en 2026 et ne seront pas corrigées par une simple mise à jour du modèle. Les connaître vous permet d'utiliser ChatGPT là où il apporte de la valeur, et d'identifier là où vous avez besoin d'une autre approche.

Pour une vue complète des cas d'usage IA dans la commande publique — ce qui fonctionne et ce qui ne fonctionne pas — consultez le guide de référence IA et marchés publics : comment l'utiliser sans hallucinations ni risques. Si vous avez déjà utilisé ChatGPT pour un mémoire technique, l'article 5 pièges ChatGPT sur le mémoire technique détaille les erreurs les plus fréquentes et leurs contournements.

Points clés à retenir
  • Un CCTP de 80 pages dépasse la fenêtre de contexte effective de ChatGPT — les contraintes du site mentionnées en milieu de document sont souvent ignorées dans la rédaction du mémoire.
  • Les hallucinations factuelles (références inventées, certifications inexistantes, montants plausibles mais faux) sont la cause la plus fréquente d'élimination de candidatures IA non vérifiées.
  • ChatGPT ne connaît pas les grilles RC de vos marchés spécifiques — chaque RC est unique, et l'outil ne peut pas calibrer sa rédaction sur des critères qu'il n'a pas vus.
  • Soumettre un DCE confidentiel à ChatGPT.com sans plan entreprise peut enfreindre le RGPD et les clauses de confidentialité du marché.
  • Le manque de cohérence multi-documents (mémoire + DPGF + planning) est une source fréquente d'anomalies détectées par les commissions d'attribution sur les marchés complexes.

Pourquoi ces limites importent pour les marchés publics

Les limites des LLMs généralistes sont connues dans l'industrie. Ce qui est moins documenté, c'est leur impact spécifique sur le contexte très particulier des appels d'offres publics français. Un mémoire technique n'est pas un texte libre — c'est une réponse structurée à une grille d'évaluation précise, construite sur un dossier de plusieurs centaines de pages, avec des obligations légales de véracité et de cohérence avec les pièces administratives. Chacune des 7 limites ci-dessous se traduit en risque concret sur votre note ou votre candidature.

Ce classement n'est pas anti-IA. L'objectif est de délimiter précisément le périmètre utile de ChatGPT — et de montrer pour chaque limite ce qui permet de la contourner ou la compenser.

Limite 1 — La fenêtre de contexte face aux DCE volumineux

Ce qu'est cette limite : les LLMs traitent le texte dans une "fenêtre de contexte" — la quantité d'information disponible simultanément lors d'une génération. GPT-4o dispose d'une fenêtre de 128 000 tokens (environ 250 pages). En théorie, cela devrait suffire pour un DCE de 100 pages.

Pourquoi ça ne suffit pas en pratique : la capacité d'attention effective du modèle n'est pas uniforme sur toute la fenêtre. Des études (notamment "Lost in the Middle", Liu et al., Stanford 2023) montrent que les LLMs sont significativement moins fiables sur les informations situées au milieu de longs contextes. Une contrainte critique du CCTP mentionnée à la page 47 d'un document de 80 pages a une probabilité non nulle d'être ignorée dans la rédaction du mémoire.

Conséquence : votre méthodologie ne traite pas l'amiantage signalé page 43 du CCTP, ou ignore la coordination imposée avec le lot plomberie décrite page 61. La commission détecte que vous n'avez pas lu le dossier en entier — c'est une pénalité immédiate sur le sous-critère "prise en compte des contraintes du site".

Contournement : lisez le DCE manuellement et constituez une liste structurée des 10 à 15 contraintes clés. Injectez cette liste dans le prompt plutôt que le DCE brut. Pour une méthode de lecture rapide, consultez notre guide analyse DCE en 5 étapes.

Limite 2 — Les hallucinations factuelles

Ce qu'est cette limite : les LLMs "complètent" les informations manquantes avec des données statistiquement plausibles plutôt que d'admettre qu'ils ne les ont pas. Sur un mémoire technique, cela produit des références de chantier avec des maîtres d'ouvrage plausibles mais inventés, des certifications vraisemblables mais inexistantes, des montants de marchés dans la bonne fourchette mais faux.

Exemple réel de sortie ChatGPT sans garde-fou :

"Notre entreprise a réalisé en 2024 la réhabilitation des logements du bailleur social Habitat 47 à Agen, pour un montant de 385 000 € HT, délai 16 semaines, réception sans réserve."

Si ce chantier n'existe pas dans vos références, c'est une fausse déclaration dans un dossier de marchés publics — avec des conséquences allant de la déqualification au recours pour fraude à la commande publique.

Conséquence : une commission qui vérifie les références (fréquent sur les marchés supérieurs à 300 000 €) détecte l'anomalie. Élimination immédiate. Sur les marchés à fort enjeu, ce risque est éliminatoire.

Contournement : instruction explicite dans chaque prompt de ne jamais inventer de données factuelles, avec l'instruction de marquer [À COMPLÉTER] pour les données manquantes. Ne soumettez jamais la section "références" à ChatGPT sans lui fournir vos vraies données sous forme structurée. Voir les détails dans notre article prompt ChatGPT mémoire technique : les 6 pièges.

Limite 3 — L'ignorance des grilles RC spécifiques

Ce qu'est cette limite : chaque règlement de consultation est unique. La pondération des sous-critères varie d'un marché à l'autre, d'un acheteur à l'autre, d'un secteur à l'autre. ChatGPT n'a pas accès au RC de votre marché sauf si vous le lui fournissez explicitement. Et même avec le RC en contexte, il ne calibre pas automatiquement la longueur de chaque section sur sa pondération.

Conséquence : un mémoire ChatGPT non guidé produit un document "équilibré" selon les benchmarks généraux du modèle — pas selon la pondération de votre RC. Si la méthodologie pèse 30 % et l'environnement pèse 5 %, un mémoire ChatGPT peut consacrer des proportions similaires aux deux. Résultat : 2 à 3 points perdus sur les critères décisifs par sous-investissement rédactionnel.

Contournement : copiez-collez le tableau de pondération du RC dans chaque prompt et demandez explicitement à ChatGPT de calibrer la longueur de chaque section proportionnellement à son poids. Vérifiez ensuite manuellement que la section la plus longue correspond au critère le mieux pondéré.

Limite 4 — La confidentialité et le RGPD

Ce qu'est cette limite : l'interface grand public ChatGPT.com (sans plan Teams ou Enterprise) ne fournit pas de Data Processing Agreement (DPA) conforme au RGPD. Les conversations peuvent être utilisées pour l'entraînement du modèle sauf opt-out explicite. OpenAI est une entreprise américaine ; les transferts de données hors UE requièrent une base légale.

Cas concrets où cela pose problème :

  • Un DCE de réhabilitation d'EHPAD contient des données sur les résidents (nombre de personnes dépendantes, organisation des soins). Soumettre ces données à ChatGPT.com constitue potentiellement une violation du RGPD.
  • Un DCE classifié confidentiel ou portant sur des infrastructures sensibles (réseau électrique, bâtiment administratif sécurisé) peut explicitement interdire la communication des informations à des tiers, y compris des outils SaaS étrangers.
  • Votre propre dossier administratif (DC2, référence chantiers avec données financières) contient des données sensibles sur votre entreprise.

Conséquence : risque légal direct si vous traitez des données personnelles ou classifiées via ChatGPT.com. Risque contractuel si le DCE contient une clause de confidentialité des informations du marché.

Contournement : utilisez le plan Teams ou Enterprise d'OpenAI (qui inclut un DPA), ou un outil avec hébergement en France ou dans l'UE. Vérifiez les clauses de confidentialité du DCE avant de soumettre quoi que ce soit à un service externe. Pour les DCE sensibles, un outil avec engagement contractuel de non-utilisation des données pour l'entraînement est un prérequis.

Limite 5 — L'absence de sources tracées

Ce qu'est cette limite : ChatGPT génère du texte sans indiquer d'où proviennent les informations. Sur une sortie de rédaction libre, cela n'est pas un problème. Sur un mémoire technique, chaque affirmation sur le chantier doit être traçable vers une source : le CCTP (contraintes techniques), votre profil entreprise (références, certifications), ou votre propre analyse (méthodologie).

Conséquence : vous ne pouvez pas vérifier rapidement si une affirmation dans la sortie ChatGPT est ancré dans le DCE ou interpolée. La vérification manuelle de chaque élément factuel prend autant de temps que la rédaction originale — ce qui annule une partie du gain.

Contournement : demandez à ChatGPT de citer explicitement la source de chaque affirmation factuellement importante entre crochets [source : CCTP p.X / données entreprise / à compléter]. Cela ralentit légèrement la génération et allonge le texte, mais rend la révision beaucoup plus rapide. Un outil RAG spécialisé trace chaque paragraphe automatiquement — sans instruction supplémentaire.

Limite 6 — L'incohérence multi-documents

Ce qu'est cette limite : un dossier de réponse à un marché public comprend plusieurs documents interdépendants : le mémoire technique, le DPGF ou BPU (décomposition du prix), le planning, le DC4 (sous-traitance), parfois un PPSPS simplifié. Ces documents doivent être cohérents : les effectifs annoncés dans le mémoire doivent correspondre aux coûts de main-d'œuvre du DPGF ; les délais du planning doivent correspondre à la méthodologie phasée du mémoire.

Conséquence : ChatGPT génère des documents indépendamment. Il n'a pas de vue sur la cohérence entre le mémoire rédigé lors de la session 1 et le DPGF rédigé lors de la session 2. Une commission attentive détecte qu'un mémoire annonce 4 compagnons sur le chantier pendant 12 semaines, mais que le DPGF valorise seulement 6 semaines de main-d'œuvre. C'est une anomalie qui fragilise la candidature.

Contournement : conservez un tableau de cohérence inter-documents que vous maintenez manuellement : effectifs × durées, sous-traitants déclarés, certifications citées. Vérifiez la cohérence entre chaque document avant assemblage. Sur les marchés complexes, un outil spécialisé qui gère plusieurs documents en parallèle réduit structurellement ce risque.

Limite 7 — L'absence de mémoire entre sessions

Ce qu'est cette limite : chaque session ChatGPT repart de zéro. Le modèle ne retient pas votre profil entreprise, vos références validées, votre matériel, vos certifications, vos sous-traitants habituels. Vous devez réinjecter ces informations à chaque dossier — et si vous oubliez un élément, il n'apparaît pas dans le mémoire produit.

Conséquence : sur 4 à 6 marchés par mois, la constitution du contexte à réinjecter prend 20 à 30 minutes par dossier. Multiplié sur l'année, c'est l'équivalent d'une à deux journées de travail. Et les oublis (une certification non mentionnée, un sous-traitant clé omis) dégradent la qualité des mémoires sans que vous vous en rendiez compte systématiquement.

Contournement : constituez un "fichier contexte entreprise" de 2 à 3 pages, structuré et maintenu à jour (effectifs, certifications avec numéros, 15 références validées avec montants réels, matériel principal, sous-traitants avec domaines et Qualibat). Copiez-collez ce fichier en début de chaque session. Un outil spécialisé stocke ce profil nativement et l'injecte automatiquement.

Tableau synthétique — limites, conséquences, contournements

Limite Impact sur la candidature Contournement
Fenêtre de contexte Contraintes CCTP manquantes, -2 à -4 pts Liste manuelle des 10-15 contraintes clés
Hallucinations Élimination si référence vérifiée Garde-fou anti-hallucination dans le prompt
Ignorance grille RC Sections mal calibrées, -2 à -3 pts RC pondéré injecté + calibration explicite
RGPD / confidentialité Risque légal et contractuel Plan Enterprise ou outil UE avec DPA
Pas de sources tracées Révision longue, risque d'erreur non détectée Sources demandées explicitement dans le prompt
Incohérence multi-docs Anomalies détectées par la commission Tableau de cohérence inter-documents manuel
Pas de mémoire entre sessions Oublis sur certifications, références, matériel Fichier contexte entreprise réinjecté

Ce que ChatGPT fait bien — les cas d'usage qui restent valides

Ces 7 limites ne signifient pas que ChatGPT est inutile sur les marchés publics. Les cas d'usage suivants restent efficaces :

  • Reformulation d'un paragraphe maladroit que vous avez rédigé vous-même — le contenu est le vôtre, ChatGPT améliore la forme.
  • Génération d'un premier plan de mémoire à partir de la grille RC — structure à retravailler, pas version finale.
  • Correction grammaticale et orthographique sur une section rédigée manuellement.
  • Extraction et structuration de la grille RC à partir du texte du règlement de consultation copié-collé.
  • Synthèse des contraintes CCTP à partir de vos notes de lecture, pas à partir du CCTP brut en entier.

La règle d'usage saine : ChatGPT améliore et structure du contenu que vous avez produit. Il ne remplace pas l'analyse du DCE, la connaissance de votre entreprise, ou la logique de calibration d'un mémoire sur une grille de notation. Pour les entreprises qui répondent à plusieurs marchés par mois, explorer les fonctionnalités d'un outil spécialisé — notamment la génération de brief DCE en 2 minutes — est l'étape logique après avoir maîtrisé les prompts avancés. Notre guide IA et marchés publics : comment l'utiliser efficacement détaille la roadmap d'adoption par niveau de maturité.

Pour automatiser la totalité de votre processus de réponse aux AO au-delà de la rédaction, consultez le guide automatiser la réponse aux AO pour TPE et PME. Pour tester la différence sur votre prochain DCE, créez un compte Olra gratuitement — les 3 premières analyses sont sans engagement. Pour un comparatif structuré sur 10 dimensions entre ChatGPT et un outil dédié, consultez notre article Apell vs ChatGPT pour les marchés publics.

Questions fréquentes

ChatGPT peut-il lire un DCE complet de 100 pages sans perte d'information ? +

Non de façon fiable. Même avec une fenêtre de contexte de 128 000 tokens (GPT-4o), les recherches montrent que les informations situées au milieu de longs contextes sont moins bien retenues que celles en début et fin de document. Un DCE de 100 pages soumis en intégralité produit des résultats dégradés sur les contraintes CCTP situées dans la partie centrale. Un outil RAG spécialisé contourne ce problème en indexant le document et en ne chargeant que les passages pertinents.

Est-il légal de soumettre un DCE public à ChatGPT ? +

Généralement oui pour les DCE ne contenant pas de données personnelles et sans clause de confidentialité explicite. La plupart des DCE publics sont des documents accessibles librement. En revanche, dès que le DCE contient des données à caractère personnel (noms d'agents, données sur des usagers) ou une clause de confidentialité, l'utilisation de ChatGPT.com sans plan Enterprise pose un problème RGPD et potentiellement contractuel. Vérifiez systématiquement les clauses du DCE avant soumission.

Comment vérifier qu'une sortie ChatGPT ne contient pas d'hallucinations sur un mémoire ? +

Vérifiez systématiquement chaque élément factuel de la sortie : noms de maîtres d'ouvrage, montants de marchés, dates, certifications, normes citées, références à des organismes. Croisez avec vos sources réelles. Toute information que vous n'avez pas fournie explicitement dans le prompt est potentiellement hallucinée. Sur les sections références et moyens, ne faites confiance à aucun chiffre que vous n'avez pas vous-même injecté.

Un outil IA spécialisé marchés publics résout-il ces 7 limites ? +

Pour la plupart d'entre elles, oui. L'architecture RAG résout la limite de contexte et la traçabilité des sources. Le profil entreprise persistant résout l'absence de mémoire entre sessions. La cohérence multi-documents est gérée nativement. Le RGPD dépend de l'outil : vérifiez l'hébergement (France ou UE) et la disponibilité d'un DPA. L'hallucination est structurellement réduite (travail sur les données fournies) mais pas éliminée à 100 % — une vérification humaine finale reste recommandée.

ChatGPT peut-il aider à répondre aux questions des acheteurs après remise du dossier ? +

Pour reformuler ou structurer une réponse écrite à une demande de précision d'un acheteur, ChatGPT peut être utile. Pour répondre à des questions sur les dispositions techniques ou contractuelles du dossier, il faut lui fournir le contexte complet des pièces concernées — sans quoi il risque d'interpoler. Sur les questions relatives au CCAP ou aux clauses contractuelles, une vérification juridique reste nécessaire. ChatGPT n'est pas qualifié pour l'interprétation du code de la commande publique.