Outils & IA Par L'équipe Olra

Prompts ChatGPT pour mémoire technique : pourquoi ils ratent

Pourquoi vos prompts ChatGPT pour rédiger un mémoire technique produisent du texte plat : 6 pièges du prompt engineering et 3 exemples qui marchent.

Le problème n'est pas ChatGPT. Le problème est le prompt. Un mémoire technique d'appel d'offres public est l'un des documents les plus contraints qui soit : il répond à une grille pondérée précise, s'ancre dans un chantier spécifique, et doit convaincre une commission d'attribution qui a lu des centaines de dossiers similaires. Un prompt unique ne peut pas capturer toutes ces dimensions. C'est pourquoi la quasi-totalité des sorties ChatGPT brutes sur les mémoires techniques sont exploitables uniquement comme première ébauche — rarement comme version finale.

Ce guide présente les 6 pièges structurels du prompt engineering appliqué aux marchés publics, et 3 exemples de prompts qui produisent des résultats nettement meilleurs que le prompt générique. Pour comprendre les limites de ChatGPT au-delà du prompt, le guide IA et marchés publics : comment l'utiliser sans risques couvre les 5 cas d'usage qui marchent et les 5 qui échouent. Si vous avez déjà utilisé ChatGPT pour un mémoire et cherchez à vérifier le résultat avant envoi, consultez d'abord notre article sur les 5 pièges ChatGPT sur le mémoire technique.

Points clés à retenir
  • Un prompt sans contexte DCE produit un mémoire générique et déconnecté des contraintes du chantier — ce que la commission détecte immédiatement.
  • Demander à ChatGPT d'écrire "tout le mémoire en une fois" sature la fenêtre de contexte et produit un document incohérent et incomplet sur les sections tardives.
  • Sans la grille RC pondérée en entrée, ChatGPT calibre mal la longueur des sections — il sur-investit là où ça ne rapporte pas et sous-investit sur les critères décisifs.
  • L'absence de garde-fou anti-hallucination dans le prompt est la cause principale des références inventées et des certifications inexistantes.
  • Un prompt bien construit (rôle + contexte DCE + grille + contrainte ton + format + garde-fou) réduit de 60 à 70 % le travail de révision — mais ne remplace pas un outil spécialisé sur les marchés complexes.

Le piège du prompt unique

La demande la plus fréquente observée parmi les TPE qui utilisent ChatGPT pour leurs marchés publics est la suivante : "Rédige le mémoire technique pour ce marché." Parfois avec une courte description du chantier, parfois sans rien d'autre.

Le résultat est prévisible : un document de 4 à 6 pages, bien rédigé, structuré en sections logiques, et fondamentalement inutilisable tel quel. Il ne mentionne pas les contraintes spécifiques du CCTP, il ne couvre pas les sous-critères pondérés du RC, il invente des données pour remplir les sections références et moyens, et son ton est celui d'une brochure commerciale, pas d'un dossier de réponse à une commande publique.

La cause racine : un mémoire technique n'est pas un document de communication. C'est une réponse calibrée à une grille d'évaluation. Sans cette grille en entrée, ChatGPT ne peut pas produire un document calibré. C'est une limite de conception, pas de compétence rédactionnelle.

Les 6 pièges du prompt engineering pour les marchés publics

Piège 1 — Le prompt sans contexte DCE

Un mémoire technique doit traiter les contraintes spécifiques du CCTP : présence d'amiante, coordination avec d'autres lots, contraintes de circulation, bâtiment classé, contraintes horaires d'accès, spécifications techniques particulières. ChatGPT ne connaît pas ces contraintes si vous ne les lui avez pas transmises. Il produit une méthodologie générique valable pour n'importe quel chantier — et donc pour aucun en particulier.

Conséquence directe sur la note : -1 à -3 points sur le sous-critère "prise en compte des contraintes du site et du chantier", qui représente fréquemment 10 à 15 % de la valeur technique.

Piège 2 — Pas de grille RC en entrée

Chaque règlement de consultation est unique. La pondération des sous-critères varie d'un marché à l'autre : sur un marché de rénovation patrimoniale, la "méthodologie de protection des ouvrages existants" peut peser 20 % ; sur un marché de construction neuve, elle n'apparaît pas. ChatGPT ne connaît pas la grille spécifique de votre RC. Il produit un mémoire "équilibré" selon ses propres benchmarks — qui ne correspondent pas à la pondération de votre marché.

Résultat statistiquement observé : les sections les plus longues ne correspondent pas aux sous-critères les mieux pondérés. C'est l'une des erreurs les plus coûteuses en termes de note.

Piège 3 — Pas de référentiel entreprise injecté

ChatGPT ne connaît pas votre Qualibat 2111, votre CA 2025, vos 15 chantiers de référence avec attestations, votre politique environnementale, votre flotte matérielle, vos sous-traitants habituels. Sans ces données, il invente. Ou il produit des formulations vagues du type "notre entreprise dispose des ressources humaines et matérielles adaptées" — ce qui ne vaut aucun point sur une grille de notation qui demande un nombre précis d'ouvriers qualifiés et une liste du matériel affecté.

Piège 4 — La demande de "tout le mémoire" en une génération

Un mémoire technique complet fait entre 30 et 80 pages. Les modèles LLM ont une fenêtre de contexte limitée. Demander la rédaction intégrale en une seule requête produit un document dont la cohérence se dégrade progressivement : les premières sections sont correctes, les sections intermédiaires sont plus génériques, les dernières sections sont parfois incohérentes avec ce qui précède ou tronquées. L'outil optimise pour compléter la tâche, pas pour la qualité homogène.

Piège 5 — Pas de contrainte de ton explicite

Le ton par défaut de ChatGPT sur les documents professionnels est corporatif et commercial. Pour un mémoire technique, ce ton est contre-productif : les commissions d'attribution cherchent des affirmations précises, des données vérifiables, une logique d'organisation de chantier. Elles détectent immédiatement les formulations marketing.

Sans instruction explicite sur le ton, vous obtenez : "Notre engagement envers la qualité et la satisfaction client est au cœur de notre démarche." Avec instruction : "Pour la phase de terrassement, 3 opérateurs CAP Maçonnerie seront affectés à temps plein, avec un chef de chantier expérience 12 ans présent sur site quotidiennement."

Piège 6 — Pas de garde-fou anti-hallucination

Sans instruction explicite de ne pas inventer, ChatGPT remplit les sections "références" et "moyens matériels" avec des données plausibles mais inventées : noms de maîtres d'ouvrage, montants de marchés, certifications. Ces éléments passent parfaitement à la lecture. Ils sont détectés par une commission qui vérifie les références — et entraînent l'élimination de la candidature.

Ce garde-fou est la ligne la plus importante de tout prompt sur un mémoire technique. Elle doit être explicite, pas implicite.

Anatomie d'un prompt qui marche

Un prompt efficace pour un mémoire technique contient 6 composantes distinctes. Chacune adresse l'un des pièges listés ci-dessus.

  • Rôle assigné : "Tu es un expert en rédaction de mémoires techniques pour les marchés publics du bâtiment. Tu rédiges des réponses calibrées sur les grilles RC."
  • Contexte DCE : nature des travaux, localisation, contraintes spécifiques extraites du CCTP (liste des 8 à 12 points clés).
  • Grille RC pondérée : sous-critères et pondération exacte extraits du RC (copiez-collez le tableau directement).
  • Référentiel entreprise : certifications, effectifs, matériel affecté, références similaires vérifiées avec montants et maîtres d'ouvrage réels.
  • Contrainte de ton et format : "Ton factuel et technique. Chaque affirmation accompagnée d'un chiffre ou d'une donnée concrète. Pas de formules génériques. Format : [structure demandée avec longueur cible par section]."
  • Garde-fou anti-hallucination : instruction explicite de ne pas inventer (voir encadré ci-dessus).

3 exemples de prompts qui produisent des résultats exploitables

Exemple 1 — Extraction de la grille RC

Objectif : extraire et structurer la grille pondérée d'un RC avant de rédiger.

Prompt à utiliser (après avoir copié-collé le texte du RC dans la conversation) :

"Voici le texte complet du règlement de consultation d'un marché public de [type de travaux]. Extrais et structure la grille de notation de la valeur technique : critères, sous-critères, pondérations numériques, et toute indication sur ce que chaque sous-critère cherche à évaluer. Présente le résultat sous forme de tableau. Si la pondération d'un sous-critère n'est pas explicite, indique-le clairement — ne l'invente pas."

Ce prompt produit un tableau de travail propre que vous injecterez dans tous les prompts suivants. Il ne génère pas de contenu factuel — le risque d'hallucination est nul.

Exemple 2 — Rédaction d'une section méthodologie ciblée

Objectif : rédiger la section méthodologie d'organisation de chantier en réponse directe aux sous-critères RC.

"Rôle : expert en rédaction de mémoires techniques marchés publics BTP.

Contexte DCE : marché de rénovation de façades d'un groupe scolaire de 3 bâtiments, surface totale 2 200 m², présence d'amiante en couche de peinture (phase 3), travaux pendant les vacances scolaires uniquement (3 périodes de 2 semaines), accès pompiers à maintenir en permanence.

Sous-critère RC à couvrir : 'Organisation et planning de chantier — phasage, coordination, sécurité' — pondération 22 % de la valeur technique.

Données entreprise : [insérez vos données réelles : effectifs, matériel, références similaires vérifiées].

Rédige une section de 350 à 450 mots, ton factuel et précis, chaque affirmation accompagnée d'une donnée concrète (nombre de personnes, durée, surface par phase). Pas de formules génériques. IMPORTANT : n'inventez aucune donnée — si une information manque dans ce que je vous fournis, marquez [À COMPLÉTER]."

Exemple 3 — Audit d'une section avant validation

Objectif : vérifier qu'une section rédigée couvre bien les sous-critères RC avant de valider.

"Voici la section 'méthodologie et organisation de chantier' de mon mémoire technique [coller le texte].

Voici les sous-critères du RC que cette section doit couvrir : [coller la grille].

Analyse cette section et pour chaque sous-critère : indique si le texte y répond explicitement, partiellement ou pas du tout. Ne réécris pas la section — produis uniquement un tableau d'analyse avec tes observations et les lacunes à combler."

Ce troisième prompt est un outil de vérification, pas de génération. Il est particulièrement utile avant d'envoyer et complète utilement un audit complet du mémoire technique.

Limites structurelles que le prompt ne résout pas

La fenêtre de contexte sur les DCE volumineux

Les modèles LLM récents (GPT-4o, Claude Sonnet) ont des fenêtres de contexte de 128 000 à 200 000 tokens — soit environ 250 à 400 pages de texte. Un DCE complet (RC + CCTP + CCAP + AE + plans) peut dépasser cette limite, et l'efficacité du modèle décroît sur les passages en fin de contexte. En pratique, injecter l'intégralité d'un DCE de 150 pages dans un prompt coûte cher en tokens et produit des résultats dégradés sur les passages les moins saillants.

Un outil spécialisé marchés publics contourne ce problème via une architecture RAG (Retrieval Augmented Generation) : le DCE est indexé en amont, et seuls les passages pertinents sont injectés dans chaque requête. Résultat : la qualité est homogène quelle que soit la taille du dossier, et le coût par requête est optimisé. C'est la différence architecturale principale entre une utilisation avancée de ChatGPT et un outil conçu pour ce contexte.

L'absence de mémoire entre sessions et entre dossiers

Chaque session ChatGPT repart de zéro. Vos données entreprise, vos références validées, votre profil matériel — vous devez les réinjecter à chaque dossier. Sur 4 à 6 marchés par mois, le temps de préparation des prompts peut dépasser le temps que vous économisez sur la rédaction. Un outil spécialisé stocke ce profil entreprise une fois et l'injecte automatiquement dans chaque génération.

La traçabilité vers le DCE source

Un prompt avancé réduit les hallucinations — il ne les élimine pas. Sur les affirmations concernant les contraintes du CCTP ou les clauses du CCAP, vous ne pouvez pas vérifier en un coup d'oeil si ChatGPT a bien ancré sa réponse dans le texte source ou s'il a interpolé. Un outil spécialisé avec architecture RAG trace chaque paragraphe vers le passage du DCE dont il est issu — la traçabilité est explicite, pas implicite.

Synthèse : prompt avancé vs outil spécialisé

Capacité Prompt avancé ChatGPT Outil spécialisé marchés publics
Ingestion DCE complet Partielle — dégradation sur long contexte Complète via architecture RAG
Grille RC pondérée Sur injection manuelle dans le prompt Extraite et appliquée automatiquement
Profil entreprise Réinjection manuelle à chaque session Stocké et injecté automatiquement
Traçabilité des sources Sur instruction explicite, partielle Automatique — chaque paragraphe sourcé
Garde-fou anti-hallucination Instruction dans le prompt — efficace à 80-90 % Structurel — travaille sur les faits fournis
Temps de préparation par dossier 20 à 35 minutes (construction prompt) 5 à 10 minutes (validation brief)
Conformité RGPD Plan Enterprise requis pour DPA Selon outil — vérifier hébergement UE et DPA

Pour comprendre les 7 limites structurelles de ChatGPT sur l'ensemble du processus AO — au-delà de la rédaction du mémoire — l'article IA et marchés publics : comment l'utiliser sans risques présente une analyse complète des cas d'usage avec et sans outil spécialisé.

Quand un prompt avancé suffit — et quand passer à un outil

Un prompt bien construit selon l'anatomie décrite ci-dessus suffit si :

  • Vous répondez à 1 à 2 marchés par mois et pouvez prendre le temps de construire vos prompts manuellement.
  • Le DCE fait moins de 60 pages et peut être fourni en contexte complet.
  • Le marché ne dépasse pas 150 000 € et une relecture humaine complémentaire n'est pas rentable.
  • Vous avez déjà constitué un fichier entreprise structuré que vous réinjectez systématiquement.

Un outil spécialisé devient plus pertinent si :

  • Vous répondez à 4 marchés ou plus par mois — le temps de construction des prompts dépasse les gains.
  • Le DCE dépasse 80 pages et l'injection complète dégrade la qualité des résultats.
  • Vous visez des marchés complexes (multi-lots, patrimonial, ERP) où la traçabilité des affirmations est un enjeu.
  • Vous avez besoin d'un rapport de couverture des sous-critères auditable avant envoi.

Pour explorer les fonctionnalités spécifiques d'un outil conçu pour ce contexte, consultez la page rédaction de mémoire technique par IA. Pour une vue complète du processus d'automatisation, le guide automatiser la réponse aux AO pour TPE et PME détaille les 6 étapes et le ROI chiffré par profil.

Pour votre prochain DCE, essayez Olra gratuitement et comparez directement la qualité de sortie avec votre prompt actuel — les 3 premières analyses sont sans engagement.

Questions fréquentes

Quelle longueur doit avoir un prompt pour un mémoire technique de marché public ? +

Un prompt efficace pour une section de mémoire technique fait entre 300 et 800 mots : rôle (2 lignes), contexte DCE (8 à 12 contraintes clés), grille RC pondérée (tableau), données entreprise (certifications, effectifs, références réelles), instructions de ton et format, garde-fou anti-hallucination. Un prompt plus court produit systématiquement du contenu générique. Un prompt trop long dégrade la précision sur les instructions spécifiques.

ChatGPT peut-il générer la section "références similaires" d'un mémoire technique ? +

Non sans données réelles de votre part. La section références est la zone la plus exposée aux hallucinations : ChatGPT invente des noms de maîtres d'ouvrage, des montants plausibles, des délais cohérents. Utilisez ChatGPT uniquement pour reformuler des références que vous lui avez fournies sous forme brute (chantier X, MOA Y, montant Z, délai W, prestations V). Ne demandez jamais à ChatGPT de compléter des données manquantes dans cette section.

Quelle est la différence entre un prompt ChatGPT et un outil IA spécialisé marchés publics ? +

Un prompt ChatGPT travaille sur le contexte que vous lui injectez manuellement à chaque session. Un outil spécialisé indexe le DCE complet en amont (architecture RAG), stocke votre profil entreprise de façon persistante, et trace chaque affirmation vers sa source dans le dossier. La différence visible : traçabilité des sources, cohérence sur les DCE de 150+ pages, absence de réinjection manuelle à chaque dossier.

Comment éviter les formules génériques dans une sortie ChatGPT pour un mémoire ? +

Deux instructions explicites dans le prompt : (1) "Aucune formule générique du type 'savoir-faire reconnu', 'engagement qualité', 'expertise éprouvée'. Chaque affirmation doit être accompagnée d'un chiffre, d'un exemple concret ou d'une référence au chantier." (2) "Si vous ne disposez pas de données concrètes pour étayer une affirmation, marquez [À COMPLÉTER] plutôt que de généraliser." Relisez ensuite chaque paragraphe : une phrase sans donnée chiffrable est une formule creuse à remplacer.

Peut-on utiliser les prompts décrits avec d'autres modèles que ChatGPT (Claude, Gemini) ? +

Oui. Les 6 composantes d'un prompt efficace (rôle, contexte, grille, données entreprise, ton, garde-fou) fonctionnent sur tous les modèles LLM récents. Les différences portent sur la gestion de la longueur de contexte (Claude et Gemini ont des fenêtres plus grandes que GPT-4o) et sur la tendance à halluciner (variable selon les modèles et les versions). Les gardes-fous explicites restent nécessaires sur tous les modèles.