Embaucher des développeurs ChatGPT : Guide d'intégration OpenAI API pour 2026
Si vous lisez ceci, vous avez probablement dépassé la phase "utilisons simplement ChatGPT dans un onglet de navigateur". Vous voulez une véritable intégration -- des GPTs personnalisés intégrés à votre produit, du function calling qui fait réellement des choses, des pipelines d'embedding qui rendent vos données consultables de manière magique. Le problème ? Trouver des développeurs qui comprennent véritablement l'écosystème OpenAI est plus difficile qu'il n'y paraît. La plupart des "développeurs IA" sur les plateformes freelance ont construit un wrapper autour du endpoint chat completions et ont appelé cela terminé.
J'ai passé les deux dernières années à intégrer des fonctionnalités alimentées par l'IA dans des applications de production, et j'ai observé cet espace évoluer à un rythme qui étourdit même les développeurs chevronnés. Ce guide couvre tout : ce qu'il faut chercher chez un développeur ChatGPT, ce que le travail coûte réellement en 2026, la différence entre quelqu'un qui peut appeler une API et quelqu'un qui peut concevoir une architecture de système IA, et quand vous devez embaucher par rapport à l'outsourcing.
Table des matières
- Ce que le développement ChatGPT signifie réellement en 2026
- Compétences clés à rechercher
- Plongée profonde dans l'intégration OpenAI API
- Custom GPTs vs Assistants API
- Function Calling et Tool Use
- Fine-Tuning : Quand et Pourquoi
- Pipelines d'Embedding et Architecture RAG
- Prompt Engineering comme discipline réelle
- Ce que cela coûte en 2026
- Embaucher vs Outsourcer : Prendre la décision
- Signaux d'alerte lors de l'évaluation des développeurs
- FAQ

Ce que le développement ChatGPT signifie réellement en 2026
L'écosystème OpenAI a considérablement mûri. Nous ne parlons plus d'un seul endpoint API. Voici à quoi ressemble le paysage :
- Chat Completions API (GPT-4o, GPT-4.5, o3-mini) -- le moteur de génération de texte fondamental
- Assistants API v2 -- conversations avec état, filées avec outils intégrés
- Custom GPTs -- agents sans code/low-code dans l'interface ChatGPT
- Function Calling / Tool Use -- permettre aux modèles de déclencher des actions réelles dans vos systèmes
- Fine-Tuning -- entraînement de modèles sur vos données et style spécifiques
- Embeddings API -- représentations vectorielles pour la recherche et la récupération
- Realtime API -- voix et streaming pour les interfaces conversationnelles
- Batch API -- traitement à haut volume avec 50% de réduction de coûts
- Responses API -- la nouvelle API unifiée remplaçant certains modèles Assistants
Un "développeur ChatGPT" en 2026 doit comprendre quand utiliser quelle partie. L'erreur la plus courante que je vois ? Les entreprises utilisant l'API Assistants quand de simples chat completions avec function calling seraient plus rapides, moins chers et plus fiables. Ou construire un pipeline RAG complexe quand le fine-tuning résoudrait le problème en une fraction du temps.
Le développeur que vous embauchez doit penser architecturalement, pas seulement écrire des appels API.
Compétences clés à rechercher
Voici ma ventilation honnête de ce qui sépare un développeur OpenAI compétent de quelqu'un qui a regardé un tutoriel YouTube :
Compétences techniques indispensables
- Bases solides en Python ou TypeScript -- la plupart des intégrations OpenAI sont construites dans l'une de ces deux langues. Les kits SDK officiels sont excellents dans les deux.
- Expérience en conception d'API -- ils construiront un middleware entre OpenAI et votre application. Ils doivent comprendre la limitation de débit, la logique de nouvelle tentative, la gestion des erreurs et le streaming.
- Économie des tokens -- ils devraient pouvoir estimer les coûts avant de construire. Si ils ne peuvent pas expliquer la différence entre les tarifs des tokens d'entrée et de sortie, partez.
- Prompt engineering -- pas seulement "écrire un bon prompt" mais le prompting structuré, la conception du message système, les exemples few-shot et les modèles chain-of-thought.
- Expérience des bases de données vectorielles -- Pinecone, Weaviate, Qdrant, pgvector ou Chroma. Si ils construisent quelque chose avec récupération, c'est non-négociable.
Compétences appréciables
- Expérience avec LangChain, LlamaIndex ou Vercel AI SDK
- Compréhension des autres fournisseurs de LLM (Anthropic Claude, Google Gemini) pour les stratégies de secours
- Expérience frontend pour construire des interfaces de chat -- bonus s'ils connaissent Next.js ou Astro (nous faisons beaucoup de ce type de travail dans notre pratique de développement Next.js)
- Bases MLOps -- surveillance, évaluation, A/B testing des prompts
- Mentalité de sécurité -- prévention des injections de prompt, gestion des PII, filtrage de sortie
L'esprit d'architecture
C'est la chose la plus difficile à tester. Un excellent développeur ChatGPT posera des questions comme :
- "Quelle est votre latence acceptable pour les réponses ?"
- "Quelle importance a la précision par rapport à la vitesse ici ?"
- "Que se passe-t-il quand le modèle hallucine -- quel est l'impact ?"
- "Pouvons-nous utiliser des réponses en cache pour les requêtes communes ?"
- "Devrions-nous utiliser des sorties structurées ici au lieu d'analyser du texte libre ?"
Si quelqu'un se jette directement dans le code sans poser ces questions, il va construire quelque chose qui fonctionne dans les démos et se casse en production.
Plongée profonde dans l'intégration OpenAI API
Parlons de ce qu'est le travail d'intégration réel. Voici une architecture typique pour une intégration ChatGPT de production :
// Chat completions basique avec sortie structurée -- le pain et le beurre
import OpenAI from 'openai';
import { z } from 'zod';
import { zodResponseFormat } from 'openai/helpers/zod';
const client = new OpenAI();
const ProductRecommendation = z.object({
products: z.array(z.object({
name: z.string(),
reason: z.string(),
confidence: z.number().min(0).max(1),
})),
followUpQuestion: z.string().optional(),
});
async function getRecommendations(userQuery: string, context: string) {
const response = await client.chat.completions.create({
model: 'gpt-4o-2025-06-01',
messages: [
{
role: 'system',
content: `You are a product recommendation engine. Use the provided catalog context to suggest relevant products. Be honest about confidence levels.`
},
{
role: 'user',
content: `Context: ${context}\n\nQuery: ${userQuery}`
}
],
response_format: zodResponseFormat(ProductRecommendation, 'recommendation'),
temperature: 0.3,
});
return ProductRecommendation.parse(
JSON.parse(response.choices[0].message.content!)
);
}
C'est la version la plus simple. Le code de production a besoin de :
- Logique de nouvelle tentative avec backoff exponentiel pour les limites de débit (erreurs 429)
- Gestion des délais d'expiration -- GPT-4o peut prendre 5-15 secondes sur des prompts complexes
- Suivi des coûts -- enregistrer l'utilisation des tokens par requête
- Modèles de secours -- si GPT-4o est lent, basculer vers GPT-4o-mini
- Mise en cache -- les requêtes identiques doivent toucher un cache, pas l'API
- Streaming -- pour le chat orienté utilisateur, vous avez besoin d'événements server-sent
Un développeur qui comprend tout cela vaut beaucoup plus que quelqu'un qui ne connaît que la syntaxe de l'API.

Custom GPTs vs Assistants API
C'est l'un des domaines de confusion les plus courants. Laissez-moi clarifier :
| Fonctionnalité | Custom GPTs | Assistants API | |---------|------------|----------------|| | Où cela s'exécute | Interface ChatGPT | Votre propre application | | Qui l'utilise | Utilisateurs ChatGPT Plus/Team/Enterprise | Vos utilisateurs finaux via votre UI | | Code requis | Minimal (config + actions) | Implémentation complète | | Fils de conversation persistants | Oui (gérés par ChatGPT) | Oui (vous gérez via API) | | Gestion des fichiers | Téléchargement/recherche intégrés | Code Interpreter + File Search tools | | Actions personnalisées | Webhooks de spec OpenAPI | Function calling dans votre code | | Modèle de coûts | Inclus dans l'abonnement ChatGPT | Tarification par token d'API | | Idéal pour | Outils internes, prototypage | Produits orientés clients | | Marque | Marque ChatGPT | Votre marque |
Voici ma règle empirique : Les Custom GPTs sont pour l'utilisation interne et le prototypage. L'API Assistants (ou Responses API) est pour tout ce qui est orienté client.
Cela dit, en 2026, OpenAI promeut l'API Responses comme successeur à la fois des APIs Chat Completions et Assistants pour de nombreux cas d'usage. Un bon développeur doit savoir quand chacun a du sens.
Function Calling et Tool Use
Le function calling est là où les choses deviennent véritablement puissantes. Au lieu que le modèle génère simplement du texte, il peut décider d'appeler des fonctions dans votre système -- interroger une base de données, envoyer un email, créer une commande, vérifier l'inventaire.
# Exemple de function calling en Python
import openai
import json
tools = [
{
"type": "function",
"function": {
"name": "check_inventory",
"description": "Check current inventory levels for a product",
"parameters": {
"type": "object",
"properties": {
"product_id": {
"type": "string",
"description": "The product SKU or ID"
},
"warehouse": {
"type": "string",
"enum": ["east", "west", "central"],
"description": "Which warehouse to check"
}
},
"required": ["product_id"]
}
}
}
]
response = client.chat.completions.create(
model="gpt-4o",
messages=messages,
tools=tools,
tool_choice="auto"
)
# Le modèle décide quand appeler les fonctions en fonction de la conversation
Les parties délicates qui séparent les bons développeurs des excellents :
- Appels de fonction parallèles -- GPT-4o peut demander plusieurs appels de fonction à la fois. Votre code doit gérer cela.
- Boucles d'appels de fonction -- parfois le modèle a besoin d'appeler une fonction, d'obtenir le résultat, puis d'appeler une autre. Vous avez besoin d'une boucle avec une garde d'itération maximale.
- Retour d'erreur -- quand une fonction échoue, renvoyer cette erreur au modèle afin qu'il puisse s'ajuster.
- Sécurité -- ne laissez jamais le modèle construire du SQL brut ou exécuter du code arbitraire. Validez chaque appel de fonction.
Fine-Tuning : Quand et Pourquoi
Le fine-tuning est la partie la plus mal comprise de l'écosystème OpenAI. Voici la vérité : la plupart des projets n'ont pas besoin de fine-tuning.
Le fine-tuning a du sens quand :
- Vous avez besoin d'un formatage de sortie cohérent que le prompt engineering ne peut pas atteindre
- Vous voulez réduire l'utilisation des tokens en enseignant au modèle des modèles au lieu de montrer des exemples à chaque fois
- Vous avez un ton ou un style spécifique que le prompting few-shot ne nail pas
- Vous avez besoin d'une inférence plus rapide (les modèles fine-tunés peuvent être plus efficaces)
Le fine-tuning N'aide PAS quand :
- Vous avez besoin que le modèle connaisse vos données spécifiques (utilisez RAG à la place)
- Vous voulez "enseigner" au modèle de nouveaux faits (ce n'est pas bon pour cela)
- Votre ensemble de données est petit (vous avez besoin de centaines à milliers d'exemples minimum)
En 2026, les coûts de fine-tuning pour GPT-4o-mini commencent à environ $3.00 par 1M tokens d'entraînement, avec une inférence à une prime modeste par rapport à la tarification du modèle de base. Le fine-tuning GPT-4o est plus cher à environ $25.00 par 1M tokens d'entraînement.
Un développeur qui recommande le fine-tuning comme première étape n'est probablement pas assez expérimenté. L'ordre devrait être : prompt engineering → RAG → fine-tuning → fine-tuning + RAG.
Pipelines d'Embedding et Architecture RAG
Retrieval-Augmented Generation (RAG) est le modèle de production pour la plupart des applications IA de production. L'idée est simple : au lieu d'espérer que le modèle connaît vos données, vous recherchez d'abord les informations pertinentes et les incluez dans le prompt.
Un pipeline RAG de production ressemble à ceci :
- Ingestion -- fragmentez vos documents, générez des embeddings via
text-embedding-3-large, stockez dans une base de données vectorielle - Traitement des requêtes -- prenez la question de l'utilisateur, générez un embedding, recherchez des chunks similaires
- Assemblage du contexte -- combinez les chunks récupérés avec la question de l'utilisateur dans un prompt
- Génération -- envoyez à GPT-4o pour une réponse
- Citation -- créez un lien vers les documents sources
Le diable est dans les détails. La stratégie de fragmentation seule peut faire ou défaire votre système. Fragmenter trop petit et vous perdez le contexte. Fragmenter trop grand et vous diluez la pertinence. Le chevauchement compte. Le filtrage des métadonnées compte.
En 2026, text-embedding-3-large coûte $0.00013 par 1K tokens -- incroyablement bon marché. La partie coûteuse est l'hébergement de la base de données vectorielle et le temps d'ingénierie pour bien faire la fragmentation et la récupération.
Si vous construisez un système RAG qui se nourrit d'une application web, le frontend compte aussi. Nous en avons construit plusieurs avec des architectures headless -- en utilisant Astro pour les sites riches en contenu avec recherche IA, et Next.js pour les applications plus interactives. La partie intégration de CMS headless est souvent sous-estimée car votre source de contenu doit alimenter à la fois le site web et le pipeline d'embedding.
Prompt Engineering comme discipline réelle
Je vais être direct : le prompt engineering est une véritable compétence, mais c'est aussi sur-hyped comme carrière autonome. Ce que vous voulez vraiment, c'est un développeur qui est aussi excellent en prompt engineering.
Les modèles qui comptent en production :
- Architecture du message système -- prompts système structurés avec des sections claires pour le rôle, les contraintes, le format de sortie et les exemples
- Exemples few-shot -- des paires input/output soigneusement sélectionnées qui guident le comportement du modèle
- Chain-of-thought -- demander au modèle de raisonner étape par étape avant de répondre (critique pour o3-mini et les modèles de raisonnement)
- Sorties structurées -- utiliser le schéma JSON ou la validation Zod pour garantir le format de sortie
- Versioning des prompts -- traiter les prompts comme du code avec contrôle de version, tests A/B et possibilité de rollback
- Frameworks d'évaluation -- tests automatisés des changements de prompt contre un ensemble de données gold
Les meilleurs développeurs avec lesquels j'ai travaillé maintiennent une librairie de prompts avec des suites de test. Quand ils modifient un prompt, ils le testent contre 50+ cas de test pour vérifier les régressions. C'est le niveau de rigueur que vous devriez attendre.
Ce que cela coûte en 2026
Parlons de nombres réels. À la fois pour embaucher des développeurs et pour les coûts de l'API eux-mêmes.
Coûts des développeurs
| Modèle d'embauche | Gamme de coûts (2026) | Idéal pour |
|---|---|---|
| Freelance (Upwork/Toptal) | $75 - $200/hr | Projets à court terme, prototypes |
| Embauche à temps plein (États-Unis) | $140K - $220K/year | Produit principal avec IA au centre |
| Embauche à temps plein (LATAM) | $60K - $110K/year | Conscient du budget, long terme |
| Embauche à temps plein (Europe de l'Est) | $55K - $100K/year | Pools de talent techniques solides |
| Agence/consultance | $150 - $350/hr | Intégrations complexes, architecture |
| Équipe offshore | $30 - $70/hr | Travail à haut volume, bien scoped |
Coûts OpenAI API (à partir de mi-2026)
| Modèle | Entrée (par 1M tokens) | Sortie (par 1M tokens) | Notes |
|---|---|---|---|
| GPT-4o | $2.50 | $10.00 | Meilleur polyvalent |
| GPT-4o-mini | $0.15 | $0.60 | Excellent pour haut volume |
| GPT-4.5 Preview | $75.00 | $150.00 | Cher mais qualité la plus élevée |
| o3-mini | $1.10 | $4.40 | Meilleur pour tâches de raisonnement |
| text-embedding-3-large | $0.13 par 1M | -- | Génération d'embedding |
| text-embedding-3-small | $0.02 par 1M | -- | Embeddings économiques |
Coûts typiques des projets
- Intégration simple de chatbot: $5K - $15K (2-4 semaines)
- Système RAG avec données personnalisées: $15K - $50K (4-8 semaines)
- Système multi-agents avec function calling: $30K - $80K (6-12 semaines)
- Modèle fine-tuné + pipeline de production: $20K - $60K (4-10 semaines)
- Fonctionnalité produit complète alimentée par IA: $50K - $150K+ (8-20 semaines)
Ces gammes supposent des développeurs expérimentés. Moins cher n'est pas mieux ici -- un système IA mal architecturé peut facilement coûter 10x en frais d'API par rapport à celui bien conçu.
Embaucher vs Outsourcer : Prendre la décision
C'est la question qu'on me pose le plus. Voici mon cadre :
Embauchez en interne quand :
- L'IA est au cœur de votre produit (pas seulement une fonctionnalité)
- Vous avez besoin d'itération et d'amélioration continues
- Vous traitez des données sensibles qui ne peuvent pas quitter votre organisation
- Vous pouvez vous permettre un salaire de $150K+ plus avantages
- Vous pouvez vous permettre une période de ramp-up de 2-3 mois
Outsourcez à une agence quand :
- Vous avez besoin d'expédier rapidement (semaines, pas mois)
- Le projet a une portée et un point d'arrivée définis
- Vous avez besoin d'expertise en architecture que vous n'avez pas en interne
- Vous voulez prototyper avant de vous engager pour une embauche à temps plein
- L'IA est une fonctionnalité de votre produit, pas le produit lui-même
Utilisez les freelancers quand :
- Vous avez une tâche très spécifique et scoped
- Vous avez un leadership technique en interne pour examiner leur travail
- Le budget est serré mais vous avez besoin de connaissances spécialisées
- Vous avez besoin d'augmenter temporairement une équipe existante
Pour la plupart des entreprises avec lesquelles nous travaillons chez Social Animal, le sweet spot est de outsourcer l'architecture initiale et le build, puis de garder la maintenance en interne ou de maintenir l'agence sur un contrat de retainer. Nous gérons beaucoup de ces projets à travers nos capacités de développement headless, où l'intégration IA devient une partie standard de la pile plutôt qu'un add-on.
Si vous explorez cela, notre page de tarification vous donne une idée des structures de projets, ou vous pouvez nous contacter directement pour discuter de votre situation spécifique.
Signaux d'alerte lors de l'évaluation des développeurs
J'ai interviewé des dizaines de développeurs qui revendiquent une expertise OpenAI. Voici les signaux d'alerte :
🚩 Ils ne peuvent pas expliquer la tarification des tokens -- s'ils ne savent pas ce qu'un token coûte, ils n'ont rien construit à l'échelle.
🚩 Ils recommandent GPT-4.5 pour tout -- le modèle le plus cher n'est rarement le bon choix. Les bons développeurs font correspondre les modèles aux tâches.
🚩 Pas de mention de la gestion des erreurs -- les appels API échouent. Les modèles hallucinent. Les limites de débit sont atteintes. Si leur architecture ne tient pas compte de cela, c'est une démo, pas du code de production.
🚩 Ils n'ont jamais utilisé les sorties structurées -- l'analyse du JSON de texte libre d'un LLM est fragile. Les sorties structurées avec validation de schéma sont disponibles depuis 2024. Il n'y a pas d'excuse.
🚩 "Nous allons simplement le fine-tuner" -- le fine-tuning est un scalpel, pas un marteau. Si c'est leur solution de prédilection, ils ne comprennent pas les alternatives.
🚩 Pas d'expérience avec le streaming -- toute interface de chat a besoin du streaming pour une UX acceptable. S'ils n'ont pas implémenté les événements server-sent ou les websockets pour les réponses LLM, ils n'ont pas construit de fonctionnalités orientées utilisateurs.
🚩 Ils ne posent pas de questions sur vos données -- la première question devrait être sur vos données. Quelles données avez-vous ? Où vivent-elles ? Quel est leur niveau de sensibilité ? Cela vous dit tout sur l'architecture.
FAQ
Quel langage de programmation est le meilleur pour l'intégration OpenAI API ?
Python et TypeScript sont les deux choix principaux, et les deux ont des kits SDK OpenAI de première classe. Python est légèrement en avance pour les travaux lourds en données, les pipelines d'embedding et tout ce qui implique des outils de science des données. TypeScript est le meilleur choix quand votre backend est déjà Node.js ou quand vous construisez avec Next.js ou des frameworks similaires. Pour la plupart des applications web, TypeScript garde votre pile entière dans un langage, ce qui réduit la complexité.
Combien de temps faut-il pour construire une intégration ChatGPT ?
Un chatbot de base peut être construit en quelques jours. Mais les fonctionnalités de qualité production -- avec une gestion appropriée des erreurs, une mise en cache, une optimisation des coûts, le streaming et la surveillance -- prennent généralement 4-8 semaines selon la complexité. Les systèmes RAG avec sources de données personnalisées se situent généralement dans la gamme 6-12 semaines. Ne faites pas confiance à quelqu'un qui dit pouvoir construire une fonctionnalité IA de production en un week-end.
Vaut-il la peine de fine-tuner GPT-4o pour mon cas d'usage ?
Probablement pas comme première étape. Commencez par l'optimisation des prompts et les sorties structurées. Si cela ne vous donne pas la qualité ou la cohérence dont vous avez besoin, essayez RAG (retrieval-augmented generation) pour donner au modèle accès à vos données spécifiques. Le fine-tuning devrait être votre troisième option, réservé aux cas où vous avez besoin d'un style cohérent, d'une utilisation réduite des tokens ou d'un formatage spécifique que d'autres approches ne peuvent pas atteindre. Le fine-tuning GPT-4o-mini est souvent un meilleur compromis coût-performance que le fine-tuning du modèle GPT-4o complet.
Quelle est la différence entre l'API Assistants et l'API Responses ?
L'API Assistants (v2) fournit des fils de conversation gérés, un stockage de fichiers et des outils intégrés comme Code Interpreter et File Search. L'API Responses, introduite au début 2025, est la nouvelle API unifiée d'OpenAI qui combine la simplicité des chat completions avec les capacités de tool use. Pour les nouveaux projets en 2026, l'API Responses est généralement recommandée à moins que vous ayez spécifiquement besoin de l'état de fil géré que fournit Assistants. Pensez à Responses comme la direction future vers laquelle OpenAI se dirige.
Combien coûtent les frais OpenAI API pour une application de production ?
Cela varie énormément selon l'utilisation, mais voici quelques points de repère réels : un chatbot de support client gérant 10 000 conversations par mois avec GPT-4o-mini coûte généralement $50-$200/mois en frais d'API. Le même volume avec GPT-4o coûte $500-$2 000/mois. Un système RAG traitant 100 000 requêtes mensuellement avec GPT-4o pourrait coûter $3 000-$10 000/mois selon l'utilisation de la fenêtre contextuelle. La mise en cache, la sélection du modèle et l'optimisation des prompts peuvent réduire les coûts de 60 à 80%.
Devrais-je utiliser LangChain ou construire directement avec le SDK OpenAI ?
Pour la plupart des applications de production, je recommande de construire directement avec le SDK OpenAI. LangChain ajoute une couche d'abstraction significative qui peut rendre le débogage plus difficile et vous verrouille dans leurs modèles. Cela dit, LangChain et LangGraph sont véritablement utiles pour l'orchestration multi-agents complexe ou quand vous avez besoin de basculer fréquemment entre plusieurs fournisseurs de LLM. LlamaIndex est meilleur que LangChain spécifiquement pour les pipelines RAG. Le SDK Vercel AI est excellent si vous êtes déjà dans l'écosystème Next.js.
Quels sont les problèmes de sécurité dont je dois me préoccuper avec l'intégration ChatGPT ?
Les grands : l'injection de prompt (les utilisateurs manipulant votre prompt système via leur entrée), la fuite de PII (les données sensibles se retrouvant dans les prompts qui sont enregistrés ou utilisés pour l'entraînement), la validation de sortie (le modèle générant du contenu nuisible ou incorrect) et l'exposition des clés API. Les termes de traitement des données d'OpenAI en 2026 confirment que les données d'API ne sont pas utilisées pour l'entraînement par défaut, mais vous devriez toujours être prudent concernant ce qui entre dans les prompts. Toujours valider et nettoyer les entrées et sorties.
Quand devrais-je embaucher un développeur IA à temps plein par rapport à l'utilisation d'une agence ?
Embauchez à temps plein quand l'IA est votre produit principal et que vous avez besoin de quelqu'un itérant dessus quotidiennement -- pensez aux startups-first IA ou aux entreprises où la fonctionnalité IA est l'entreprise. Utilisez une agence quand vous avez besoin d'expédier une fonctionnalité IA spécifique dans un délai défini, quand vous avez besoin d'expertise en architecture senior pour le build initial, ou quand l'IA améliore votre produit existant plutôt que d'être le produit lui-même. De nombreuses entreprises font les deux : agence pour l'architecture et le build initiaux, puis une embauche à temps plein pour maintenir et itérer.