Apprendre SQL rapidement n’est pas une promesse marketing, c’est une question de méthode. En France, où les petites équipes techniques jonglent entre produit et exploitation, savoir interroger une base relationnelle reste une compétence transversale. Le plan d’une semaine tient dans une logique crescendo: fondations, sélection, jointures, agrégats, sous‑requêtes, modifications, puis optimisation et bonnes pratiques. Chaque jour se conclut par un mini‑projet qui oblige à formuler des questions réelles sur des données concrètes plutôt qu’à réciter des syntaxes.
Le premier jour s’ancre dans les concepts: tables, clés primaires et étrangères, types, normalisation de base. On manipule SELECT, WHERE, ORDER BY et LIMIT pour se familiariser avec l’extraction ciblée. Le deuxième jour, place aux jointures internes et externes, en comprenant visuellement ce que signifient les ensembles. Le troisième jour, on attaque les agrégations avec GROUP BY, HAVING et les fonctions COUNT, SUM, AVG, MIN, MAX, en insistant sur les pièges liés aux valeurs nulles. Le quatrième jour introduit les sous‑requêtes et les CTE, utiles pour clarifier les intentions et réutiliser des résultats intermédiaires.
Sur la seconde moitié de la semaine, on passe du «lire» au «modifier». Le cinquième jour couvre INSERT, UPDATE, DELETE et la question des transactions: COMMIT, ROLLBACK, niveaux d’isolation et intégrité référentielle. Le sixième jour aborde l’indexation, les plans d’exécution et l’estimation des coûts, indispensables pour comprendre pourquoi une requête s’essouffle. Le septième jour est réservé au bilan: révision, refactorisation de requêtes trop verbeuses, et rédaction d’un mémo personnel qui servira sur le long terme. L’objectif n’est pas d’embrasser tout SQL, mais d’acquérir un socle opérationnel.
Les simulateurs gratuits facilitent la pratique sans installer d’environnement lourd. Des «playgrounds» en ligne pour PostgreSQL et MySQL permettent de charger un jeu de données public — ventes, utilisateurs, logs — et d’itérer à la volée. Les plateformes d’exercices proposent des séries progressives, des corrections commentées et parfois des plans d’exécution visualisés. Couplés à des datasets ouverts de la fonction publique française, ces outils offrent un contexte local et parlant: transports, indicateurs économiques, culture. Un carnet de requêtes versionné dans Git suffit à tracer vos progrès et à partager vos solutions.
Reste la dimension professionnelle: écrire des requêtes lisibles et sécurisées. Renommer explicitement les colonnes, éviter les SELECT *, limiter les droits en lecture/écriture selon les rôles, et documenter les hypothèses font gagner du temps à toute l’équipe. Tester les bords — doublons, valeurs manquantes, encodage — évite des surprises en production. À l’issue d’une semaine disciplinée, vous saurez poser les bonnes questions aux données, les vérifier et les expliquer. C’est souvent ce qui distingue un profil autonome d’un profil dépendant d’un intermédiaire.