Loading
Certification incluseprésentiel

Intelligence Artificielle & Gen AI (AWS, GCP)

Formation intensive de 8 semaines sur les grands modèles de langage, prompt engineering avancé, RAG, agents IA autonomes et déploiement en production avec FinOps.

Individuel400 000 FCFA
Étudiant300 000 FCFA
Corporate3 800 000 FCFA
Durée

8 semaines — 60-80 heures

Niveau

Intermédiaire à Avancé

Objectifs de la formation

  • Comprendre architecture interne des LLM et leurs limites
  • Rédiger prompts avancés (Chain-of-Thought, ReAct, Tree-of-Thought)
  • Déployer modèles IA via Amazon Bedrock et Vertex AI
  • Concevoir architecture RAG pour données propriétaires
  • Développer agents IA autonomes avec outils externes
  • Calculer et optimiser coûts d'inférence IA (FinOps)
  • Appliquer principes gouvernance et IA Responsable

Prérequis

  • Python intermédiaire, notions API REST, bases cloud AWS ou GCP
  • Expérience développement recommandée

Programme Détaillé

Une progression pédagogique pensée pour vous accompagner de la théorie à la pratique.

1

S1 — Fondements des LLM & Gen AI

8 sujets
  • 1.1
    Histoire LLM : Word2Vec aux Transformers
  • 1.2
    Architecture Transformer détaillée : Attention, Feed-Forward
  • 1.3
    Tokenisation : BPE, SentencePiece
  • 1.4
    Context Window et gestion mémoire
  • 1.5
    Paramètres génération : Temperature, Top-P, Top-K
  • 1.6
    Hallucination et biais
  • 1.7
    Types modèles : Encoder-only, Decoder-only, Encoder-Decoder
  • 1.8
    Lab : Exploration comportement LLM
2

S1 (suite) — Prompt Engineering Avancé

8 sujets
  • 2.1
    Zero-shot, Few-shot, One-shot prompting
  • 2.2
    Chain-of-Thought : forcer raisonnement étape par étape
  • 2.3
    ReAct : Reasoning + Acting
  • 2.4
    Tree-of-Thought : exploration chemins raisonnement
  • 2.5
    Meta-prompting
  • 2.6
    Prompt injection et attaques adversariales
  • 2.7
    Prompt templates pour cas business
  • 2.8
    Lab : Benchmark stratégies prompting
3

S2 — IA Générative sur AWS (Amazon Bedrock)

10 sujets
  • 3.1
    Amazon Bedrock : modèles, concepts
  • 3.2
    Bedrock API : InvokeModel, streaming
  • 3.3
    Converse API : interface unifiée
  • 3.4
    Knowledge Bases : RAG managé
  • 3.5
    Bedrock Agents : creation avec Action Groups
  • 3.6
    Bedrock Guardrails : filtrage contenu, PII detection
  • 3.7
    Model Evaluation
  • 3.8
    SageMaker JumpStart : fine-tuning
  • 3.9
    Calcul coûts Bedrock
  • 3.10
    Lab : Agent Bedrock interrogeant RDS
4

S3 — IA Générative sur GCP (Vertex AI)

10 sujets
  • 4.1
    Vertex AI Model Garden : Gemini, Llama, Mistral, Claude
  • 4.2
    Gemini Pro 1.5 vs Flash
  • 4.3
    Multimodalité : texte, image, audio, vidéo, code
  • 4.4
    Vertex AI Studio : playground, design, test
  • 4.5
    Grounding with Google Search
  • 4.6
    Vertex AI Extensions
  • 4.7
    Fine-tuning Gemini : SFT avec Adapter LoRA
  • 4.8
    Model Distillation
  • 4.9
    Déploiement Vertex AI Endpoints
  • 4.10
    Lab : Résumé documents juridiques en Wolof/Français
5

S4 — RAG — Retrieval Augmented Generation

10 sujets
  • 5.1
    Pourquoi RAG ? Limites LLM
  • 5.2
    Architecture RAG complète : Chunking → Embedding → Vector Store
  • 5.3
    Stratégies chunking : taille fixe, sentence, section, récursive
  • 5.4
    Modèles embedding : text-embedding-004, Titan, voyage-3
  • 5.5
    Bases vectorielles : Pinecone, Weaviate, pgvector, BigQuery Vector
  • 5.6
    Recherche : dense, sparse, hybride
  • 5.7
    Reranking : Cross-Encoders
  • 5.8
    RAG Avancé : HyDE, RAG-Fusion, Self-RAG
  • 5.9
    Évaluation : métriques RAGAS
  • 5.10
    Lab : Q&A sur réglementation BCEAO
6

S5 — Agents IA & Orchestration

10 sujets
  • 6.1
    Qu'est-ce qu'un agent IA ? Boucle Perception → Raisonnement → Action
  • 6.2
    ReAct Agent Pattern
  • 6.3
    LangChain : Chains, Agents, Tools, Memory
  • 6.4
    LangGraph : orchestration graphes, cycles, conditions
  • 6.5
    LlamaIndex : ingestion données, query engines
  • 6.6
    Outils personnalisés : SQL, API, Web Search
  • 6.7
    Multi-agent systems : collaboration (CrewAI, AutoGen)
  • 6.8
    Mémoire agents : courte et longue terme
  • 6.9
    Gestion erreurs et retry
  • 6.10
    Lab : Agent rapport financier
7

S6 — Déploiement, FinOps IA & Gouvernance

10 sujets
  • 7.1
    Intégration LLM : FastAPI + React + streaming SSE
  • 7.2
    Caching sémantique : GPTCache, Redis
  • 7.3
    Load balancing multi-modèles : LiteLLM Proxy
  • 7.4
    FinOps IA : calcul coûts par requête
  • 7.5
    Stratégies réduction coûts : compression, routing optimal
  • 7.6
    LangSmith / LangFuse : observabilité
  • 7.7
    IA Responsable : biais, fairness, explicabilité
  • 7.8
    Cadre réglementaire : EU AI Act, CEDEAO
  • 7.9
    Sécurité LLM : OWASP Top 10
  • 7.10
    Lab : Assistant RH multilingue avec LangFuse

Prêt à propulser votre carrière ?

Rejoignez nos prochaines sessions et bénéficiez de l'accompagnement de nos experts pour obtenir votre certification.