Leçon 1Obligations d'explicabilité et supervision humaine : conception de contrôles humain-dans-la-boucle et procédures d'escaladeCette section détaille les devoirs d'explicabilité et de supervision humaine sous le Règlement IA et RGPD, incluant conception humain-dans-la-boucle, voies d'escalade, pouvoirs de surrogation, exigences de compétence, et documentation des décisions de supervision et risques résiduels.
Regulatory expectations on explainabilityLevels of human involvement in AI workflowsDesigning effective escalation proceduresHuman override, veto powers, and loggingTraining oversight staff and avoiding rubber-stampLeçon 2Évaluations de risques IA : modèles, métriques, et stratégies d'atténuation pour modules analytiques à haut risqueCette section se concentre sur les évaluations de risques IA pour systèmes à haut risque, couvrant modèles d'évaluation d'impact, métriques qualitatives et quantitatives, analyse de scénarios, planification d'atténuation, acceptation de risque résiduel, et intégration avec cadres de risque corporate.
When AI-specific risk assessments are requiredStructuring AI impact assessment templatesRisk metrics, thresholds, and risk appetiteMitigation strategies and control selectionResidual risk acceptance and governanceLeçon 3Gouvernance du cycle de vie des modèles : tests, validation, surveillance de dérive, documentation continue (cartes de modèles, fiches pour datasets)Cette section couvre la gouvernance sur le cycle de vie du modèle IA, de la conception à la retraite, incluant tests et validation, vérifications de robustesse, surveillance de dérive, gestion du changement, et documentation structurée via cartes de modèles et fiches de datasets.
Pre-deployment testing and validation plansPerformance, robustness, and safety metricsDrift detection, alerts, and retraining triggersChange management and model version controlModel cards and datasheets for datasetsLeçon 4Intersection exigences Règlement IA avec RGPD : prise de décision automatisée, transparence, explicabilité, et profilageCette section explore les chevauchements entre Règlement IA et RGPD, en se concentrant sur bases légales, prise de décision automatisée article 22, devoirs de transparence et avis, attentes d'explicabilité, garanties de profilage, et droits des personnes concernées en contextes IA.
Lawful basis for AI training and deploymentArticle 22 GDPR and automated decisionsTransparency notices for AI-driven processingProfiling safeguards and special category dataReconciling AI logs with data minimizationLeçon 5Cadres légaux et lignes directrices pour l'IA en UE : vue d'ensemble Règlement IA UE, classification des risques, obligations pour systèmes à haut risqueCette section explique la structure, portée et concepts clés du Règlement IA UE, en se concentrant sur classification basée sur le risque, obligations pour systèmes à haut risque, évaluation de conformité, devoirs des fournisseurs et déployeurs, et mécanismes d'exécution et sanctions.
Scope and key definitions under the EU AI ActProhibited practices and unacceptable AI risksHigh-risk AI classification and use-case mappingProvider, deployer, and importer obligationsConformity assessment, CE marking, and sanctionsLeçon 6Tenue de registres et documentation pour IA : logs, traces d'audit, traçabilité, et versionnage pour modèles et données d'entraînementCette section explique les devoirs de tenue de registres et documentation pour l'IA, incluant logs, traces d'audit, traçabilité des données et modèles, versionnage, politiques de conservation, accès régulateur, et alignement traçabilité avec confidentialité et protection des données.
Traceability requirements under the AI ActDesigning robust logging architecturesModel and dataset provenance trackingVersioning models, data, and configurationsRetention, access, and regulator requestsLeçon 7Interaction avec règles sectorielles et protection des consommateurs quand sorties IA affectent utilisateurs finauxCette section analyse comment la régulation IA interagit avec régimes sectoriels, incluant finance, santé, emploi et protection des consommateurs, en se concentrant sur sorties trompeuses, dark patterns, devoir de soin, et responsabilité pour décisions automatisées dommageables.
AI in financial, health, and employment sectorsUnfair commercial practices and dark patternsMisleading AI outputs and information dutiesProduct safety, services liability, and AI toolsDesigning compliant user interfaces and flowsLeçon 8Mesures techniques pour ML préservant la vie privée : confidentialité différentielle, apprentissage fédéré, calcul multipartite sécurisé, et cas d'usage données synthétiquesCette section présente techniques ML préservant la vie privée et implications légales, incluant confidentialité différentielle, apprentissage fédéré, calcul multipartite sécurisé, et données synthétiques, évaluant quand elles réduisent le risque et comment documenter leur déploiement.
Regulatory view on privacy-preserving MLDifferential privacy: guarantees and limitsFederated learning and data localizationSecure multi-party computation in practiceSynthetic data: utility, risks, and governanceLeçon 9Qualité des données, biais, équité, et gouvernance datasets pour modèles entraînés sur données de comportement utilisateurCette section aborde attentes légales pour qualité des données et équité en IA entraînée sur comportement utilisateur, couvrant sources de biais, risques de discrimination, gouvernance datasets, documentation, surveillance, et devoirs de remédiation sous lois UE égalité et consommateurs.
Legal standards for data quality in AI trainingDetecting and measuring bias in behavioral datasetsFairness metrics and their legal relevanceDataset governance, curation, and access controlsRemediation, re-training, and user redress options