Leçon 1Obligations d'explicabilité et supervision humaine : conception de contrôles human-in-the-loop et procédures d'escaladeCette section détaille les obligations d'explicabilité et de supervision humaine sous l'AI Act et RGPD, incluant conception human-in-the-loop, voies d'escalade, pouvoirs de surrogation, exigences de compétence, et documentation des décisions de supervision et risques résiduels.
Regulatory expectations on explainabilityLevels of human involvement in AI workflowsDesigning effective escalation proceduresHuman override, veto powers, and loggingTraining oversight staff and avoiding rubber-stampLeçon 2Évaluations de risques IA : modèles, métriques, et stratégies d'atténuation pour modules analytiques à haut risqueCette section se concentre sur les évaluations de risques IA pour systèmes à haut risque, couvrant modèles d'évaluation d'impact, métriques qualitatives et quantitatives, analyse de scénarios, planification d'atténuation, acceptation de risque résiduel, et intégration aux cadres de risque corporate.
When AI-specific risk assessments are requiredStructuring AI impact assessment templatesRisk metrics, thresholds, and risk appetiteMitigation strategies and control selectionResidual risk acceptance and governanceLeçon 3Gouvernance du cycle de vie des modèles : tests, validation, surveillance du drift, documentation continue (model cards, datasheets pour datasets)Cette section couvre la gouvernance sur le cycle de vie du modèle IA, de la conception à la retraite, incluant tests et validation, vérifications de robustesse, surveillance du drift, gestion des changements, et documentation structurée via model cards et datasheets pour datasets.
Pre-deployment testing and validation plansPerformance, robustness, and safety metricsDrift detection, alerts, and retraining triggersChange management and model version controlModel cards and datasheets for datasetsLeçon 4Intersection exigences AI Act avec RGPD : prise de décision automatisée, transparence, explicabilité, et profilageCette section explore les chevauchements entre AI Act et RGPD, en se focalisant sur bases légales, prise de décision automatisée article 22, obligations de transparence et avis, attentes d'explicabilité, garanties de profilage, et droits des personnes concernées en contextes IA.
Lawful basis for AI training and deploymentArticle 22 GDPR and automated decisionsTransparency notices for AI-driven processingProfiling safeguards and special category dataReconciling AI logs with data minimizationLeçon 5Cadres légaux et guidelines pour IA en UE : vue d'ensemble AI Act UE, classification des risques, obligations pour systèmes à haut risqueCette section explique la structure, portée et concepts clés de l'AI Act UE, en se focalisant sur classification basée sur le risque, obligations pour systèmes à haut risque, évaluation de conformité, devoirs des fournisseurs et déployeurs, et mécanismes d'exécution et sanctions.
Scope and key definitions under the EU AI ActProhibited practices and unacceptable AI risksHigh-risk AI classification and use-case mappingProvider, deployer, and importer obligationsConformity assessment, CE marking, and sanctionsLeçon 6Tenue de registres et documentation pour IA : logs, traces d'audit, traçabilité, et versionnage pour modèles et données d'entraînementCette section explique les obligations de tenue de registres et documentation pour IA, incluant logs, traces d'audit, traçabilité des données et modèles, versionnage, politiques de conservation, accès régulateur, et alignement de la traçabilité avec confidentialité et protection des données.
Traceability requirements under the AI ActDesigning robust logging architecturesModel and dataset provenance trackingVersioning models, data, and configurationsRetention, access, and regulator requestsLeçon 7Interaction avec règles sectorielles et protection des consommateurs quand sorties IA affectent utilisateurs finauxCette section analyse comment la régulation IA interagit avec régimes sectoriels, incluant finance, santé, emploi, et protection des consommateurs, en se focalisant sur sorties trompeuses, dark patterns, devoir de soin, et responsabilité pour décisions automatisées nuisibles.
AI in financial, health, and employment sectorsUnfair commercial practices and dark patternsMisleading AI outputs and information dutiesProduct safety, services liability, and AI toolsDesigning compliant user interfaces and flowsLeçon 8Mesures techniques pour ML préservant la vie privée : privacy différentielle, apprentissage fédéré, calcul multipartite sécurisé, et cas d'usage données synthétiquesCette section présente les techniques ML préservant la vie privée et leurs implications légales, incluant privacy différentielle, apprentissage fédéré, calcul multipartite sécurisé, et données synthétiques, évaluant quand elles réduisent le risque et comment documenter leur déploiement.
Regulatory view on privacy-preserving MLDifferential privacy: guarantees and limitsFederated learning and data localizationSecure multi-party computation in practiceSynthetic data: utility, risks, and governanceLeçon 9Qualité des données, biais, équité, et gouvernance datasets pour modèles entraînés sur données comportementales utilisateursCette section aborde les attentes légales pour qualité des données et équité en IA entraînée sur données comportementales utilisateurs, couvrant sources de biais, risques de discrimination, gouvernance datasets, documentation, surveillance, et obligations de remédiation sous lois UE égalité et consommateurs.
Legal standards for data quality in AI trainingDetecting and measuring bias in behavioral datasetsFairness metrics and their legal relevanceDataset governance, curation, and access controlsRemediation, re-training, and user redress options