Leçon 1Contrats avec fournisseurs et clients pour les fonctionnalités d'IA : ententes de traitement des données, co-responsabilité, allocation de responsabilité et exigences de sécuritéCette section explique comment structurer les contrats avec fournisseurs et clients pour les fonctionnalités d'IA, en se concentrant sur les ententes de traitement des données, la co-responsabilité, l'allocation de responsabilité et les clauses de sécurité reflétant les exigences réglementaires et éthiques.
Définition des rôles de responsable et sous-traitantClauses clés des ententes de traitement des donnéesCo-responsabilité et obligations partagéesLimites de responsabilité, indemnités et assuranceObligations de sécurité et réponse aux incidentsDroits d'audit, de surveillance et de résiliationLeçon 2Régimes fondamentaux de protection des données et obligations pertinentes pour l'IA (principes : limitation des finalités, minimisation des données, base légale, transparence)Cette section passe en revue les régimes fondamentaux de protection des données pertinents pour l'IA, en mettant l'accent sur les principes tels que la limitation des finalités, la minimisation des données, la base légale et la transparence, et comment les opérationnaliser dans le développement et le déploiement de l'IA.
Limitation des finalités dans l'entraînement et l'utilisation de l'IAMinimisation des données et sélection des caractéristiquesChoix et documentation des bases légalesTransparence et avis significatifsExactitude, limites de conservation et intégritéResponsabilité et structures de gouvernanceLeçon 3Évaluations d'impact sur la protection des données (EIPD) / Évaluations d'impact sur l'IA (EIA) : structure, questions clés et plans de remédiationCette section explique comment concevoir et mener des EIPD et EIA, de la définition du champ et de l'identification des risques à l'engagement des parties prenantes, la documentation et la planification de la remédiation, assurant que les systèmes d'IA répondent aux attentes légales, éthiques et organisationnelles.
Définition du champ des systèmes d'IA et activités de traitementIdentification des parties prenantes et groupes affectésCatalogue des risques pour les droits et libertésConception de plans d'atténuation et de remédiationDocumentation des résultats et approbationIntégration des EIPD dans le cycle de vie du produitLeçon 4Équité algorithmique et biais : sources de biais, méthodes de mesure et techniques d'atténuationCette section analyse le biais algorithmique et l'équité en IA, expliquant les sources de biais, les métriques d'équité et les stratégies d'atténuation dans les données, la modélisation et le déploiement, avec attention aux attentes légales dans les environnements réglementaires stricts.
Types et sources de biais algorithmiquesMétriques d'équité et compromisBiais dans la collecte et l'étiquetage des donnéesStratégies d'entraînement et d'évaluation des modèlesAtténuation pendant le déploiement et la surveillanceDocumentation des décisions d'équitéLeçon 5Guides opérationnels pour les examens de conformité des produits et escalade interfonctionnelle (Produit, Juridique, Confidentialité, Conformité)Cette section fournit des guides pratiques pour les examens de conformité des produits, définissant les rôles, flux de travail et voies d'escalade parmi les équipes Produit, Juridique, Confidentialité et Conformité pour gérer les risques d'IA et documenter des décisions défendables.
Réception et triage des changements de produits IANiveaux et critères d'examen basés sur les risquesRôles des équipes Produit, Juridique, Confidentialité, ConformitéVoies d'escalade pour cas d'utilisation IA à haut risqueDocumentation des décisions et registres d'approbationBoucles de rétroaction dans les feuilles de route produitsLeçon 6Gestion des risques des modèles pour les fonctionnalités d'IA : documentation (fiches modèles), validation, tests, surveillance des performances et explicabilitéCette section couvre la gestion des risques des modèles pour les fonctionnalités d'IA, incluant la documentation, la validation, les tests, la surveillance et l'explicabilité, alignant la gouvernance des modèles avec les attentes réglementaires et les cadres d'appétit pour le risque internes.
Inventaire et classification des modèlesFiches modèles et normes de documentationValidation et défi indépendantSurveillance des performances, dérive et stabilitéMéthodes d'explicabilité et limitationsGestion des changements de modèles et mise hors serviceLeçon 7Cadres éthiques pour les décisions d'IA : cartographie des parties prenantes, proportionnalité, contestabilité, surveillance humaine et mécanismes de recoursCette section introduit les cadres éthiques pour la prise de décision en IA, couvrant la cartographie des parties prenantes, la proportionnalité, la contestabilité, la surveillance humaine et le recours, et montre comment intégrer ces principes dans les processus de gouvernance et de conception de produits.
Cartographie des parties prenantes et impacts pour l'IAÉvaluations de proportionnalité et de nécessitéConception de canaux de contestabilité et d'appelModèles avec humain dans la boucle ou sur la boucleMécanismes de recours et de remède pour les préjudicesIntégration des examens éthiques dans la gouvernanceLeçon 8Conception préservant la confidentialité : minimisation des données, confidentialité différentielle, anonymisation, pseudonymisation et bases de calcul multiparti sécuriséCette section explore les stratégies de conception préservant la confidentialité pour l'IA, incluant la minimisation des données, l'anonymisation, la pseudonymisation, la confidentialité différentielle et le calcul multiparti sécurisé, avec des conseils sur les cas d'utilisation et les compromis d'implémentation.
Minimisation des données dans la conception de fonctionnalités IAAnonymisation et risques de réidentificationMéthodes de pseudonymisation et de tokenisationConfidentialité différentielle pour analyses et apprentissage automatiqueBases du calcul multiparti sécuriséSélection de techniques de confidentialité appropriéesLeçon 9Contrôles techniques : contrôle d'accès, journalisation, chiffrement, politiques de conservation et cycle de développement sécurisé (SDLC) pour l'apprentissage automatiqueCette section détaille les garanties techniques pour les systèmes d'IA, incluant le contrôle d'accès, la journalisation, le chiffrement, la conservation et le développement sécurisé de l'apprentissage automatique, montrant comment les choix d'ingénierie soutiennent la conformité réglementaire et la réduction des risques éthiques.
Contrôle d'accès basé sur les rôles et attributsConception de journalisation de sécurité et pistes d'auditChiffrement en transit et au repos pour données IAAutomatisation de la conservation et suppression des donnéesCodage sécurisé et examen de code pour l'apprentissage automatiqueTests de sécurité et durcissement des services IALeçon 10Évaluation des bases légales et limites du consentement pour la surveillance en milieu de travail et le traitement des données des employésCette section examine les bases légales et limites du consentement pour la surveillance en milieu de travail et les données des employés, traitant des outils de surveillance, des obligations de transparence, des déséquilibres de pouvoir et des garanties protégeant la dignité et les droits du travail.
Scénarios courants de surveillance en milieu de travailÉvaluation de l'intérêt légitime et de la nécessitéLimites du consentement dans les contextes d'emploiTransparence et obligations d'information des travailleursGaranties pour les technologies de surveillanceEngagement des comités de travailleurs et syndicatsLeçon 11Tendances réglementaires dans les juridictions à forte réglementation et voies de conformité pour les produits IA novateursCette section passe en revue les tendances réglementaires dans les juridictions à forte réglementation, esquissant les lois émergentes sur l'IA, les orientations et les tendances d'exécution, et cartographiant les voies pratiques de conformité pour les produits IA novateurs et les opérations transfrontalières.
Aperçu des principaux régimes réglementaires IARègles et orientations sectorielles pour l'IAAttentes de surveillance et exécutionBacs à sable réglementaires et pôles d'innovationConception de programmes de conformité basés sur les risquesProblèmes de conformité transfrontalière pour données et IALeçon 12Cadres des droits humains applicables aux données et à l'IA : Principes directeurs des Nations Unies, RGPD comme modèle basé sur les droits, et implications nationales des droits humainsCette section relie le droit des droits humains à la gouvernance des données et de l'IA, expliquant les Principes directeurs des Nations Unies, l'approche basée sur les droits du RGPD, et comment les obligations nationales en matière de droits humains façonnent les responsabilités corporatives pour la conception et le déploiement de l'IA.
Principes directeurs des Nations Unies et obligations corporativesRGPD comme modèle réglementaire basé sur les droitsLois nationales sur les droits humains affectant l'IARisques saillants des droits humains dans l'utilisation de l'IADue diligence des droits humains pour l'IAAttentes de recours et de responsabilité