L’Intelligence Artificielle Générative dans le Secteur Social
Stratégie et Gouvernance
Formation créée le 19/12/2025. Dernière mise à jour le 23/01/2026.Version du programme : 1
Type de formation
PrésentielDurée de formation
14 heures (2 jours)Accessibilité
OuiL’Intelligence Artificielle Générative dans le Secteur Social
Stratégie et Gouvernance
L’intelligence artificielle générative transforme profondément les organisations professionnelles, y compris celles du secteur social, un domaine où les missions de protection, d’accompagnement et de soutien aux publics les plus vulnérables s’exercent dans un cadre exigeant en matière d’éthique, de sécurité des données et d’efficacité opérationnelle. Dans ce contexte, les dirigeants sont confrontés à des défis organisationnels et stratégiques nouveaux : comment intégrer ces technologies sans compromettre la qualité humaine et sociale des interventions ? Comment anticiper les risques liés aux données sensibles, aux obligations réglementaires et aux usages à haut risque ? L’intelligence artificielle générative offre des opportunités considérables pour optimiser le pilotage stratégique des structures sociales : appui à la planification des ressources humaines, aide à la prise de décision, synthèse et analyse de données, production de documents et accompagnement de la qualité. Toutefois, ces bénéfices nécessitent une vision stratégique claire, des cadres de gouvernance robustes et une compréhension approfondie des enjeux éthiques, réglementaires et organisationnels propres au secteur social. Cette formation s’adresse spécifiquement aux dirigeants, membres d’équipe de direction, responsables opérationnels et cadres décisionnaires qui souhaitent appréhender l’intelligence artificielle générative comme un levier stratégique et non seulement comme un outil technologique. Elle leur permet de définir une stratégie IA cohérente avec les obligations du secteur (dont celles relatives à la protection des mineurs et des données), d’identifier les usages à haut risque, de concevoir des cadres d’usage responsables et d’intégrer l’IA de manière éthique et sécurisée dans leur gouvernance organisationnelle.
Objectifs de la formation
- Définir une stratégie IA alignée avec les obligations du secteur : RGPD, AI Act, Code de l’Action Sociale et des Familles (CASF), référentiels HAS et recommandations CNIL concernant les mineurs.
- Identifier les usages à haut risque dans les établissements de la PE : données sensibles, signalements, évaluations, informations préoccupantes, parcours de mineurs.
- Utiliser l’IA comme outil de pilotage stratégique (RH, budget, qualité, projet d’établissement) sans dégrader la qualité du lien éducatif.
- Co-construire une Charte d’usage de l’IA spécifique à la Protection de l’Enfance, incluant les principes de protection des mineurs, de transparence, et de garantie humaine.
Profil des bénéficiaires
- Le directeur général et membres de l'équipe de direction.
- Les directeurs opérationnels
- Les chefs de projet
- Les responsables des services
- Maitrise des outils informatiques de base
- Aucune compéténce technique en IA n'est requise
Contenu de la formation
Module 1 : Démystification & enjeux pour la Protection de l’Enfance
- Ce que fait réellement l’IA (analyse, génération, automatisation) vs. ce qu’elle ne doit pas faire (remplacer l’évaluation éducative, produire un diagnostic implicite, "prévoir" le comportement d’un enfant).
- Usages stratégiques en Protection de l’Enfance : - Appui au pilotage RH (planification, rédaction d’offres, entretiens structurés). - Anticipation budgétaire & allocations de ressources. - Aide à la rédaction : projets d’établissement, rapports d’activité, appels à projets, notes stratégiques. - Appui à la formalisation de procédures qualité HAS.
- Panorama d’outils adaptés au secteur social : ChatGPT Enterprise, Copilot, Gemini, Mistral, modèles souverains on-premise, outils spécialisés (analyse documentaire, assistants de rédaction sécurisés).
Module 2 : Gouvernance, éthique et conformité – Spécifique Protection de l’Enfance
- Cadre légal : - RGPD (données sensibles, mineurs, limitation des finalités). - AI Act : catégories de risques, obligations renforcées pour les systèmes utilisés dans l’accompagnement social. - Recommandations CNIL & Défenseur des droits sur les mineurs et l’IA. - CASF : responsabilité du directeur, délégation, secret professionnel.
- Doctrine HAS : qualité, sécurité, "garantie humaine", transparence, traçabilité, non-discrimination.
- Atelier “STOP ou ENCORE? – Cas de direction PE” - Peut-on faire analyser un projet pour l’enfant (PPE)? - Peut-on utiliser l’IA pour analyser des rapports éducatifs? - Peut-on générer un courrier aux familles ou une synthèse éducative? - Peut-on automatiser une priorisation d’informations préoccupantes? Chaque situation est analysée sous l’angle : risque → garanties → arbitrage du directeur.
Module 3 : Atelier pratique – "Prompting stratégique" pour Directeurs de PE
- Techniques clés - Transformer des notes brutes (réunion éducative, CODIR, réunion avec l’ASE) en plan d’action managérial. - Rédiger avec l’IA tout en conservant le style institutionnel et les obligations de neutralité. - Méthode “3 prompts pour sécuriser une production sensible”.
- Études de cas sectorielles - Réponse argumentée à un appel à projets PE / AEMO / placement. - Synthèse de veille réglementaire : nouvelles dispositions relatives aux mineurs, décisions judiciaires, évolutions du CASF. - Argumentaire pour un financeur ou partenaire institutionnel (Département, ARS, Préfecture). - Préparation d’un rapport d'activité ou d’un bilan stratégique CODIR.
Module 4 : Gouvernance locale & Charte d’usage
- Les zones rouges PE - Données sensibles relatives aux mineurs : santé, IP, informations judiciaires. - Contenus à fort enjeu éthique : évaluations, orientations, décisions de placement. - Risques de biais, discrimination ou stigmatisation.
- Chaîne de validation - Qui a le droit d'utiliser l’IA? - Pour quels types de documents? - Qui valide une production IA avant diffusion (responsable qualité, direction, éducateur référent)? - Où trace-t-on les usages IA? (registre interne des traitements)
- Charte d’usage IA – Protection de l’Enfance Les grands principes co-rédigés : - Transparence envers les équipes, les familles, les mineurs quand l’IA est utilisée. - Garantie humaine obligatoire pour toute décision impactant un enfant. - Principe de prudence : l’IA n'interprète jamais la psychologie ou les comportements. - Exigence de confidentialité maximale et cloisonnement des données. - Non-substitution à la relation éducative. - Interdiction des usages "ANRAS incompatibles" : - scoring de vulnérabilité, prédiction comportementale, fichage automatisé, etc.
Équipe pédagogique
Suivi de l'exécution et évaluation des résultats
- En amont de la formation : Questionnaire de positionnement
- En cours de formation : études de cas concrets ou mises en situation pratique ou quiz ou QCM selon programme
- En fin de formation : Questionnaire d’évaluation des acquis de la formation & évaluation de la satisfaction (questionnaire individuel et tour de table)
- Après la formation : Bilan à 3 à 6 mois
Ressources techniques et pédagogiques
- Supports de formation (diaporamas et documents numériques), fiches synthèse, études de cas, vidéos pédagogiques, exercices pratiques, quiz d’auto-évaluation, activités interactives, ressources numériques complémentaires et outils collaboratifs.
Modalités de certification
- À l’issue de la formation, les participants doivent avoir acquis les compétences listées dans les objectifs pédagogiques.
- Evaluation des acquis et Délivrance d'une attestation d'assiduité
- Formation Non Certifiante
Capacité d'accueil
Délai d'accès
Accessibilité
ANRAS Formation s'engage à offrir un environnement accessible à tous, incluant des locaux adaptés, des technologies inclusives, des supports pédagogiques variés, des services de soutien, et un référent handicap. Contact Référent Handicap : l.guerin@anras.fr