L’Intelligence Artificielle Générative dans le Secteur Social

Stratégie et Gouvernance

Formation créée le 19/12/2025. Dernière mise à jour le 23/01/2026.
Version du programme : 1

Type de formation

Présentiel

Durée de formation

14 heures (2 jours)

Accessibilité

Oui
Net de TVA
S'inscrire
Net de TVA
S'inscrire
Net de TVA
S'inscrire
Besoin d’adapter cette formation à vos besoins ? N’hésitez pas à nous contacter afin d’obtenir un devis sur mesure ! Nous contacter

L’Intelligence Artificielle Générative dans le Secteur Social

Stratégie et Gouvernance


L’intelligence artificielle générative transforme profondément les organisations professionnelles, y compris celles du secteur social, un domaine où les missions de protection, d’accompagnement et de soutien aux publics les plus vulnérables s’exercent dans un cadre exigeant en matière d’éthique, de sécurité des données et d’efficacité opérationnelle. Dans ce contexte, les dirigeants sont confrontés à des défis organisationnels et stratégiques nouveaux : comment intégrer ces technologies sans compromettre la qualité humaine et sociale des interventions ? Comment anticiper les risques liés aux données sensibles, aux obligations réglementaires et aux usages à haut risque ? L’intelligence artificielle générative offre des opportunités considérables pour optimiser le pilotage stratégique des structures sociales : appui à la planification des ressources humaines, aide à la prise de décision, synthèse et analyse de données, production de documents et accompagnement de la qualité. Toutefois, ces bénéfices nécessitent une vision stratégique claire, des cadres de gouvernance robustes et une compréhension approfondie des enjeux éthiques, réglementaires et organisationnels propres au secteur social. Cette formation s’adresse spécifiquement aux dirigeants, membres d’équipe de direction, responsables opérationnels et cadres décisionnaires qui souhaitent appréhender l’intelligence artificielle générative comme un levier stratégique et non seulement comme un outil technologique. Elle leur permet de définir une stratégie IA cohérente avec les obligations du secteur (dont celles relatives à la protection des mineurs et des données), d’identifier les usages à haut risque, de concevoir des cadres d’usage responsables et d’intégrer l’IA de manière éthique et sécurisée dans leur gouvernance organisationnelle.

Objectifs de la formation

  • Définir une stratégie IA alignée avec les obligations du secteur : RGPD, AI Act, Code de l’Action Sociale et des Familles (CASF), référentiels HAS et recommandations CNIL concernant les mineurs.
  • Identifier les usages à haut risque dans les établissements de la PE : données sensibles, signalements, évaluations, informations préoccupantes, parcours de mineurs.
  • Utiliser l’IA comme outil de pilotage stratégique (RH, budget, qualité, projet d’établissement) sans dégrader la qualité du lien éducatif.
  • Co-construire une Charte d’usage de l’IA spécifique à la Protection de l’Enfance, incluant les principes de protection des mineurs, de transparence, et de garantie humaine.

Profil des bénéficiaires

Pour qui
  • Le directeur général et membres de l'équipe de direction.
  • Les directeurs opérationnels
  • Les chefs de projet
  • Les responsables des services
Prérequis
  • Maitrise des outils informatiques de base
  • Aucune compéténce technique en IA n'est requise

Contenu de la formation

Module 1 : Démystification & enjeux pour la Protection de l’Enfance
  • Ce que fait réellement l’IA (analyse, génération, automatisation) vs. ce qu’elle ne doit pas faire (remplacer l’évaluation éducative, produire un diagnostic implicite, "prévoir" le comportement d’un enfant).
  • Usages stratégiques en Protection de l’Enfance : - Appui au pilotage RH (planification, rédaction d’offres, entretiens structurés). - Anticipation budgétaire & allocations de ressources. - Aide à la rédaction : projets d’établissement, rapports d’activité, appels à projets, notes stratégiques. - Appui à la formalisation de procédures qualité HAS.
  • Panorama d’outils adaptés au secteur social : ChatGPT Enterprise, Copilot, Gemini, Mistral, modèles souverains on-premise, outils spécialisés (analyse documentaire, assistants de rédaction sécurisés).
Module 2 : Gouvernance, éthique et conformité – Spécifique Protection de l’Enfance
  • Cadre légal : - RGPD (données sensibles, mineurs, limitation des finalités). - AI Act : catégories de risques, obligations renforcées pour les systèmes utilisés dans l’accompagnement social. - Recommandations CNIL & Défenseur des droits sur les mineurs et l’IA. - CASF : responsabilité du directeur, délégation, secret professionnel.
  • Doctrine HAS : qualité, sécurité, "garantie humaine", transparence, traçabilité, non-discrimination.
  • Atelier “STOP ou ENCORE? – Cas de direction PE” - Peut-on faire analyser un projet pour l’enfant (PPE)? - Peut-on utiliser l’IA pour analyser des rapports éducatifs? - Peut-on générer un courrier aux familles ou une synthèse éducative? - Peut-on automatiser une priorisation d’informations préoccupantes? Chaque situation est analysée sous l’angle : risque → garanties → arbitrage du directeur.
Module 3 : Atelier pratique – "Prompting stratégique" pour Directeurs de PE
  • Techniques clés - Transformer des notes brutes (réunion éducative, CODIR, réunion avec l’ASE) en plan d’action managérial. - Rédiger avec l’IA tout en conservant le style institutionnel et les obligations de neutralité. - Méthode “3 prompts pour sécuriser une production sensible”.
  • Études de cas sectorielles - Réponse argumentée à un appel à projets PE / AEMO / placement. - Synthèse de veille réglementaire : nouvelles dispositions relatives aux mineurs, décisions judiciaires, évolutions du CASF. - Argumentaire pour un financeur ou partenaire institutionnel (Département, ARS, Préfecture). - Préparation d’un rapport d'activité ou d’un bilan stratégique CODIR.
Module 4 : Gouvernance locale & Charte d’usage
  • Les zones rouges PE - Données sensibles relatives aux mineurs : santé, IP, informations judiciaires. - Contenus à fort enjeu éthique : évaluations, orientations, décisions de placement. - Risques de biais, discrimination ou stigmatisation.
  • Chaîne de validation - Qui a le droit d'utiliser l’IA? - Pour quels types de documents? - Qui valide une production IA avant diffusion (responsable qualité, direction, éducateur référent)? - Où trace-t-on les usages IA? (registre interne des traitements)
  • Charte d’usage IA – Protection de l’Enfance Les grands principes co-rédigés : - Transparence envers les équipes, les familles, les mineurs quand l’IA est utilisée. - Garantie humaine obligatoire pour toute décision impactant un enfant. - Principe de prudence : l’IA n'interprète jamais la psychologie ou les comportements. - Exigence de confidentialité maximale et cloisonnement des données. - Non-substitution à la relation éducative. - Interdiction des usages "ANRAS incompatibles" : - scoring de vulnérabilité, prédiction comportementale, fichage automatisé, etc.

Équipe pédagogique

Notre équipe est composée d'intervenants hautement qualifiés et expérimentés, passionnés par la transmission des connaissances et des compétences spécifiques aux secteurs de la protection de l'enfance et de la famille et du social et médico-social. Chaque formateur chez ANRAS Formation possède une expertise pratique et théorique approfondie dans son domaine, garantissant ainsi des formations riches, pertinentes et impactantes.

Suivi de l'exécution et évaluation des résultats

  • En amont de la formation : Questionnaire de positionnement
  • En cours de formation : études de cas concrets ou mises en situation pratique ou quiz ou QCM selon programme
  • En fin de formation : Questionnaire d’évaluation des acquis de la formation & évaluation de la satisfaction (questionnaire individuel et tour de table)
  • Après la formation : Bilan à 3 à 6 mois

Ressources techniques et pédagogiques

  • Supports de formation (diaporamas et documents numériques), fiches synthèse, études de cas, vidéos pédagogiques, exercices pratiques, quiz d’auto-évaluation, activités interactives, ressources numériques complémentaires et outils collaboratifs.

Modalités de certification

Résultats attendus à l'issue de la formation
  • À l’issue de la formation, les participants doivent avoir acquis les compétences listées dans les objectifs pédagogiques.
Modalité d'obtention
  • Evaluation des acquis et Délivrance d'une attestation d'assiduité
Détails sur la certification
  • Formation Non Certifiante

Capacité d'accueil

Entre 8 et 15 apprenants

Délai d'accès

12 semaines

Accessibilité

ANRAS Formation s'engage à offrir un environnement accessible à tous, incluant des locaux adaptés, des technologies inclusives, des supports pédagogiques variés, des services de soutien, et un référent handicap. Contact Référent Handicap : l.guerin@anras.fr