Sensibilisation à l’IA Générative d’un Groupe Médico-Social aux Antilles-Guyane

Accueil » Intelligence Artificielle » Sensibilisation à l’IA Générative d’un Groupe Médico-Social aux Antilles-Guyane

Comment Sécuriser les Usages et Gagner du Temps sans Compromettre la Confidentialité avec l’IA ?

 

L’intelligence artificielle générative s’invite désormais dans les établissements médico-sociaux.

Entre la promesse de gains de productivité réels et la réalité d’une charge administrative qui pèse sur les équipes soignantes, la question n’est plus de savoir si l’IA doit entrer dans les structures, mais comment le faire de manière éthique, conforme au RGPD et réellement utile au quotidien.

Dans cet article, nous revenons sur une expérience concrète menée par awitec avec un groupe médico-social martiniquais accompagnant enfants, adolescents et familles dans plusieurs structures.

Nous partageons les enseignements de cet atelier de sensibilisation à l’IA générative ; ses résultats, son approche pédagogique, et surtout les conditions indispensables pour que l’IA devienne un outil de soutien professionnel et non une source de risques.

 

Découvrez les différents sujets : 

Le médico-social face à une charge d’écrits professionnels considérable

Les professionnels du secteur médico-social ; éducateurs spécialisés, psychologues, infirmiers, assistants de service social, directeurs d’établissements, produisent chaque jour une quantité massive d’écrits professionnels : comptes rendus de réunions interprofessionnelles, bilans thérapeutiques, rapports de situation, communications aux familles, synthèses institutionnelles.

Une pression documentaire structurelle

Cette réalité n’est pas anecdotique. Elle est structurelle. Les exigences réglementaires, les procédures qualité et les logiques de reporting institutionnel ont progressivement alourdi la charge documentaire des équipes, au détriment parfois du temps consacré à l’accompagnement direct des personnes.

Pour les équipes de ce groupe médico-social martiniquais, trois défis principaux avaient été identifiés avant l’intervention d’awitec :

 

  • La charge d’écrits : des heures quotidiennes passées à rédiger des documents professionnels, souvent en dehors du temps de travail officiel.

  • Des compétences numériques hétérogènes : certains collaborateurs maîtrisaient déjà quelques outils numériques, d’autres n’avaient jamais utilisé un outil d’IA générative.

  • Des inquiétudes légitimes : peur de mal faire, de violer le secret professionnel, de produire des erreurs sans s’en apercevoir, de perdre la main sur leurs propres écrits.

Pourquoi le médico-social est un terrain particulièrement sensible pour l’IA

Le secteur médico-social manipule quotidiennement des données parmi les plus sensibles au regard du RGPD : données de santé, données psychologiques, données relatives à des mineurs, informations familiales confidentielles.

Ces données bénéficient d’une protection renforcée en droit européen.

Utiliser un outil d‘IA générative sans précaution dans ce contexte, c’est s’exposer à des risques réels : violation du RGPD, mise en cause de la responsabilité professionnelle, rupture de confiance avec les familles.

La formation ne peut donc pas se limiter à apprendre à « parler à ChatGPT », elle doit d’abord construire un cadre de confiance et de conformité.

Une approche pédagogique en trois temps : comprendre, sécuriser, pratiquer

L’atelier-conférence immersif conçu par awitec pour ce groupe s’est déployé sur 2h30, en présence de 80 collaborateurs. Ce n’est pas un événement passif, c’est une expérience de transformation, ancrée dans les réalités métier des participants.

Temps 1 — Démystifier l’IA générative

Avant de parler d’usages, il faut parler de ce qu’est vraiment l’IA générative. Beaucoup de professionnels abordent l’atelier avec des représentations erronées : l’IA « comprend », l’IA « sait », l’IA « est fiable ».

La réalité est plus nuancée. Un modèle de langage prédit statistiquement le prochain mot le plus probable, à partir de milliards de données d’entraînement.

Il n’a pas de conscience, pas d’accès à vos dossiers, pas de vérification des faits en temps réel.

Il peut produire des réponses fluides et convaincantes qui sont pourtant factuellement fausses, c’est ce qu’on appelle les « hallucinations ».

Comprendre ce mécanisme est la première condition d’un usage responsable : l’IA propose, l’humain valide. Toujours.

Temps 2 — Construire un cadre d’usage sécurisé

C’est le cœur de l’intervention. L’enjeu n’est pas d’interdire l’IA, ni de l’imposer sans garde-fous.

L’enjeu est de poser un cadre clair, partagé, et applicable dès le lendemain.

Les règles fondamentales de confidentialité

La règle d’or est simple et non négociable : aucune donnée personnelle identifiante ne doit être saisie dans un outil d’IA générative grand public non agréé. Cela inclut :

  • Les noms et prénoms des usagers, des familles, des collègues.
  • Les données médicales, psychologiques, ou de situation familiale.
  • Les coordonnées personnelles (adresse, téléphone, email).
  • Tout élément permettant d’identifier directement ou indirectement une personne.

La solution opérationnelle : travailler avec des données fictives, anonymisées ou généralisées (« l’enfant », « le patient », « les parents »). L’IA n’a pas besoin de connaître l’identité réelle pour vous aider à structurer un texte.

La traçabilité des usages

Utiliser l’IA ne dispense pas de traçabilité, elle l’exige. Chaque document produit avec assistance IA doit être clairement identifié comme tel dans les procédures internes de la structure.

Une mention simple en pied de document suffit : « Document préparé avec assistance IA, validé par [fonction] le [date] ».

Cette transparence n’est pas une faiblesse, c’est une posture professionnelle, cohérente avec les obligations de traçabilité qui pèsent déjà sur le secteur médico-social.

La responsabilité : c’est toujours l’humain qui signe

Quel que soit le niveau d’aide apporté par l’IA, le professionnel reste l’auteur et le responsable du document final.

L’IA est un outil, au même titre qu’un logiciel de traitement de texte.

Elle ne peut ni diagnostiquer, ni prescrire, ni décider. Elle peut reformuler, structurer, synthétiser, mais toujours sous contrôle humain.

Temps 3 — La pratique du prompt pour des usages métier concrets

La troisième phase de l’atelier est entièrement dédiée à la pratique. Les participants découvrent comment formuler des instructions efficaces à l’IA, ce qu’on appelle le « prompt », pour obtenir des résultats exploitables.

Un bon prompt ne s’improvise pas. Il obéit à une structure en six éléments : rôle confié à l’IA, objectif attendu, contexte précisé, contraintes à respecter, format souhaité, critères de succès.

Cette méthode, transposée aux réalités du médico-social, permet de passer d’une réponse générique à un texte professionnel utilisable directement.

> Découvrez notre article sur 8 étapes pour créer un prompt réussi dans ChatGPT

RGPD et IA dans le médico-social : ce que tout professionnel doit savoir

La question du RGPD mérite un développement spécifique, car elle concentre une grande partie des inquiétudes des professionnels et à juste titre.

Les données de santé, une catégorie particulière au sens du RGPD

Le Règlement Général sur la Protection des Données (RGPD) distingue des catégories de données dites « particulières », dont le traitement est soumis à des exigences renforcées.

Les données de santé en font partie, au même titre que les données génétiques, les données relatives à l’orientation sexuelle ou aux convictions religieuses.

Or, le traitement de ces données par un outil d’IA externe non agréé est interdit, sauf exceptions strictement encadrées.

Les établissements médico-sociaux qui utiliseraient ChatGPT ou un autre modèle grand public pour traiter des données relatives à leurs usagers s’exposent à des sanctions administratives et des risques réputationnels significatifs.

Les bonnes pratiques RGPD applicables dès maintenant

L’anonymisation systématique avant toute saisie

La première bonne pratique, et la plus simple à mettre en œuvre est l’anonymisation systématique de tout texte avant de le soumettre à un outil d’IA.

Supprimer les noms propres, remplacer les références identifiantes par des termes génériques, utiliser des initiales ou des fonctions : ces gestes simples permettent de bénéficier de l’aide de l’IA sans exposer les données personnelles.

Questionner chaque usage : en ai-je vraiment besoin ?

Avant d’utiliser l’IA pour une tâche, la question à se poser est : est-ce que cet usage présente un risque de divulgation de données sensibles ?

Si la réponse est oui, ou incertaine, la prudence s’impose. Le principe de précaution est ici un allié, pas un frein.

Mettre en place une charte d’usage interne

Les structures qui souhaitent autoriser l’usage de l’IA générative par leurs équipes ont tout intérêt à formaliser une charte d’usage interne.

Ce document définit quels outils sont autorisés, pour quels usages, avec quelles règles de confidentialité et de traçabilité. Il protège à la fois l’établissement et les professionnels.

L’IA peut-elle être utilisée légalement dans le médico-social ?

Oui, sous conditions. L’IA peut légalement soutenir la rédaction professionnelle dans le médico-social, dès lors que les données traitées sont anonymisées, que l’outil utilisé offre des garanties de sécurité appropriées, et que le professionnel assume la responsabilité du contenu produit.

Des solutions d’IA en environnement souverain ou sur site commencent également à émerger pour les structures qui souhaitent aller plus loin.

Les assistants IA personnalisés : une réponse sur-mesure pour le quotidien des équipes

L’une des grandes innovations pédagogiques de l’atelier awitec est l’introduction d’assistants IA personnalisés, configurés spécifiquement pour les besoins des professionnels du groupe médico-social.

Qu’est-ce qu’un assistant IA personnalisé ?

Un assistant IA personnalisé est une version configurée d’un modèle de langage, à laquelle on a assigné un rôle spécifique, des contraintes précises et un format de sortie défini.

Contrairement à un usage « généraliste » de ChatGPT ou d’un modèle équivalent, l’assistant personnalisé est préconfiguré pour un contexte métier : il connaît les formulations attendues, les rubriques à respecter, les règles de confidentialité à appliquer.

Pour les professionnels du médico-social, cela change tout : ils n’ont plus besoin de construire un prompt complexe à chaque utilisation.

Ils soumettent leurs notes ou leur dictée, et l’assistant produit un document structuré, conforme aux attendus professionnels.

Trois cas d’usage concrets déployés lors de l’atelier

Le bilan thérapeutique à partir d’une dictée orale

Les thérapeutes, psychomotriciens et psychologues passent souvent de longues minutes à mettre en forme leurs observations cliniques après une séance.

L’assistant dédié au bilan thérapeutique permet de transformer une dictée orale, parfois hésitante, avec des répétitions et des phrases incomplètes, en un document structuré en rubriques professionnelles : motif, contexte, observations, analyse, préconisations.

Le résultat est une base de travail que le professionnel relit, ajuste et valide.

Le temps de rédaction est réduit de manière significative, sans sacrifier la qualité ni la responsabilité professionnelle.

Le compte rendu de réunion interprofessionnelle

Les réunions de synthèse, de coordination ou de projet d’accompagnement individualisé (PAI) génèrent des comptes rendus que l’équipe doit produire rapidement, avec précision.

L’assistant dédié transforme des notes brutes anonymisées en un compte rendu structuré : ordre du jour, points discutés, décisions prises, actions à mener avec responsables et échéances.

La communication adaptée aux familles

Rédiger un mail aux familles demande de trouver le bon registre : chaleureux sans être familier, professionnel sans être froid, clair sans être brutal.

Plusieurs types de messages ont été couverts lors de l’atelier : l’information simple, la relance courtoise pour un document manquant, et l’annonce délicate d’une évolution de situation. L’assistant aide à trouver la juste tonalité, en respectant les règles de confidentialité.

Les livrables remis aux participants : une boîte à outils complète pour ancrer les pratiques

Une formation ne s’arrête pas à la salle. Pour qu’un atelier de sensibilisation à l’IA produise des effets durables, les participants doivent repartir avec des ressources immédiatement mobilisables dans leur quotidien professionnel.

À l’issue de cet atelier, chaque participant du groupe médico-social a reçu un ensemble de livrables pensés pour couvrir l’ensemble des besoins identifiés : comprendre les enjeux, sécuriser les pratiques, et produire efficacement.

Un guide structuré des bonnes pratiques

Ce document de référence synthétise les règles essentielles d’un usage responsable de l’IA générative dans le contexte médico-social : confidentialité, validation humaine, traçabilité, conformité RGPD. Il est conçu pour être affiché, partagé, et consulté régulièrement par les équipes.

Une fiche pratique de construction de prompts

La méthode en six étapes pour formuler une instruction efficace à l’IA, adaptée aux cas d’usage du médico-social.

Des exemples concrets avant/après illustrent la différence entre un prompt naïf et un prompt structuré et donc entre une réponse inutile et une réponse directement exploitable.

Un livret de prompts personnalisables par métier

Une bibliothèque de prompts modèles, organisée par type d’usage : rédaction professionnelle, communication institutionnelle, communication avec les familles.

Chaque modèle est conçu pour être personnalisé en fonction des spécificités de chaque structure et de chaque professionnel.

Des modèles prêts-à-l’emploi

Des templates directement utilisables pour les types de documents les plus courants : compte rendu de réunion, bilan thérapeutique ou pédagogique, mail d’information aux familles, relance courtoise, annonce délicate.

Ces modèles intègrent d’emblée les règles de confidentialité et les exigences de format professionnel.

L’accès à un assistant IA dédié

Au-delà des documents, les participants ont reçu l’accès à un assistant IA personnalisé, préconfiguré pour leur contexte professionnel.

Cet assistant constitue le lien entre la formation et la pratique quotidienne : il est disponible, prêt à l’emploi, et déjà paramétré pour respecter les contraintes métier et RGPD.

Résultats et impact : ce qui change concrètement pour les équipes

Quatre semaines après l’atelier, les retours du groupe médico-social permettent d’objectiver les changements produits par cette intervention.

Des équipes rassurées et mieux équipées

Le premier impact est d’ordre psychologique.

Beaucoup de professionnels abordaient l’IA avec une appréhension mêlée de culpabilité, certains l’utilisaient déjà, en cachette, sans savoir si c’était « autorisé ».

L’atelier a posé un cadre clair, dédramatisé les enjeux, et transformé une angoisse diffuse en compétence maîtrisée.

La direction du groupe l’a exprimé en ces termes : « La présentation a ouvert des perspectives dans chaque service. »

Des pratiques clarifiées et sécurisées

Les règles de confidentialité et de traçabilité, longtemps floues dans les usages informels, sont maintenant formalisées et partagées.

Les équipes savent ce qu’elles peuvent faire, ce qu’elles ne peuvent pas faire, et pourquoi.

Des gains de temps identifiés et mesurables

Les premiers tests avec les assistants personnalisés ont permis d’identifier des gains de temps réels sur la rédaction des bilans thérapeutiques et des comptes rendus de réunion.

Ces gains restent à quantifier précisément sur le long terme, mais les signaux qualitatifs sont positifs.

Les premières utilisations maîtrisées

Les participants ont commencé à intégrer l’IA dans leur quotidien professionnel, pas massivement, pas aveuglément, mais de manière ciblée, consciente et contrôlée.

C’est exactement l’objectif d’une formation à l’IA responsable.

Pourquoi confier la formation IA de vos équipes à awitec ?

awitec est le centre de formation de référence en intelligence artificielle et transformation digitale pour les Antilles-Guyane.

Certifié Qualiopi, labellisé Bpifrance, nous avons formé plus de 2 000 professionnels depuis 2015 dans des secteurs variés, entreprises, collectivités, établissements de santé, associations.

Une expertise sectorielle ancrée dans les territoires

Nous comprenons les réalités des Outre-mer : les enjeux de financement (OPCO, FSE+, Région), les particularités du tissu économique local, et les spécificités culturelles qui influencent les modes d’apprentissage.

Nos formations sont conçues pour les équipes telles qu’elles sont, pas pour un public abstrait.

Une pédagogie qui allie rigueur et accessibilité

Nos ateliers ne sont pas des conférences passives. Ce sont des expériences participatives, ancrées dans les situations réelles des professionnels.

Nous combinons démonstrations en direct, cas concrets, pratique guidée et ressources mobilisables immédiatement.

Un accompagnement au-delà de la formation

Notre engagement ne s’arrête pas à la journée de formation.

Nous accompagnons nos clients dans la durée : conception d’assistants IA personnalisés, création de chartes d’usage, co-construction de bibliothèques de prompts métier, suivi post-formation.

L’IA dans le médico-social est possible, à condition de la former avec rigueur

L’intelligence artificielle générative n’est pas une menace pour les professionnels du médico-social, c’est un outil à condition de l’adopter avec méthode, exigence et formation.

Les enjeux de confidentialité et de RGPD sont réels, mais ils ne sont pas insurmontables. Ils appellent simplement à une posture professionnelle rigoureuse, la même posture qui guide déjà le travail quotidien des équipes soignantes.

La formation que nous avons déployée pour ce groupe médico-social martiniquais en est la preuve : en 2h30, 80 professionnels ont pu passer de l’inquiétude à la maîtrise, et repartir avec les outils nécessaires pour agir dès le lendemain.

Vous dirigez ou accompagnez un établissement médico-social en Martinique, en Guadeloupe ou en Guyane ?

Contactez awitec pour concevoir ensemble une formation IA adaptée à vos équipes, vos contraintes et vos objectifs.

 

Réservez un Atelier IA, en complétant le formulaire ↓

Questions fréquentes sur l’IA générative dans le médico-social

Peut-on utiliser ChatGPT dans un établissement médico-social ?

Oui, sous conditions strictes. L’outil ne doit jamais recevoir de données personnelles identifiantes.

Les données de santé au sens du RGPD ne peuvent pas être traitées par un outil grand public non agréé.

En pratique, l’anonymisation préalable de tout texte soumis à l’IA est la condition minimale d’un usage conforme.

Qu’est-ce qu’un prompt dans le contexte professionnel médico-social ?

Un prompt est l’instruction rédigée par le professionnel pour demander à l’IA de produire un texte.

Un bon prompt précise le rôle de l’IA, l’objectif attendu, le contexte de la situation, les contraintes (confidentialité, ton, format), et les critères de succès.

Plus le prompt est précis, plus le résultat est exploitable.

La formation IA est-elle finançable par les OPCO pour le secteur médico-social ?

Oui. Les formations awitec sont éligibles aux financements OPCO (notamment OPCO Santé pour le secteur médico-social).

> Contactez-nous pour un montage personnalisé selon votre situation.

Combien de temps faut-il pour former une équipe médico-sociale à l’IA ?

Une sensibilisation efficace peut être réalisée en une demi-journée (2h30 à 3h) pour des groupes jusqu’à 100 personnes.

Pour des formations approfondies incluant la construction d’assistants IA personnalisés et la pratique intensive du prompting, nous recommandons un parcours de 6 à 12 heures.

awitec intervient-il uniquement en Martinique ?

Oui. awitec intervient sur l’ensemble des territoires des Antilles-Guyane : Martinique, Guadeloupe, Guyane française.

Nous proposons également des formations en format hybride (présentiel + distanciel) pour les structures géographiquement dispersées.

Cet article vous a plu ?
Découvrez nos autres articles de l’émission Terre d’Innovation :