Une charte pour cadrer, sécuriser et accompagner les usages de l'intelligence artificielle, en cohérence avec notre mission sociale auprès des jeunes.
Découvrir la charte →L'IA est déjà utilisée dans nos équipes, parfois sans cadre. Plutôt que d'interdire ou de laisser faire, nous choisissons une troisième voie : encadrer pour permettre.
Elle ne permet pas d'utiliser n'importe quelle IA pour n'importe quel usage. Elle pose un cadre protecteur et partagé, en cohérence avec notre mission sociale.
Nous reconnaissons les usages existants, sans culpabilisation. L'objectif est de protéger les jeunes accompagnés, les salarié·e·s et les données sensibles, tout en gagnant en efficacité.
L'IA est déjà là. La question n'est plus faut-il y aller, mais comment le faire correctement.
Pas besoin d'être expert·e. Voici ce qu'il faut retenir avant tout usage.
Un outil logiciel qui produit du texte, des résumés ou des analyses à partir de ce qu'on lui demande. Elle s'appuie sur d'immenses bases de données, mais elle ne comprend pas comme un humain.
Ce n'est pas une source de vérité. Elle peut inventer des informations, se tromper avec assurance, ou refléter des biais. Elle ne remplace ni votre jugement, ni la confidentialité que vous devez à un jeune.
L'IA doit servir notre raison d'être : accompagner les jeunes vers l'autonomie. Jamais l'inverse.
Aucune décision concernant un·e jeune, un·e salarié·e ou un partenaire ne peut être déléguée à une IA.
Un parcours de vie ne se résume pas à des données. Notre accompagnement reste relationnel, humain, situé.
Une grille simple, par cas concrets. En cas de doute, la règle est claire : on s'abstient et on demande.
Reformuler un mail, améliorer la lisibilité d'un compte rendu, traduire un courrier non confidentiel.
Reformuler une note interne pour la rendre plus claire.
Résumer un texte réglementaire, un article, un rapport public — à condition de relire et de vérifier les sources.
Synthétiser un texte de loi pour une note de cadrage.
Préparer un ordre du jour, structurer une présentation, brainstormer sur un sujet générique.
Lister des idées pour un atelier collectif.
Mettre en forme un tableau, écrire une formule Excel, expliquer une procédure interne anonymisée.
Demander à l'IA d'expliquer une formule Excel complexe.
Comprendre un concept, explorer un sujet métier, se former à un outil. L'IA est un excellent compagnon d'apprentissage.
Demander une explication simple de l'AI Act européen.
Génération de variantes de texte, mise en forme, conversion de formats — sur des contenus non personnels.
Convertir un texte en plusieurs longueurs pour différents canaux.
Aucune donnée nominative, situation individuelle, parcours d'insertion ou information sensible ne doit être saisie dans une IA grand public non validée par la DSI.
Coller un dossier candidat dans une IA gratuite type ChatGPT, Gemini ou Claude grand public.
Aucune décision impactant un·e jeune (admission, sanction, orientation) ou un·e salarié·e (recrutement, évaluation) ne peut être prise par une IA.
Refuser un dossier sur la base d'un score IA.
Bulletins de paie, contrats, dossiers disciplinaires, situations médicales : interdiction stricte d'utiliser une IA externe non validée par la DSI.
Demander à une IA grand public de rédiger une lettre de licenciement avec données réelles.
Pas d'outil IA en dehors de la liste validée DSI : risque de fuite de données vers des serveurs hors UE ou non sécurisés. « Si c'est gratuit, c'est vous le produit. »
Tester une nouvelle IA "miracle" trouvée sur LinkedIn avec des données pro.
Aucun courrier signé, aucun texte engageant l'ALJT ne peut être publié sans relecture humaine et validation hiérarchique.
Envoyer une réponse à la presse générée 100 % par IA.
Génération de fausses voix, fausses photos, faux témoignages d'un·e jeune, d'un·e collègue ou d'un partenaire — interdit, même "pour rire".
Cloner la voix d'un·e collègue pour un message vocal.
L'IA produit parfois des informations fausses avec une grande assurance. Elle peut inventer des chiffres, des références, des sources.
Le réflexe : toujours relire, vérifier les chiffres, contrôler les sources avant de diffuser.
L'IA peut aider à préparer une décision (synthèse, options) — jamais à la prendre. La responsabilité reste humaine et hiérarchique.
Le réflexe : utiliser l'IA pour réfléchir, pas pour trancher.
Tout texte saisi dans une IA grand public non validée par la DSI peut être enregistré, utilisé pour entraîner l'outil, voire ressortir ailleurs. « Si c'est gratuit, c'est vous le produit. »
Le réflexe : avant de coller, demandez-vous : « Est-ce que je publierais ça sur le site de l'ALJT ? »
Une IA "découverte sur LinkedIn" peut héberger ses données aux États-Unis, en Chine, ou les revendre. Sans validation DSI, le risque est trop élevé.
Le réflexe : avant tout nouvel outil, valider avec le référent IA / DSI.
Les IA reflètent les biais de leurs données d'entraînement. Sur des publics fragiles, sur l'égalité H/F, sur la diversité, ces biais peuvent être discriminatoires.
Le réflexe : doute systématique sur tout texte IA qui parle de personnes ou de groupes.
Même certaines versions "pro" non-licenciées par l'ALJT conservent des historiques. Mieux vaut considérer toute saisie comme potentiellement vue par d'autres.
Le réflexe : si vous ne le diriez pas en réunion publique, ne l'écrivez pas dans une IA.
Pour rendre la charte concrète : un avant / après inspiré de cas réels — un côté métier d'accompagnement, un côté fonction support.
Résidence R'JT · 15 jeunes en file active
Lundi 8h47. Julie doit rédiger une note pour la commission d'attribution de jeudi : 3 candidatures à présenter, dont une avec un parcours sensible (rupture familiale, hébergement d'urgence). Elle est en retard, le café est froid. Tentation : ouvrir ChatGPT, coller les 3 dossiers, demander un résumé.
Julie copie-colle les 3 dossiers complets dans ChatGPT gratuit : nom, prénom, situation sociale, ressources, n° de dossier.
Résultat : un résumé en 2 minutes. Mais des données nominatives partent vers les serveurs OpenAI, hors UE, exploitables pour entraîner le modèle. Brèche RGPD majeure, sans qu'elle s'en rende compte.
Julie reformule sa demande : elle remplace les noms par "Candidat A / B / C", retire les données personnelles, et garde uniquement la structure de raisonnement qu'elle veut clarifier.
Elle demande à l'IA : « Aide-moi à structurer une note de commission selon ce plan… ». L'IA produit une trame, Julie injecte les vraies données après coup, en local. Gain de temps préservé, données protégées.
Siège · gestion administrative du personnel
Mardi 14h. Marc reçoit une demande de la DRH : préparer un courrier de réponse à un·e salarié·e qui a fait une demande de congé sabbatique inhabituelle. Il y a un cadre légal complexe à mobiliser. Marc n'est pas juriste. Tentation : coller la demande complète dans une IA grand public pour avoir un brouillon clé en main.
Marc colle dans Gemini gratuit : le mail du salarié, le nom, la fonction, la date d'ancienneté, et demande "rédige une réponse RH".
Résultat : un courrier qui semble pro mais cite des articles du Code du travail inventés. Pire : les informations RH du salarié sont désormais hors de l'ALJT, sans son consentement.
Marc utilise l'IA en deux étapes séparées. D'abord il demande : « Quel est le cadre légal général du congé sabbatique en droit français ? » — sans aucune donnée individuelle.
Ensuite il rédige lui-même la réponse en mobilisant ce cadre, et la fait valider par la DRH. L'IA a servi de copilote pédagogique, pas de rédacteur. Aucune donnée RH n'a quitté l'ALJT.
La charte pose les règles. La formation permet de bien les appliquer — sans crainte, sans bricolage, et avec efficacité. Voici le dispositif concret que l'ALJT met à disposition.
Une session courte pour démystifier l'IA générative : ce qu'elle est, ses limites, les premiers réflexes. Accessible à tou·te·s, en visio.
Cas concrets ciblés par fonction : RH, accompagnement social, communication, finance. On manipule, on échange, on adapte.
Un mémo PDF de 4 pages : exemples de bons prompts, anti-patterns, checklist avant chaque usage. À garder sous la main.
Un point de contact unique côté DSI pour valider un nouvel outil, débrider un cas tordu, signaler un doute. Réponse sous 48h ouvrées.
L'objectif n'est pas de contrôler les équipes, mais de leur donner un cadre pour utiliser l'IA en confiance.
Pour aller plus loin : ce que dit le droit, comment l'ALJT se positionne, et les bonnes pratiques RSSI / juriste à connaître. Cliquez pour déplier.
Référence Règlement (UE) 2024/1689 — entré en vigueur en août 2024, application progressive jusqu'en 2027.
L'AI Act classifie les systèmes d'IA en 4 niveaux de risque : inacceptable (interdit), haut risque (très encadré), risque limité (transparence), risque minimal (libre).
Positionnement ALJT : les usages couverts par cette charte (rédaction, synthèse, organisation administrative, sans données personnelles sensibles) relèvent du risque minimal. L'ALJT ne déploie aucun système d'IA "haut risque" au sens de l'AI Act (pas de scoring social automatisé, pas d'évaluation automatisée des candidats au logement, pas de surveillance biométrique).
Article 4 Depuis le 2 février 2025, l'AI Act impose une obligation d'AI literacy : toute organisation doit garantir un niveau suffisant de compréhension de l'IA chez les personnes qui l'utilisent. C'est pourquoi le dispositif de formation décrit en section 5 est obligatoire pour tout collaborateur amené à utiliser l'IA dans le cadre professionnel.
Principe Considérez que tout prompt saisi dans une IA grand public est conservé par l'éditeur — souvent à des fins d'entraînement de modèle, parfois en dehors de l'UE.
Risques RGPD : sortie de données personnelles hors du périmètre de responsabilité ALJT, transferts hors UE non encadrés, impossibilité d'exercer le droit à l'effacement (les prompts intégrés à un modèle ne peuvent plus être "retirés").
Règle ALJT : aucune donnée personnelle (jeune, salarié·e, partenaire) ne doit être saisie dans une IA non validée par la DSI. L'anonymisation doit être faite avant tout copier-coller, pas après.
Bonne pratique Si l'usage est récurrent, désactivez les options de "training" / "amélioration du modèle" dans les paramètres de l'outil — quand c'est proposé.
État du droit En France et en UE, un contenu produit uniquement par une IA n'est pas protégé par le droit d'auteur (qui exige une "création intellectuelle propre à son auteur" — donc humaine).
Conséquences pratiques pour l'ALJT :
1. Un texte généré par IA et publié tel quel n'est pas protégé : un tiers peut le réutiliser librement.
2. À l'inverse, le contenu IA peut reproduire involontairement des œuvres protégées présentes dans ses données d'entraînement (risque de contrefaçon).
3. Ne signez jamais comme "création originale" un contenu produit majoritairement par IA (rapport, article, support pédagogique).
Règle ALJT L'IA produit des brouillons. La réécriture humaine substantielle est ce qui fait du contenu final une création protégeable et engageant l'ALJT.
Principe Tout document produit avec l'aide d'une IA et utilisé en contexte professionnel engageant (réponse à un partenaire, note interne, support de réunion, courrier officiel) doit être tracé comme tout autre document métier.
Bonnes pratiques :
• Conserver une trace de l'usage IA (par exemple : mention "version assistée par IA, relue le JJ/MM" dans le pied de page d'un document interne).
• Pour les documents engageants l'ALJT (juridique, RH sensible, communication officielle), la relecture humaine doit être documentée (qui a relu, quand).
• Les durées de conservation suivent les règles habituelles ALJT (RGPD, durées légales métier) — l'origine "IA" ne change pas la règle de conservation, seulement la traçabilité de la production.
Pourquoi En cas d'audit (DPO, CNIL, AI Act), il faut pouvoir démontrer que l'IA a été utilisée comme support, pas comme décideur — d'où l'importance de tracer.
Pourquoi cette distinction est centrale ? Une IA "validée DSI" implique un cadre contractuel signé entre l'ALJT et l'éditeur (clauses RGPD, hébergement UE, engagement de non-réutilisation des données pour entraînement). Une IA "grand public gratuite" n'offre aucune de ces garanties.
Validées (cadre contractuel ALJT) Outils faisant l'objet d'un contrat éditeur signé avec engagements RGPD/sécurité — la liste exacte est tenue à jour par la DSI et accessible sur l'intranet.
Non-validées (par défaut) Toutes les IA grand public gratuites : ChatGPT (sans licence ALJT), Gemini grand public, Claude grand public, Perplexity gratuit, Mistral Le Chat gratuit, Copilot personnel non lié à la licence ALJT, etc.
Évolution : cette frontière bougera. Cette charte évoluera en V2 dès que l'ALJT déploiera officiellement des outils IA (Copilot M365 sous contrat, IA souveraine, etc.) — chaque déploiement s'accompagnera de notes d'usage spécifiques.
Cette charte n'a de valeur que si chacun·e se l'approprie. Mon engagement est volontaire, individuel, et il vaut comme une parole donnée à mes collègues et aux jeunes que nous accompagnons.