Le présent modèle se veut un guide préliminaire pour élaborer une politique d’utilisation acceptable de l’intelligence artificielle (IA) générative pour votre organisme à but non lucratif (OBNL). Il comprend une liste de vérification pour chacune des étapes, des exemples et des questions à prendre en compte.
Au moment d’élaborer votre politique d’utilisation acceptable de l’IA générative, n’hésitez pas à consulter Une intelligence artificielle bien réelle : les termes de l’IA pour passer en revue les termes les plus courants.
Cette section de votre politique présentera des énoncés de valeurs qui décrivent les principes éthiques d’utilisation de l’IA de votre organisation. Ces principes orientent les décisions, les normes et les comportements liés à l’utilisation de l’IA générative. Par ailleurs, vos énoncés de valeurs doivent être en parfaite adéquation avec la mission, les convictions fondamentales, les normes et la culture de votre organisation, ainsi qu’avec les interactions avec vos parties prenantes. Ils sont fondés sur une compréhension des avantages et des défis liés à l’utilisation de l’IA au sein de votre OBNL. Pour des exemples d’énoncés de valeurs qui reflètent les principes éthiques d’une organisation en matière d’utilisation de l’IA, consultez Principes concernant l’IA de Google ou Principes directeurs pour l’utilisation de l’IA au gouvernement fédéral du Canada.
Lors de l’élaboration de cette section de votre politique, veillez à :
Exposer les valeurs fondamentales qui guident votre utilisation de l’IA;
Aborder le concept de « dividende en temps », c’est-à-dire la manière dont sera réinvesti le temps que l’IA permettra à votre organisation d’économiser;
Définir votre position sur l’utilisation de l’IA centrée sur l’humain.
Passez en revue les exemples de principes d’IA éthique ci-dessous et déterminez dans quelle mesure ils sont liés aux énoncés de valeurs de votre organisation :
Questions à prendre en compte :
Dans quelle mesure ces principes cadrent-ils avec la mission de votre organisation?
Quels sont les aspects éthiques particuliers, qui ne figurent peut-être pas dans la liste ci-dessus, qui découlent du travail effectué par votre organisation?
Les normes organisationnelles sont les attentes communes qui guident les actions et les interactions des membres du personnel. Ces normes ont une incidence sur la manière dont le travail est accompli et sur la façon dont le personnel communique et collabore, le tout à l’appui de la mission, de la culture et des activités globales de l’organisation. Votre politique d’utilisation acceptable de l’IA doit préciser les normes centrées sur l’humain, les cas d’utilisation ainsi que la sélection et la mise en place des outils.
Lors de l’élaboration de cette section de votre politique, veillez à :
Établir les critères de sélections des outils d’IA;
Définir la manière dont les outils d’IA seront intégrés aux flux de travail;
Préciser les outils approuvés et les outils interdits;
Décrire le processus de mise en place et de remboursement;
Définir les cas d’utilisation acceptables de l’IA, par exemple :
Création et révision de contenu,
Traduction,
Rédaction de synthèses,
Rédaction des notes de réunions,
Recherche,
Remue-méninges,
Analyse
Exemples de normes centrées sur l’humain :
Questions à prendre en compte :
Quelles tâches devraient toujours faire l’objet d’une supervision humaine?
Comment encouragerez-vous le personnel à cerner les cas d’utilisation avantageuse de l’IA?
Comment favoriserez-vous le partage des connaissances sur l’utilisation de l’IA parmi les membres du personnel?
Les garde-fous sont des règles qui soutiennent les principes éthiques énoncés à la section 1 et permettent de réduire les risques. La présente section doit fournir des directives claires sur la manière dont les membres du personnel doivent utiliser l’IA générative. La question des garde-fous devrait également être abordée lors de l’intégration et de la présentation des outils, de même que dans le cadre de la formation continue.
Lors de l’élaboration de cette section de votre politique, veillez à établir des garde-fous clairs pour les éléments suivants :
Équité et accès dans l’utilisation de l’IA;
Détection et atténuation des préjugés;
Protection de la vie privée;
Préservation de la confidentialité;
Garantie de l’exactitude des résultats de l’IA;
Respect de la propriété intellectuelle;
Transparence dans l’utilisation de l’IA;
Promotion de la durabilité;
Soutien des pratiques de travail équitable (en anglais seulement);
Autres aspects découlant de vos discussions.
Voici quelques exemples de garde-fous les plus courants :
Équité et accès
Préjugés
Vie privée
Vert : Utilisation en toute sécurité avec l’IA;
Jaune : Utilisation avec prudence; du caviardage pourrait être nécessaire;
Rouge : Utilisation interdite avec l’IA.
Déterminer si par défaut l’application est activée ou désactivée, et former le personnel sur la manière de démarrer ou d’arrêter l’application.
Confidentialité
Exactitude
Propriété intellectuelle
Transparence
Durabilité
Travail équitable
Questions à prendre en compte :
En quoi ces garde-fous soutiennent-ils les principes éthiques de votre organisation?
Quels sont les risques auxquels votre organisation est exposée et qui nécessitent des garde-fous particuliers?
Cette section de votre politique définit la stratégie de votre organisation concernant l’adoption de cette technologie, incluant la manière dont vous déploierez l’utilisation de l’IA au sein de votre organisation. Elle traitera également des possibilités d’apprentissage par les pairs, de formation, d’expérimentation et d’apprentissage ouvert. Enfin, cette section exposera les directives concernant la mise à jour et la révision de votre politique à intervalles réguliers, au fur et à mesure de l’adoption de nouveaux cas d’utilisation, de nouvelles plateformes et de nouveaux systèmes.
Voici un exemple de plan de déploiement d’une politique d’utilisation acceptable de l’IA générative :
Identifier un groupe pilote.
Concevoir une formation de base aux compétences en matière de messages-guides de l’IA.
Créer des possibilités d’apprentissage par les pairs.
Créer un guide ou un pôle interne sur l’IA :
Inclure des exemples de flux de travail;
Fournir des conseils en matière de messages-guides;
Créer des aide-mémoire et d’autres ressources.
Établir le calendrier de révision de la politique.
Créer des mécanismes pour recueillir les commentaires du personnel.
Définir les paramètres d’évaluation de l’efficacité de la politique d’utilisation acceptable de l’IA générative.
Planifier en vue de vous tenir au courant des aspects juridiques et de conformité.
Affecter des ressources (budget, temps, formation) en vue de l’adoption continue de nouveaux produits d’IA.
Questions à prendre en compte :
Comment encouragerez-vous l’expérimentation en restant dans des limites sûres?
Quelles ressources affecterez-vous à l’adoption continue de l’IA et à la formation dans ce domaine?
Comment adapterez-vous la politique au fil de l’évolution des technologies de l’IA?
Vous trouverez dans ce document des articles, des ressources et du matériel de formation, issus d’une sélection rigoureuse et annotée, qui vous permettront d’étoffer votre politique d’utilisation acceptable de l’IA générative.