Politique sur l’intelligence artificielle
Date de la politique : Cette politique a été approuvée le 21 novembre 2024.
1. Énoncé et portée de la politique
L’Institut des administrateurs de sociétés (IAS) reconnaît que les technologies d’intelligence artificielle (IA) sont des outils de transformation qui peuvent améliorer l’efficacité organisationnelle tout en présentant des risques importants en matière de gouvernance. Cette politique établit le cadre d’une adoption et d’une utilisation responsables de l’IA dans l’ensemble de l’IAS.
Cette politique établit les exigences et les lignes directrices obligatoires pour l’utilisation éthique et responsable des technologies d’intelligence artificielle au sein de l’IAS.
Dans le cadre de cette politique sur l’intelligence artificielle (IA), l’IAS s’engage à :
• mettre en œuvre des systèmes d’IA qui renforcent les capacités organisationnelles tout en protégeant les intérêts des parties prenantes;
• s’assurer que l’utilisation de l’IA est conforme aux lois et aux règlements en vigueur;
• garantir la transparence des décisions et des processus basés sur l’IA;
• maintenir des normes rigoureuses en matière de protection et de sécurité des données;
• offrir des formations et du soutien appropriés aux utilisateurs de l’IA;
• examiner et mettre à jour régulièrement les pratiques en matière d’IA afin de tenir compte des nouvelles normes.
Le déploiement sûr et éthique des technologies d’IA est essentiel pour préserver la confiance de nos membres, de notre personnel et de nos parties prenantes, tout en faisant progresser la mission de l’IAS, qui est de favoriser l’excellence dans le domaine de l’administration.
Cette politique s’applique à :
• l’ensemble des employés, des entrepreneurs, des bénévoles et du personnel effectuant des travaux pour l’IAS;
• toutes les technologies et les applications d’IA utilisées à des fins commerciales par l’IAS;
• tous les lieux où le travail de l’IAS est effectué, y compris les environnements éloignés;
• toutes les données traitées à l’aide de systèmes d’IA pour l’IAS.
2. Utilisation acceptable de l’IA
L’IAS adopte les principes fondamentaux décrits dans la section 2.1 afin de garantir que les technologies d’IA sont utilisées de manière éthique et responsable. Ces principes harmonisent les utilisations de l’IA à la mission de l’IAS, qui est d’encourager la transparence, la responsabilité et la confiance, en veillant à ce que l’IA soutienne les objectifs organisationnels tout en ayant une incidence sociale plus vaste. Une liste non exhaustive des utilisations acceptables et interdites de l’IA figure à l’annexe A.
2.1 Principes fondamentaux
2.1.1 Priorité au soutien de l’IA axée sur la personne
Concevoir des systèmes d’IA pour améliorer les capacités humaines en fournissant des analyses et des recommandations qui aident les utilisateurs à exercer leur rôle. L’IA doit servir d’outil de soutien, en maintenant l’indépendance de l’utilisateur et la prise de décision éclairée, sans exercer d’influence indue ni remplacer le jugement humain.
2.1.2 Respect des lois, des règlements et des politiques de l’IAS
Tous les systèmes d’IA doivent respecter les lois applicables, y compris la LPRPDE et les règlements provinciaux sur la protection des renseignements personnels à l’aide de pratiques adaptées à l’environnement du système. Dans le cas des systèmes d’IA fermés et internes, l’accès doit être contrôlé et il doit y avoir des pistes de vérification afin de protéger l’intégrité des données. Dans le cas des solutions d’IA de tierce partie, l’anonymisation des données, le chiffrage et des protocoles rigoureux des fournisseurs doivent être privilégiés afin de protéger les renseignements des membres. Dans tous les cas, l’utilisation de l’IA doit respecter les politiques de l’IAS (politique de protection des données, politique de confidentialité, Politique de prévention du harcèlement et de la discrimination en milieu de travail et Code de conduite des affaires et d’éthique).
2.1.3 Prévention des biais dans les systèmes d’IA
Les systèmes d’IA doivent être conçus et utilisés de manière à prévenir activement les biais et à garantir un traitement équitable de chaque personne. Il faut être conscient des biais communs qui peuvent être présents dans les systèmes d’IA, tels que le biais de données, le biais algorithmique et le biais de confirmation. Les résultats générés par l’IA doivent être examinés et évalués régulièrement pour déceler d’éventuels biais et imprécisions en obtenant l’avis de diverses personnes et de divers groupes de parties prenantes. Les biais et les efforts d’atténuation identifiés doivent être documentés et transmis aux parties prenantes concernées.
2.1.4 Transparence et ouverture d’esprit
Les systèmes d’IA doivent être déployés de manière transparente en indiquant leur rôle dans l’analyse et les recommandations. La divulgation de l’utilisation de l’IA dans les processus pertinents, le maintien d’une documentation détaillée sur les fonctionnalités et les limites et la confirmation de la transparence du fournisseur dans les opérations d’IA sont nécessaires pour renforcer la responsabilité et la confiance.
2.1.5 Usage abusif volontaire
L’usage abusif volontaire des systèmes d’IA désigne les actions délibérées visant à exploiter les outils d’IA d’une manière qui compromet les normes éthiques, juridiques ou morales et qui présente des risques pour la sécurité et la vie privée des personnes ou des organisations. Cela comprend les activités telles que la fraude basée sur l’IA (p. ex., les tentatives d’hameçonnage ou le vol d’identité), la discrimination (p. ex., le renforcement des biais dans les résultats de l’IA), l’atteinte à la vie privée (p. ex., la collecte non autorisée de données personnelles), l’utilisation malveillante (p. ex., les cyberattaques ou la fraude psychologique) et la diffusion de fausses informations. Il est strictement interdit aux utilisateurs de se livrer à toute forme d’usage abusif volontaire et tout incident doit être signalé rapidement à un superviseur ou aux personnes appropriées.
2.1.6 Usage abusif involontaire
L’usage abusif involontaire des systèmes d’IA désigne les situations dans lesquelles des utilisateurs sans intention malveillante utilisent des outils d’IA d’une manière qui entraîne des conséquences négatives ou un préjudice (y compris la violation des droits d’auteur). Cela peut être dû à un manque de compréhension, à une formation insuffisante ou à un oubli lors de l’utilisation de l’IA.
2.1.7 Signalement de l’usage abusif
Les utilisateurs sont encouragés à signaler tout usage abusif soupçonné des systèmes d’IA, qu’il soit intentionnel ou non, à leur superviseur ou à toute autre personne appropriée. Les signalements peuvent être effectués anonymement par l’entremise de la ligne de dénonciation de l’IAS [Connexions ClearView] et seront traités de manière confidentielle.
2.1.8 Processus d’évaluation et d’approbation
En plus de respecter la délégation des pouvoirs de l’IAS, tous les outils d’IA doivent faire l’objet d’une évaluation et recevoir, au minimum, l’approbation du chef des affaires administratives, du service des TI et du responsable de la protection de la vie privée avant d’être utilisés. Des approbations supplémentaires peuvent être requises de la part de l’équipe de haute direction, en fonction de la portée et de l’incidence. Cette évaluation permettra d’évaluer la fonctionnalité de l’outil, sa conformité aux objectifs de l’IAS, son niveau de sécurité, ses normes de confidentialité et la fiabilité du fournisseur. L’IAS effectuera ou demandera également des évaluations régulières après le déploiement pour vérifier la conformité et le rendement.
2.1.9 Amélioration et suivi continus
Tous les systèmes d’IA doivent faire l’objet d’évaluations et de mises à jour régulières afin de s’adapter à l’évolution des besoins de l’organisation, aux progrès technologiques et aux changements réglementaires. La rétroaction des utilisateurs et des parties prenantes doit être prise en compte et le rendement de l’IA doit être surveillé afin de respecter les normes éthiques et de qualité de l’IAS.
2.2 Responsabilités de l’utilisateur
2.2.1 Exercer un jugement professionnel
Les utilisateurs doivent faire preuve d’un jugement professionnel et être conscients de l’incidence de l’IA sur les parties prenantes, les droits de la protection des renseignements personnels et la réputation de l’IAS.
2.2.2 Assurer une utilisation claire et réfléchie
Les technologies d’IA doivent être utilisées pour améliorer la productivité, soutenir la prise de décision éclairée, fournir des recommandations et générer des connaissances, en accordant la priorité à l’intégrité éthique et aux droits des parties prenantes.
2.2.4 Formation et soutien
L’IAS fournira des formations, des ressources et du soutien pour s’assurer que les utilisateurs comprennent l’utilisation responsable et éthique de l’IA. Les formations porteront sur les limites, les risques et les meilleures pratiques de l’IA. Les utilisateurs sont encouragés à consulter le service des TI ou les responsables désignés pour obtenir des conseils sur les pratiques acceptables en matière d’IA.
2.3 Administration de la politique
2.3.1 Examens et mises à jour
L’IAS examinera cette politique au moins une fois par année ou en cas de changements importants apportés à la technologie d’IA, aux exigences réglementaires ou à la stratégie organisationnelle. Les mises à jour seront communiquées à l’ensemble de l’organisation et seront accompagnées d’une formation appropriée si nécessaire.
Annexe A
Utilisations autorisées détaillées de l’IA
1. Création et amélioration des documents
Élaboration de document : élaboration de documents professionnels, notamment des présentations, des procès-verbaux de réunions, des notes, des notes de service et des ébauches de politiques.
Génération de contenu : génération, amélioration et personnalisation du contenu grâce à la révision, la traduction et la mise en forme assistées par l’IA.
Résumés automatisés : production d’analyses et de résumés automatisés de longs documents, d’articles et de transcriptions de réunions.
2. Recherche et développement
• Recherches préliminaires : recherches préliminaires et rédaction de résumés des sources, y compris les tâches de recherche initiale, l’identification des sources et les résumés des documents de référence pour le marketing, les programmes de formation et l’organisation d’événements.
• Documentation technique : développement technique et élaboration de contenu pour la rédaction et l’amélioration de la documentation des processus, des scripts de codage de base et des manuels d’orientation, y compris la génération de contenu de base pour les projets en cours.
• Conceptualisation créative : conceptualisation créative et génération de concepts initiaux pour les projets, y compris les campagnes de marketing, les thèmes des congrès et les initiatives de formation.
3. Engagement des membres et des parties prenantes
• Campagnes personnalisées : production de campagnes de communication, y compris des courriels, des invitations à des événements et des bulletins électroniques, personnalisées à l’aide de l’IA en fonction des profils des membres, de l’historique d’engagement et des champs d’intérêt exprimés afin d’améliorer la pertinence et la communication.
• Analyse de la rétroaction : analyse des sondages et des commentaires pour identifier les tendances, les opinions et les aspects à améliorer à l’aide d’une analyse basée sur l’IA des commentaires tirés des sondages, des médias sociaux et de la participation aux événements afin d’en tenir compte dans le cadre des services aux membres et de l’élaboration des programmes.
• Réponses automatisées : réponses automatisées aux demandes des membres à l’aide d’agents conversationnels ou d’outils de messagerie basés sur l’IA pour gérer les demandes courantes, répondre rapidement et libérer des ressources pour les demandes plus complexes.
4. Marketing et sensibilisation
• Évaluation des clients potentiels : évaluation et classification des membres potentiels à l’aide de l’IA en fonction de leur historique d’engagement, de leur rôle, de leur secteur d’activité et de leur niveau d’intérêt afin de permettre une diffusion ciblée..
• Édition de contenu : édition de contenu pour les médias sociaux et le Web, y compris des ébauches et des suggestions générées par l’IA pour les messages des médias sociaux et le contenu du site Web basé sur les sujets de gouvernance en vigueur, tout en respectant la voix et les valeurs de l’IAS..
• Promotion d’événements : ciblage et promotion d’événements en identifiant les périodes optimales pour la promotion d’événements et en adaptant les invitations aux participants potentiels en fonction de leur historique d’engagement, ce qui accroît la participation et la pertinence..
5. Formation et perfectionnement professionnel.
• Recommandations de parcours d’apprentissage : recommandations automatisées de parcours d’apprentissage, y compris des suggestions de cours, de webinaires ou de certifications basées sur l’IA et adaptées aux antécédents professionnels des membres, aux participations antérieures à l’IAS et aux tendances du secteur..
• Création de contenu de formation : création de contenu pédagogique à l’aide de l’IA pour la rédaction du matériel de formation, des évaluations et du contenu interactif, ce qui permet aux éducateurs de l’IAS de se concentrer sur la conception des programmes et la validation du contenu..
• Suivi des compétences : suivi des compétences et rappels personnalisés en surveillant les progrès des membres en ce qui a trait aux certifications, aux exigences du titre IAS.A et aux crédits de formation continue et en envoyant des rappels automatiques pour garantir l’achèvement des tâches dans les délais impartis..
6. Efficacité opérationnelle.
1. Accueil et formation du personnel : accueil et formation du personnel à l’aide de parcours de formation personnalisés par l’IA, de ressources et de FAQ automatisées favorisant le respect de la culture et des valeurs de l’IAS..
2. Optimisation de la charge de travail : optimisation de la charge de travail et automatisation des tâches pour identifier et automatiser les tâches administratives habituelles, comme la planification, la production de rapports et la saisie de données, ce qui permet aux équipes d’accorder la priorité aux initiatives stratégiques..
3. Analyse des données : analyses des données par l’IA, y compris des analyses prédictives, pour soutenir la prise de décision..
7. Autre.
1. Toutes les autres utilisations doivent être approuvées au préalable par le chef des affaires administratives.
Utilisations interdites des systèmes d’IA
1. Fraude et tromperie
1. Fraude basée sur l’IA : utilisation de l’IA pour manipuler ou tromper des personnes ou des organisations par l’entremise de tentatives d’hameçonnage, de vols d’identité ou d’émission non autorisée de produits financiers.
2. Diffusion de fausses informations : utilisation de l’IA pour créer, distribuer ou amplifier des informations fausses ou trompeuses dans le but de tromper ou d’induire en erreur.
2. Protection de la vie privée et usage abusif des données
3. Atteinte à la vie privée : collecte, consultation ou diffusion de données personnelles par l’entremise de l’IA, sans consentement éclairé, ce qui constitue une violation du droit à la vie privée et des normes de l’IAS en matière de protection des données.
4. Surveillance non autorisée : utilisation de l’IA pour surveiller sans autorisation les activités, la localisation ou les communications d’une personne. Cela exclut la surveillance électronique dans le cadre de la politique de surveillance électronique du personnel.
5. Violations de la vie privée : divulgation d’informations personnelles, confidentielles ou sensibles à des systèmes d’IA publics sans l’autorisation du chef des affaires administratives et sans tenir compte de l’anonymisation, du chiffrage ou du respect des normes de protection de la vie privée.
6. Divulgation de données exclusives : partage d’informations sensibles, exclusives ou confidentielles de l’IAS avec des systèmes d’IA sans l’accord préalable du chef des affaires administratives.
3. Discrimination et manipulation
7. Préjugé et discrimination : utilisation de résultats d’IA qui renforcent les préjugés ou entraînent un traitement discriminatoire à l’égard de personnes ou de groupes, en particulier lorsque les préjugés sont intégrés dans les algorithmes d’IA ou les données d’entraînement.
8. Personnalisation manipulatrice : utilisation de l’IA pour cibler et influencer le comportement de personnes d’une manière qui pourrait causer des dommages.
4. Menaces pour la cybersécurité
9. Utilisation malveillante : déploiement de l’IA dans le cadre de cyberattaques, comme des tentatives d’hameçonnage, de fraude psychologique ou d’exploitation des vulnérabilités des systèmes.
5. Usage abusif du contenu et de la propriété intellectuelle
10. Violation du droit d’auteur : génération de résultats qui violent des droits d’auteur, ce qui entraîne une utilisation non autorisée de la propriété intellectuelle d’une tierce partie.
11. Vol de propriété intellectuelle : utilisation de l’IA pour reproduire, copier ou utiliser de manière abusive du contenu exclusif, y compris des documents protégés par des droits d’auteur, des marques de commerce ou des secrets commerciaux, sans autorisation.
12. Contenu inapproprié : création ou partage de contenu généré par l’IA qui est inapproprié ou illégal, tel que défini dans la politique de surveillance électronique du personnel.
6. Harcèlement et abus
13. Harcèlement automatisé : utilisation de l’IA pour générer ou diffuser du contenu abusif, harcelant ou diffamatoire, que ce soit par l’entremise d’agents numériques ou d’autres outils automatisés, causant de la détresse ou portant atteinte à la réputation.