Répercussions sociales et culturelles de l’intelligence artificielle : une place à la table des politiques
Les débats stratégiques sur l’intelligence artificielle (IA) se sont intensifiés dans le monde entier. Dans le présent billet de blogue, nous parlerons de l’état d’avancement de ces débats au Canada à la suite d’une récente discussion en table ronde avec des hauts fonctionnaires animée par le Centre de politique culturelle. Nous examinerons pourquoi les politiques en matière d’IA sont importantes pour les arts, la culture et les industries créatives et comment s’impliquer.
Les politiques en matière d’IA ne sont pas un domaine nouveau. Toutefois, les efforts des gouvernements pour mettre en place des politiques et des cadres sont devenus plus urgents à mesure que les systèmes d’IA deviennent à la fois plus puissants et plus omniprésents. Des outils récents d’IA générative tels que ChatGPT ont permis à toute personne disposant d’un ordinateur d’utiliser l’IA pour tout, de la création d’images à la création d’hypertrucages et à la diffusion de mésinformation, et ce, après avoir lancé quelques invites simples.
En même temps, les systèmes d’IA ouvrent de nouvelles voies créatives et offrent un nouveau potentiel. Comme nous l’avons examiné dans un récent billet de blogue sur les répercussions de l’IA générative sur les arts, de nombreux artistes et experts du secteur des arts et de la culture utilisent l’IA dans le cadre de leur travail et participent activement aux discussions sur les politiques en matière d’IA. Récemment, un certain nombre d’artistes et de dirigeants du secteur de la culture ont répondu à la consultation du gouvernement fédéral sur le droit d’auteur et l’IA générative, qui s’est terminé le 15 janvier 2024. (Pour obtenir de plus amples renseignements sur la manière dont les personnes ont été invitées à participer, voir notre trousse sur la consultation sur l’IA.)
Le Centre travaille de concert avec les personnes qui travaillent déjà dans ce domaine pour établir un lien entre ces conversations et renforcer la capacité du secteur à contribuer à l’élaboration de politiques en matière d’IA.
L’IA est un domaine de politique publique complexe : la technologie évolue rapidement, a des répercussions mondiales, recoupe plusieurs questions stratégiques et présente des défis en ce qui touche le bien-être économique, social et culturel. Les gouvernements subissent des pressions pour trouver un équilibre entre les politiques et la réglementation qui favorise le bien collectif. Des experts du monde entier, y compris du Canada, réclament des approches sécuritaires, éthiques et équitables pour le développement et l’utilisation de l’IA, afin de veiller à ce qu’elle apporte des avantages nets aux personnes qui l’utilisent ou qui sont touchées par cette dernière. L’Organisation de coopération et de développement économiques (OCDE) appelle cela une approche « axée sur l’être humain » à l’égard du développement de l’IA.
En d’autres termes, les décideurs politiques cherchent à trouver un équilibre entre les possibilités offertes par l’IA et les risques qu’elle présente pour l’économie, la sécurité, ainsi que le bien-être social et culturel.
Il s’agit du point de départ d’une discussion en table ronde que le Centre de politique culturelle a été invité à co-créer et à animer en collaboration avec le ministère du Patrimoine canadien.
En 2023, le plus haut fonctionnaire du gouvernement du Canada, le greffier du Conseil privé John Hannaford, a lancé un processus d’élaboration de politiques visant à tenir compte des enjeux qui auront une incidence importante sur le Canada au cours des 10 prochaines années, y compris l’IA. M. Hannaford a invité le groupe de hauts fonctionnaires qui dirigent les ministères, soit les sous-ministres, à revoir les idées traditionnelles sur l’élaboration de politiques et à trouver de nouveaux points de vue sur les questions clés auxquelles le pays fera face au cours de la prochaine décennie. https://policyoptions.irpp.org/magazines/december-2023/dms-future-public-service/ (en anglais seulement)
L’objectif de cette table ronde était de permettre à des hauts fonctionnaires de nombreux ministères de rencontrer un groupe d’experts canadiens afin d’examiner les répercussions sociales et culturelles de l’IA, notamment : la cohésion sociale et la confiance dans les institutions démocratiques; l’inclusion, la diversité, l’équité et l’accessibilité; la créativité et l’identité culturelle; de même que l’éducation et l’apprentissage.
Présidée par la sous-ministre du Patrimoine canadien, Isabelle Mondou, et animée par moi-même, la discussion a porté sur un large éventail de sujets, allant de l’incidence de l’IA sur les créateurs, la créativité et l’identité culturelle – y compris la propriété intellectuelle et le droit d’auteur – à ce qui constitue une IA éthique et équitable, y compris les préjudices causés par des systèmes partiaux, en particulier pour les personnes racialisées.
Les experts présents à la table ont clairement indiqué que l’impact de l’IA sur la société ne peut pas être une réflexion stratégique après coup : à l’instar de tous les domaines de politiques, il incombe au gouvernement de donner la priorité aux particuliers. L’un des experts a souligné que la mesure de la réussite doit passer de la croissance économique, de l’innovation et de la productivité au « rendement des investissements pour les citoyens ».
La discussion a ensuite porté sur la manière dont le Canada pourrait élaborer des politiques susceptibles de lui permettre de réaliser ce changement proposé :
1) Les décideurs politiques ont besoin d'un engagement significatif avec la population en ce qui concerne les résultats que nous souhaitons pour notre société à la suite de l’évolution de l’IA. Un expert a proposé de renverser les priorités en matière de mise au point de l’IA. Au lieu de mettre au point un outil d’IA qui effectue une fonction précise, les développeurs seraient encouragés à se demander quelles sont les principales préoccupations des gens et comment l’IA peut contribuer à y donner suite, afin que la mise au point de l’IA s’appuie sur les besoins des citoyens et de la société.
2) De toute urgence, et au minimum, les politiques doivent réduire le risque de préjudice pour les particuliers, en reconnaissant que les systèmes et les outils d’IA n’ont pas tous la même incidence sur les gens. À titre d’exemple, les personnes marginalisées sont tout particulièrement touchées par les préjugés intégrés aux systèmes d’IA (voir, par exemple, Unmasking AI: My Mission to Protect What is Human in World of Machines par Joy Buolamwini). Dans le cadre de ces discussions, nous pourrions poser la question suivante : si l’apprentissage automatique et le contenu généré par l’IA sont moins coûteux et plus rapides, pour qui et à quelles fins voulons-nous les utiliser? Les entreprises peuvent épargner temps et argent en utilisant des systèmes d’IA. Toutefois, lorsque ces systèmes donnent des résultats erronés ou préjudiciables, il incombe aux particuliers, souvent les personnes marginalisées, de se défendre et de chercher des solutions. Peu d’entre eux ont les moyens de le faire.
3) Des mesures de protection et des conditions préalables plus rigoureuses sont nécessaires avant que les applications d’IA ne soient mises sur le marché afin de prévenir les préjudices et d’appuyer les avantages. L’adoption trop rapide de l’IA exacerbera la confiance déjà érodée dans les institutions publiques. Certaines entreprises privées reconnaissent la nécessité de collaborer avec le gouvernement sur cette question afin d’instaurer et de maintenir la confiance du public dans leur propre produit d’IA.
4) À mesure que les outils d’IA deviennent de plus en plus omniprésents et que nos interactions avec ceux-ci deviennent de plus en plus partie intégrante de notre expérience au quotidien, les gens ont le droit de savoir quand ils interagissent avec un système d’IA ou quand ils ont affaire à du contenu généré par l’IA. Cette question présente deux facettes : la nécessité d’établir des normes permettant de déterminer les outils d’IA et le contenu généré par l’IA, et le renforcement des connaissances en matière d’IA au moyen d’activités de sensibilisation, d’éducation et de formation.
5) Dans le secteur des arts et de la culture, les artistes et les écrivains ont le droit d’être rémunérés lorsque leur propriété intellectuelle protégée est utilisée pour permettre aux systèmes d’IA d’apprendre afin que cette dernière puisse être présentée et revendue, souvent dans un « style » qui imite l’œuvre originale. Nous devrions nous poser la question suivante : comment pouvons-nous permettre aux artistes et aux créateurs de produire des œuvres dans cet espace et de bénéficier de l’utilisation de leur propriété intellectuelle dans les systèmes d’IA? Si les systèmes d’IA tels que les grands modèles de langage dépendent d’œuvres publiées pour favoriser leur apprentissage, comment pouvons-nous garantir un nombre sain de créateurs réalisant ces œuvres, et en les protégeant contre l’exploitation?
6) La consultation et la gouvernance en matière d’IA doivent mobiliser de manière proactive la société civile aux côtés de l’industrie et des autres acteurs déjà mobilisés. Il faut investir de toute urgence dans la recherche sur les répercussions sociales et culturelles : celles-ci ne sont pas bien comprises, et les gouvernements manquent de données pour éclairer la prise de décisions de politiques.
En ce qui concerne ce dernier point, le groupe a exprimé le besoin urgent et essentiel pour la société civile de non seulement participer à l’élaboration de politiques en matière d’IA, mais également de faire partie du modèle de gouvernance pour la prise de décisions au fur et à mesure de l’évolution de l’IA. La capacité est une question très importante; à l’instar de tous les domaines de politiques, la question de savoir qui peut participer à cette discussion et qui est en mesure de le faire déterminera la manière dont les politiques seront élaborées et qui en bénéficiera.
Le Centre de politique culturelle continuera de travailler sur cette question de politique.. Nous établissons une communauté de praticiens – artistes, organisations artistiques et associations mutuelles, chercheurs et décideurs politiques – pour collaborer avec nous. N’hésitez pas à communiquer avec nous si cette initiative vous intéresse. 
Vous voulez participer? Jetez un coup d’œil à notre trousse sur la consultation d’Innovation, Sciences et Développement économique Canada sur l’IA générative, signez la pétition de l’AI Impact Alliance ou consultez notre liste de lecture ci-dessous!
- Trousse : Consultation sur le droits de l’auteur et l’intelligence artificielle générative (décembre 2023). Centre culturelle de la politique à l’ÉUADO
https://culturalpolicyhub.ocadu.ca/sites/default/files/pdfs/Hub_AI%20Toolkit_FR_FINAL_.pdf - Pétition – «Join the Art Impact AI Coalition & Support Artists Voices on the Future of AI »
https://www.change.org/p/join-the-art-impact-ai-coalition-support-artists-voices-on-the-future-of-ai - Proposition de loi n°1630 visant à encadrer l'intelligence artificielle par le droit d'auteur. (12 septembre 2023). Assemblée nationale
https://www.assemblee-nationale.fr/dyn/16/textes/l16b1630_proposition-loi - Goddard, V. (4 septembre 2022) “L’art et l’économie numérique dite créative à la lumière de la loi sur l’intelligence artificielle.” Medium.com.
https://valentinegoddard.medium.com/lart-et-l-économie-numérique-dite-créative-à-la-lumière-de-la-loi-sur-l-intelligence-artificielle-4ca81ff0135c - Garde-fous canadiens pour l'IA générative : un code de pratique. (aout 2023) Innovation, Science, et Développement économique Canada
https://ised-isde.canada.ca/site/isde/fr/consultation-lelaboration-dun-code-pratique-canadien-pour-systemes-dintelligence-artificielle/garde-fous-canadiens-pour-lia-generative-code-pratique - Le Conseil et le Parlement parviennent à un accord sur les premières règles mondiales en matière d’IA. (décembre 2023) La France dans L’EU.
https://ue.delegfrance.org/le-conseil-et-le-parlement