Plus qu'un outil : ce que Banff révèle sur l'IA et la culture
Je suis revenu de Banff avec le sentiment que le premier Sommet national sur l’intelligence artificielle et la culture au Canada avait clarifié un point important. Le débat sur l’IA et la culture est souvent présenté comme une confrontation entre deux camps opposés : celles et ceux qui veulent des protections plus solides, et celles et ceux qui veulent une adoption plus rapide. Mais à Banff, il est apparu clairement que cette vision est trop simpliste. Le vrai défi, c’est que le Canada doit résoudre deux problèmes à la fois.
Le premier, c’est le manque de protection. Beaucoup de titulaires de droits pensent que leurs œuvres ont été utilisées pour entraîner des modèles sans leur consentement, sans compensation et sans véritable obligation de rendre des comptes. Ils veulent des garanties plus solides, à raison. Il y a aussi une crainte plus générale : si l’octroi de licences devient la nouvelle norme, on demandera une fois de plus aux créateurs et aux producteurs culturels d’accepter des conditions peu avantageuses au nom de l’innovation. Ce n’est pas de la résistance à la technologie. C’est une demande pour des conditions de marché plus équitables. Le nouveau rapport du Dais, L’art dans l’intelligence artificielle, en rend bien compte, notamment en mettant l’accent sur les questions qui restent en suspens sur la rémunération, la propriété intellectuelle et les données d’entraînement.
Le deuxième problème, c’est le manque de capacités. Le taux d’adoption de l’IA au Canada reste relativement faible. Statistique Canada a indiqué qu’au deuxième trimestre 2025, seulement 12,2 % des entreprises avaient utilisé l’IA pour produire des biens ou fournir des services au cours des 12 mois précédents, même si ce chiffre avait doublé par rapport à l’année d’avant. Et parmi celles qui utilisent l’IA, les applications les plus courantes restent assez basiques : analyse de texte, analyse de données et robots conversationnels.
Le secteur culturel se trouve à la croisée de ces deux problèmes. Il est économiquement important, contribuant à hauteur d’environ 65 milliards de dollars au PIB du Canada et employant quelque 690 000 personnes. Mais il est aussi très hétérogène en terme d'adoption de l’IA. Le Dais note que si les industries de l’information et de la culture ont été des adoptants relativement actifs, les arts, les loisirs et le divertissement restent parmi les plus à la traîne. Cet écart est important. Il suggère que la question n’est pas simplement de savoir si la culture s’engage dans l’IA, mais si les personnes et les institutions qui produisent de la valeur culturelle peuvent le faire dans des conditions équitables, fiables et viables.
C’est pourquoi une approche séquentielle n’a pas beaucoup de sens. On ne peut pas dire qu’on va d’abord régler les questions de droits d’auteur et de rémunération, et qu’on ne s’occupera de l’adoption que plus tard. Mais on ne peut pas non plus pousser pour une adoption plus rapide tout en laissant le modèle d’extraction sous-jacent intact. Une voie retarde l’avenir. L’autre reproduit le problème à grande échelle.
Ce dont le Canada a besoin, ce sont plutôt des modèles qui abordent à la fois la protection et les capacités. Cela implique d’aller au-delà de l’idée que l’IA n’est qu’un outil et de réfléchir plus sérieusement à l’IA en tant qu’infrastructure.
C’est là que l’IA publique devient utile en tant que cadre. Par « IA publique » (ou « communs numériques de l’IA », comme je l’ai écrit dans un blog pour le Centre de politique culturelle de l’UEADO), j’entends une infrastructure partagée, gérée publiquement et dont les droits sont clarifiés, que les organisations peuvent utiliser, façonner et en laquelle elles peuvent avoir confiance. C’est important parce que la plupart des musées, des éditeurs, des organisations artistiques et des petites entreprises créatives ne peuvent pas construire leur propre pile d’IA. Ils n’ont pas le capital, les équipes techniques ou le poids nécessaire pour négocier en position de force. Mais ils ne devraient pas avoir à choisir entre renoncer entièrement à l’IA ou adopter des systèmes qu’ils n’ont pas aidé à concevoir. L’IA publique offre une troisième option : elle crée les conditions propices à l’expérimentation et à l’adoption tout en améliorant les conditions relatives à la provenance, au consentement, à la rémunération, à la transparence et à la souveraineté des données.
Il est important de noter que cette discussion n’est pas entièrement théorique. Les communautés autochtones font déjà avancer des aspects importants de ce travail. Comme l’a fait remarquer Jackson 2Bears lors de la table ronde que j’ai animée, des initiatives de recherche telles que Abundant Intelligences contribuent à montrer à quoi peut ressembler une infrastructure d’IA souveraine et gérée par la communauté lorsque les données culturelles, la gouvernance et la responsabilité sont intégrées dès le départ.
Les arts et la culture ne sont pas un cas à part. Ils comptent parmi les premiers secteurs touchés par l’absence de garde-corps et de réglementations concernant la manière dont l’IA est développée, à qui elle appartient et comment elle est mise en œuvre. Le secteur créatif comprend aussi précisément le type d’institutions les plus exposées au déséquilibre actuel en matière de capacités : trop petites pour construire leurs propres systèmes responsables, mais trop importantes pour être laissées à la merci de plateformes privées conçues ailleurs. C’est pourquoi Centre de politique culturelle de l’UEADO avance, avec des partenaires d’intérêt public, une proposition visant à tester l’IA publique à travers les arts et la culture. Le but n’est pas de créer une exception spéciale pour la culture. Il s’agit de montrer que le Canada peut construire une infrastructure d’IA partagée à des conditions plus équitables, avec une gouvernance, un accès et une valeur d’intérêt public intégrés dès le départ. Si on arrive à faire fonctionner ce modèle dans ce contexte, il pourra s’étendre bien au-delà du secteur culturel.