Published on October 26, 2024

Contrairement à l’idée reçue, la Déclaration de Montréal n’est pas une solution, mais un miroir philosophique révélant les tensions profondes entre l’ambition technologique du Québec et son contrat social.

  • Son succès ne se mesure pas à sa renommée, mais à sa capacité à influencer les arbitrages concrets en santé, en économie et en droit.
  • Elle expose un décalage critique entre les idéaux éthiques et la lenteur des cadres légaux comme la loi C-27.

Recommandation : L’enjeu n’est plus de célébrer ses principes, mais d’évaluer activement leur application — ou leur absence — dans chaque nouvelle innovation de l’écosystème québécois.

L’aura de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle a dépassé les frontières du Québec, devenant une référence mondiale. Née d’un processus de co-construction citoyenne unique, elle incarne une promesse : celle d’une technologie au service du bien-être collectif, guidée par dix principes fondamentaux allant de l’équité à la protection de la vie privée. On loue Montréal comme un hub mondial de l’IA, où les géants technologiques côtoient des laboratoires de recherche de pointe comme le Mila, fondé par le pionnier Yoshua Bengio.

Pourtant, pour le citoyen ou le professionnel inquiet des dérives potentielles, une question philosophique et éminemment pratique demeure : cette Déclaration est-elle un véritable rempart ou un simple manifeste symbolique ? Face à la puissance des algorithmes qui s’immiscent dans nos vies, la discussion se déplace des intentions vers les impacts. Et si la véritable valeur de la Déclaration n’était pas dans les réponses qu’elle propose, mais dans les questions qu’elle nous force à poser ? Si elle agissait comme un miroir philosophique, révélant les tensions éthiques et les arbitrages de valeurs au cœur de notre société numérique en construction ?

Cet article propose de dépasser le mythe pour sonder la réalité. En examinant des cas concrets de l’écosystème québécois, des diagnostics du CHUM au financement des startups, nous évaluerons comment les idéaux de la Déclaration se heurtent, s’adaptent ou façonnent l’économie et la société. L’objectif n’est pas de juger, mais de comprendre la portée réelle de cet engagement éthique face aux impératifs économiques, légaux et sociaux.

Cet article explore les facettes de cette complexité. À travers huit questions clés, nous naviguerons au cœur des enjeux qui définissent aujourd’hui l’avenir de l’intelligence artificielle au Québec et bien au-delà.

Comment l’IA transforme-t-elle déjà les diagnostics dans les hôpitaux du CHUM ?

L’application de l’intelligence artificielle en santé est sans doute l’incarnation la plus tangible du principe de “bien-être” prôné par la Déclaration de Montréal. Au Centre hospitalier de l’Université de Montréal (CHUM), cette transformation n’est plus une fiction. Avec plus de 100 projets d’IA à diverses étapes de développement, l’institution se positionne comme un laboratoire vivant de l’IA responsable. L’objectif n’est pas de remplacer le jugement humain, mais de l’augmenter, de le rendre plus rapide et plus précis, une vision partagée par les leaders du domaine.

Comme le formule avec justesse Kathy Malas, adjointe au PDG du Pôle Innovation & IA santé du CHUM :

La combinaison entre le médecin et l’algorithme d’IA va être supérieure à l’IA seule ou au médecin seul.

– Kathy Malas, Adjointe au PDG, Pôle Innovation & IA santé du CHUM

Cette philosophie se traduit par des applications concrètes qui changent déjà la vie des patients. L’une des plus notables est l’utilisation de l’IA pour le dépistage de la rétinopathie diabétique. Plutôt que de recourir à des méthodes invasives, l’algorithme analyse des photographies du fond de l’œil pour détecter les signes précoces de décollement rétinien. Ce processus réduit non seulement le temps et les coûts, mais il illustre parfaitement l’arbitrage de valeurs en action : l’efficacité technologique est mise au service direct du confort et de la sécurité du patient, respectant ainsi son autonomie et son intégrité physique.

Cependant, cette intégration soulève une tension éthique fondamentale. La dépendance croissante envers ces “boîtes noires” algorithmiques exige une transparence et une validité clinique irréprochables. Chaque projet au CHUM devient ainsi un test pour la Déclaration : comment garantir que l’efficacité ne se fasse pas au détriment de l’équité d’accès ou de la compréhension du diagnostic par le patient ? La promesse est immense, mais la responsabilité qui l’accompagne l’est tout autant.

Comment les PME québécoises peuvent-elles adopter l’IA sans budget de millionnaire ?

Si le CHUM illustre la pointe de l’iceberg de l’IA, la réalité économique du Québec repose sur son vaste réseau de petites et moyennes entreprises. Pour elles, l’IA semble souvent un luxe inaccessible, réservé aux géants technologiques. Cette perception crée une tension économique majeure : un risque de fracture entre une élite numérique et une majorité d’entreprises laissées pour compte. Pourtant, les données montrent une adoption encore timide ; selon une projection, seulement 12,7% des entreprises québécoises utiliseraient l’IA en 2025. Combler ce fossé est un impératif économique et un défi éthique pour respecter le principe d’équité de la Déclaration.

Le gouvernement du Québec et ses partenaires, conscients de cet enjeu, ont déployé un arsenal de programmes de soutien visant spécifiquement à démocratiser l’accès à l’IA. Ces initiatives cherchent à transformer l’IA d’un coût prohibitif en un levier de compétitivité accessible. La collaboration entre le public, le privé et les centres de recherche est la clé de voûte de cette stratégie, permettant de mutualiser les coûts et les expertises.

Entrepreneurs québécois travaillant ensemble autour d'une table holographique dans un espace de coworking moderne

La voie vers l’adoption de l’IA pour une PME n’est donc pas solitaire. Elle passe par la mobilisation d’un écosystème de soutien pensé pour abaisser les barrières à l’entrée. Voici quelques-uns des principaux programmes disponibles :

  • Programme Partenar-IA : Offre des subventions pouvant atteindre 500 000 $ pour des projets collaboratifs entre PME et centres de recherche publics, favorisant le transfert de connaissances.
  • Programme Innovation (via Investissement Québec) : Fournit une aide financière pour soutenir les projets d’innovation, y compris ceux intégrant l’IA, avec un taux d’aide pouvant couvrir jusqu’à 30% des dépenses.
  • Scale AI : La supergrappe canadienne d’IA offre des remboursements pouvant aller jusqu’à 50% des coûts pour des projets visant à optimiser les chaînes d’approvisionnement grâce à l’IA.
  • INVEST-AI : Un programme de co-investissement pour des projets d’IA plus matures dans des entreprises ayant déjà un certain volume de ventes, avec des tickets allant de 50 000 $ à 1 M$.
  • Impulsion PME : Une enveloppe de 120 M$ gérée par Investissement Québec pour soutenir les jeunes entreprises innovantes.

Cette panoplie de mesures montre une volonté politique claire. Cependant, pour une PME, le défi n’est pas seulement financier. Il réside dans la capacité à identifier le bon problème à résoudre avec l’IA et à développer les compétences internes pour piloter le projet. L’enjeu éthique se déplace : il ne s’agit plus seulement de “pouvoir” adopter l’IA, mais de le faire de manière “responsable”, même à petite échelle.

Recherche fondamentale ou appliquée : quelle voie offre les meilleurs salaires à Montréal ?

La réputation de Montréal comme pôle d’IA repose sur une dualité : d’un côté, la recherche fondamentale de calibre mondial menée dans les universités et au Mila, qui a donné naissance à la Déclaration ; de l’autre, un secteur privé dynamique, incluant les GAFAM, qui applique ces découvertes à des produits commerciaux. Cette dualité crée une tension fondamentale pour les talents de l’IA, un arbitrage de valeurs personnel entre la quête de savoir et la réalité économique. Le choix de carrière d’un chercheur n’est pas neutre : il influence directement le type d’IA qui sera développé et, par conséquent, l’avenir de notre société numérique.

Le prestige académique et la liberté intellectuelle de la recherche fondamentale, alignée sur l’esprit de la Déclaration, sont des attraits puissants. Contribuer à la connaissance, explorer les frontières de la discipline sans la pression immédiate du marché a une valeur intrinsèque. Cependant, cette voie est souvent associée à une rémunération plus modeste et à une plus grande précarité en début de carrière, bien que la perspective d’une permanence universitaire offre une stabilité à long terme.

À l’opposé, la recherche appliquée en entreprise promet des salaires significativement plus élevés, des avantages sociaux compétitifs et l’opportunité de voir son travail déployé à grande échelle, touchant des millions d’utilisateurs. Cette voie est cependant soumise aux impératifs de rentabilité, et l’alignement avec les principes éthiques de la Déclaration peut y être plus variable et moins transparent. Le tableau suivant synthétise cet arbitrage de carrière crucial à Montréal.

Comparaison des parcours en IA à Montréal
Critère Recherche Fondamentale (Mila/Universités) Recherche Appliquée (GAFAM/Entreprises)
Salaire moyen 80 000 – 150 000 CAD 120 000 – 250 000 CAD
Avantages non monétaires Liberté académique, prestige, impact sociétal Stock options, bonus, avantages sociaux complets
Contribution à la Déclaration de Montréal Directe et centrale Variable selon l’entreprise
Stabilité d’emploi Tenure possible, postes permanents Plus volatile, dépend du marché

Ce dilemme n’est pas qu’une question de chiffres. Il s’agit d’un choix philosophique : orienter son intelligence vers la résolution de problèmes fondamentaux pour l’humanité ou vers l’optimisation de systèmes pour le marché ? La fuite des cerveaux du secteur académique vers le secteur privé, attirés par des salaires plus élevés, représente un risque systémique. Elle pourrait affaiblir le pôle de recherche indépendante qui est justement le garant de la réflexion éthique et le berceau de la Déclaration elle-même.

Le risque de discrimination automatisée dans le recrutement : sommes-nous protégés ?

L’un des terrains les plus minés pour l’éthique de l’IA est le recrutement. La promesse d’un tri de candidatures objectif et efficace se heurte à une dure réalité : les algorithmes, entraînés sur des données historiques, ont une fâcheuse tendance à reproduire, voire à amplifier, les biais humains existants. C’est ici que la Déclaration de Montréal fait face à son test le plus sévère, confrontant ses principes d’équité et de non-discrimination à la logique froide du code. Un algorithme peut-il être raciste ou sexiste ? Non, mais il peut produire des résultats discriminatoires s’il a appris que certains profils, historiquement marginalisés, sont statistiquement “moins performants”.

Cette discrimination peut être subtile et insidieuse. Par exemple, un algorithme pourrait pénaliser des candidats sur la base de leur code postal, qui est souvent un indicateur indirect de l’origine ethnique ou du statut socio-économique. Une telle pratique contreviendrait directement à la Charte des droits et libertés de la personne du Québec. Le risque est d’autant plus grand que les entreprises ne sont pas toujours équipées pour détecter ces dérives. Une étude a révélé que près de 30% des entreprises n’ont pas de pratiques pro-équité en place, créant un terrain fertile pour les biais algorithmiques.

Face à ce péril, la passivité n’est pas une option. Les entreprises qui déploient des systèmes d’IA pour le recrutement ont un impératif moral et de plus en plus légal de garantir leur intégrité algorithmique. Il ne s’agit pas seulement de conformité, mais de la préservation d’un contrat social juste. Un audit proactif des biais devient une étape non négociable avant tout déploiement.

Plan d’action : auditer son IA de recrutement contre les biais

  1. Identifier les points de contact : Lister tous les moments où l’IA intervient dans le processus de recrutement (tri de CV, analyse vidéo, tests de compétences).
  2. Collecter les données d’entraînement : Inventorier les ensembles de données utilisés pour former l’algorithme. Analyser leur représentativité (ex: répartition hommes/femmes, origines, âges).
  3. Confronter aux valeurs : Vérifier si les critères de décision de l’IA sont alignés avec les valeurs d’équité de l’entreprise et les protections légales (ex: écarter les critères corrélés à des motifs de discrimination prohibés).
  4. Mesurer l’impact différentiel : Tester l’algorithme avec des profils fictifs pour repérer si, à compétences égales, il favorise systématiquement un groupe démographique par rapport à un autre.
  5. Établir un plan de mitigation : Si des biais sont détectés, définir des actions correctives claires : ré-entraîner l’algorithme, ajuster ses paramètres ou, si nécessaire, suspendre son utilisation.

Même si des recours existent, comme saisir la Commission des droits de la personne et de la jeunesse (CDPDJ), la meilleure protection reste la prévention. La question n’est plus “si” un algorithme peut discriminer, mais “comment” nous allons activement l’empêcher de le faire. C’est un défi technique, mais avant tout une question de volonté et de responsabilité éthique.

Quand la loi canadienne sur l’IA va-t-elle encadrer ChatGPT et consorts ?

Si la Déclaration de Montréal fournit le “pourquoi” philosophique de l’IA responsable, la législation doit fournir le “comment” contraignant. Or, une tension critique s’observe entre la vitesse fulgurante du développement technologique, incarnée par l’explosion de modèles comme ChatGPT, et la lenteur du processus législatif. Le projet de loi C-27, qui inclut la Loi sur l’intelligence artificielle et les données (LIAD), est le véhicule choisi par le Canada pour établir son contrat social numérique. Il vise à encadrer les systèmes d’IA à “haut impact”, c’est-à-dire ceux qui peuvent causer des préjudices significatifs aux individus.

Cependant, le parcours de ce projet de loi est un cas d’école de l’inertie parlementaire face à l’urgence technologique. Déposé en juin 2022, bien avant la déferlante ChatGPT, le texte est toujours enlisė en comité plus de deux ans plus tard. Les chiffres sont éloquents : après des dizaines de réunions, seule une infime partie des articles a été examinée. Le ministre de l’Innovation, François-Philippe Champagne, a lui-même déploré ces ralentissements, soulignant l’ironie d’un monde qui évolue à la vitesse de l’IA pendant que la loi avance à pas de tortue.

Vue intérieure majestueuse de la Chambre des communes du Canada avec effets lumineux abstraits symbolisant le débat sur l'IA

Ce décalage temporel pose un risque majeur. Pendant que les parlementaires débattent, des millions de Canadiens utilisent quotidiennement des technologies puissantes sans qu’un cadre juridique spécifique et moderne ne soit en place pour les protéger des risques de désinformation, de manipulation ou de décisions opaques. La LIAD propose des concepts importants, comme l’obligation pour les développeurs de systèmes à haut impact de gérer les risques et d’assurer la transparence de leurs modèles. Mais tant que la loi n’est pas adoptée, ces obligations restent lettre morte.

Cette situation illustre une tension fondamentale de la gouvernance démocratique à l’ère numérique. Le temps long de la délibération parlementaire, essentiel pour créer des lois justes et équilibrées, est en conflit direct avec le temps court de l’innovation disruptive. La Déclaration de Montréal, par son agilité et sa nature principielle, a pu poser les jalons rapidement. Mais sans une loi robuste pour traduire ces principes en obligations exécutoires, avec des sanctions à la clé, l’éthique risque de rester un simple vœu pieux face aux puissants intérêts économiques.

Quand la réalité augmentée va-t-elle dépasser la réalité virtuelle dans nos usages ?

Au-delà des algorithmes qui analysent des données, l’IA s’apprête à redéfinir notre perception même de la réalité. La distinction entre la réalité virtuelle (RV), qui nous plonge dans des mondes entièrement numériques, et la réalité augmentée (RA), qui superpose des informations numériques à notre environnement réel, est cruciale. Si la RV a longtemps dominé l’imaginaire collectif, c’est la RA, plus intégrée à notre quotidien, qui pourrait avoir l’impact le plus profond et le plus constant sur nos vies. Cette transition soulève une nouvelle forme de tension éthique : comment façonner ces “réalités mixtes” sans altérer notre rapport au monde et aux autres ?

L’écosystème montréalais du jeu vidéo, reconnu mondialement, est à l’avant-garde de cette exploration. Les studios n’utilisent pas seulement l’IA pour générer des mondes virtuels, mais aussi pour créer des expériences de RA de plus en plus sophistiquées et interactives. Conscients des dérives possibles, nombre de ces acteurs s’efforcent d’appliquer les principes de la Déclaration de Montréal. Par exemple, ils travaillent à éviter les filtres de beauté permanents qui pourraient altérer durablement l’estime de soi ou à concevoir une publicité moins intrusive et plus respectueuse de l’attention de l’utilisateur.

Cette approche positionne Montréal comme un potentiel leader de la RA éthique. Plutôt que de chercher à remplacer la réalité, l’objectif est de l’enrichir de manière significative et respectueuse. On peut imaginer des applications allant bien au-delà du jeu : un chirurgien guidé par des informations anatomiques superposées sur son patient, un technicien visualisant les étapes d’une réparation complexe, ou un touriste découvrant l’histoire d’un bâtiment simplement en le regardant.

Le dépassement de la RV par la RA ne sera pas seulement technologique, mais aussi philosophique. La RV propose une évasion ; la RA, une augmentation. Le risque de la RA est plus subtil : une dépendance à une couche d’information qui filtre notre perception, nous rendant moins capables d’interagir avec le monde “brut”. La question posée par la Déclaration devient alors : comment garantir que cette augmentation de la réalité serve réellement l’autonomie humaine, plutôt que de la diminuer en la rendant dépendante d’une interface ? La réponse à cette question déterminera si la RA deviendra un outil d’émancipation ou une nouvelle forme d’aliénation.

À retenir

  • La Déclaration de Montréal agit comme un révélateur des conflits entre l’innovation rapide et les valeurs sociales du Québec.
  • L’accès à l’IA crée une tension économique entre les grandes entreprises et les PME, que les programmes de soutien tentent de mitiger.
  • La protection des citoyens est au cœur d’une tension légale, opposant la lenteur de la loi fédérale C-27 à la réactivité de la Loi 25 provinciale.

Pourquoi la Loi 25 oblige-t-elle les entreprises à mieux protéger vos renseignements ?

Face à la lenteur du fédéral avec le projet de loi C-27, le Québec a pris les devants avec sa propre réponse législative : la Loi 25. Cette loi modernise en profondeur les règles sur la protection des renseignements personnels et agit comme une première traduction concrète, dans le droit québécois, de plusieurs principes de la Déclaration de Montréal. Son objectif est clair : redonner aux citoyens le contrôle sur leurs données et imposer aux entreprises un devoir de responsabilité. La Loi 25 ne voit pas la protection des données comme une contrainte, mais comme la fondation d’un contrat social numérique basé sur la confiance.

Pour les entreprises qui développent ou utilisent des systèmes d’IA, les implications de la Loi 25 sont directes et exigeantes. Elles ne peuvent plus se contenter de collecter des données sans justification. La loi impose une série d’obligations qui visent à assurer la transparence et le respect des droits des individus :

  • Informer l’utilisateur : Toute personne interagissant avec un système prenant une décision automatisée à son sujet doit en être clairement informée.
  • Expliquer la décision : L’entreprise doit être en mesure d’expliquer les principaux facteurs et paramètres qui ont mené à la décision de l’algorithme.
  • Évaluer les risques : Avant de déployer un système d’IA traitant des renseignements personnels, une Évaluation des Facteurs relatifs à la Vie Privée (EFVP) est obligatoire pour identifier et mitiger les risques.
  • Documenter la protection : Les mesures prises pour protéger les renseignements personnels tout au long de leur cycle de vie doivent être documentées.
  • Permettre la contestation : Les individus doivent avoir la possibilité de contester une décision automatisée et de demander une révision par un humain.

La Loi 25 introduit aussi une dimension que la Déclaration effleure à peine : la sobriété numérique. En imposant des principes de minimisation des données (ne collecter que ce qui est strictement nécessaire), elle pousse indirectement à une utilisation plus efficiente des ressources. C’est un enjeu écologique majeur, car comme le souligne un guide du ministère de l’Éducation, l’impact énergétique de l’IA est loin d’être négligeable. Une estimation suggère que chaque requête adressée à une IA générative consommerait autant d’énergie qu’une recharge complète de téléphone.

En somme, la Loi 25 agit comme le bras armé des principes éthiques. Elle transforme la “responsabilité” d’un concept philosophique en une série d’obligations vérifiables, avec des sanctions dissuasives en cas de non-respect. Elle représente un arbitrage clair de la société québécoise en faveur de la protection des droits individuels, même si cela demande un effort d’adaptation significatif de la part des entreprises.

Financer sa startup : comment convaincre Investissement Québec de miser sur vous ?

La boucle se referme là où l’éthique rencontre le capital. Pour une startup de l’IA au Québec, convaincre un acteur comme Investissement Québec (IQ) de la soutenir n’est plus seulement une question de technologie performante ou de potentiel de marché. De plus en plus, la capacité à démontrer un alignement avec les principes de l’IA responsable, incarnés par la Déclaration de Montréal, devient un avantage compétitif tangible. L’arbitrage de valeurs n’est plus une contrainte, mais un argument de vente.

Investissement Québec, en tant que bras financier du gouvernement, a un double mandat : générer un rendement économique et contribuer au développement durable et social du Québec. Une startup qui intègre l’éthique dès sa conception (“ethics by design”) répond à ces deux impératifs. Elle réduit ses risques légaux (conformité à la Loi 25), améliore son acceptabilité sociale et se positionne sur un marché où les consommateurs et les partenaires sont de plus en plus sensibles à ces enjeux. Le programme Impulsion PME, doté de 120 millions de dollars, est un exemple parfait de cette philosophie, visant à soutenir des jeunes entreprises innovantes dont le projet est non seulement prometteur, mais aussi porteur de sens.

Pour un entrepreneur, cela signifie que le discours doit évoluer. Au lieu de simplement présenter un algorithme, il faut raconter une histoire : comment votre solution va-t-elle améliorer la vie des gens ? Quelles mesures avez-vous prises pour éviter les biais ? Comment protégez-vous les données de vos utilisateurs ? Transformer son engagement éthique en un argumentaire solide peut faire la différence. Les sources de financement public au Québec sont variées, mais elles partagent une sensibilité croissante à cette dimension.

Aperçu des sources de financement pour l’IA au Québec
Programme Montant maximum Taux d’aide Cible
Appel de projets IA et Quantique 1,5 M$ 35-50% Consortiums avec PME
Programme Innovation 350 000 $ 30-50% Projets d’innovation en entreprise
Scale AI Variable Jusqu’à 50% Entreprises optimisant leur chaîne d’approvisionnement

En fin de compte, la Déclaration de Montréal offre un cadre de référence qui peut guider les entrepreneurs dans la construction d’entreprises plus résilientes et plus durables. En démontrant à Investissement Québec et à d’autres partenaires que leur projet n’est pas seulement intelligent technologiquement mais aussi sage éthiquement, les startups ne font pas que sécuriser un financement. Elles bâtissent un capital de confiance qui sera leur atout le plus précieux à long terme.

L’éthique n’est plus un luxe, mais une condition essentielle du succès. Comprendre et intégrer les principes d’une IA responsable dès le premier jour n’est pas seulement un devoir moral, c’est la stratégie la plus intelligente pour bâtir l’avenir de la technologie au Québec.

Questions fréquentes sur l’éthique de l’IA et la discrimination au Québec

Un algorithme de recrutement peut-il discriminer selon le code postal au Québec ?

Oui, et cela contreviendrait directement à la Charte des droits et libertés de la personne du Québec, car le code postal peut indirectement révéler l’origine ethnique ou le statut socio-économique.

Existe-t-il des recours si je suis victime de discrimination par l’IA ?

La Commission des droits de la personne et de la jeunesse (CDPDJ) peut recevoir des plaintes, même si elles impliquent des décisions algorithmiques.

Les entreprises doivent-elles auditer leurs algorithmes de recrutement ?

Bien que la Loi sur l’IA (C-27) ne soit pas encore en vigueur, la Loi 25 impose déjà des obligations de transparence sur les décisions automatisées. L’audit proactif est fortement recommandé comme une bonne pratique et une mesure de mitigation des risques légaux et réputationnels.

Written by Sophie Lamoureux, Stratège en innovation numérique et entrepreneure Tech, Sophie évolue depuis 10 ans au cœur de l'écosystème technologique de Montréal. Elle est spécialisée en intelligence artificielle, en transformation numérique des PME et en cybersécurité (Loi 25).