Les principaux dangers de l’intelligence artificielle pour l’emploi

dangers de l'intelligence artificielle pour l'emploi au Québec

L’automatisation et le risque de pertes d’emplois au Québec en 2025. devons-nous s’affoler ?

L’un des dangers de l’intelligence artificielle les plus concrets touche directement notre gagne-pain. Au Québec, l’automatisation menace de transformer radicalement le marché du travail.

En mai 2022, l’Institut C.D. Howe estimait que près du tiers des emplois au Québec risquaient fortement d’être automatisés, environ 810 000 québécois pourraient être affectés par l’automatisation d’ici 2030. Source : Radio-Canada

Ce n’est pas la première fois que la technologie change notre façon de travailler. Mais contrairement aux révolutions industrielles précédentes, l’IA peut remplacer non seulement le travail manuel, mais aussi des tâches intellectuelles complexes.

Contenus de la page

Quels secteurs professionnels québécois sont les plus menacés par l’IA?

Tous les métiers ne font pas face aux mêmes risques liés à l’IA.

Certains secteurs sont particulièrement vulnérables :

  • Transport et logistique: Les camionneurs et chauffeurs de taxi pourraient voir leurs emplois menacés par les véhicules autonomes.
  • Service à la clientèle: Les « chatbots » et assistants virtuels remplacent déjà certains postes dans les centres d’appels.
  • Comptabilité et finance: L’IA peut automatiser l’analyse financière et la préparation des déclarations fiscales.
  • Vente au détail: Les caisses automatiques et les entrepôts robotisés réduisent le besoin de personnel.

« La question n’est pas si l’IA va remplacer des emplois, mais lesquels, à quelle vitesse, et comment nous allons nous adapter. » – Jean-François Lisée, ancien chef du Parti Québécois

Ce tableau présente le risque approximatif d’automatisation par secteur au Québec :

SecteurNiveau de risque% d’emplois menacés
TransportTrès élevé70-90%
Service clientÉlevé50-70%
ManufactureÉlevé60-80%
SantéMoyen20-40%
ÉducationFaible10-30%
Arts et cultureTrès faible5-15%

Source : Radio-Canada, Ici Radio-Canada, les affaires, Institut du Québec

Comment l’intelligence artificielle transforme le marché du travail canadien

L’impact de l’IA sur nos emplois n’est pas uniquement négatif. De nouvelles opportunités émergent:

  1. Création de nouveaux métiers: Ingénieurs en IA, éthiciens de l’IA, spécialistes en données.
  2. Augmentation des travailleurs: Dans certains cas, l’IA aide les humains plutôt que de les remplacer, comme dans le domaine médical.
  3. Reconversion professionnelle: Les programmes comme Québec numérique aident les travailleurs à acquérir de nouvelles compétences.

Mais cette transition n’est pas sans dangers. Les emplois créés exigent souvent des compétences très différentes de celles des emplois perdus, creusant potentiellement les inégalités sociales.

Témoignages: des travailleurs face aux risques de l’IA dans leur profession

Étude de cas: L’automatisation de la collection d’argent pour les prêts rapides

La Caisse Desjardins, plus grande institution financière coopérative au Canada, a introduit des systèmes d’IA pour l’analyse de crédit et le service client. Jerry Sorrentino, fondateur de Mon Petit Prêt et de Money911 inc. :

« Mon travail a complètement changé. Avant, je devais moi-même envoyer des courriels pour les paiements en souffrance. Maintenant, c’est l’algorithme et l’automatisation qui fait la plupart des envoies de courriel. » Voir notre étude de cas ici

Ce témoignage illustre comment l’IA peut non seulement supprimer des emplois, mais aussi changer fondamentalement la nature du travail, posant de nouveaux défis liés à l’intelligence artificielle pour les travailleurs.

Pour mieux vous préparer aux changements du marché de l’emploi, consultez notre guide sur comment adapter votre carrière à l’ère de l’IA.

Saviez-vous que nous mettons en place des automatisations complètes comme celle de Mon Petit Prêt ?

Demandez-nous un audit gratuitement et discutons de ce que nous pouvons faire pour votre entreprise.

Comment l’intelligence artificielle menace notre vie privée quotidienne

Chaque jour, nous laissons des traces numériques que l’IA peut analyser avec une précision inquiétante.

Ces risques pour la vie privée sont particulièrement préoccupants :

  • L’IA peut prédire nos comportements en analysant nos historiques d’achats
  • Elle peut déterminer notre état émotionnel à partir de nos publications sur les réseaux sociaux
  • Nos habitudes de navigation révèlent nos intérêts, opinions et préoccupations

Saviez-vous que les algorithmes peuvent prédire votre orientation sexuelle, vos opinions politiques et même votre état de santé à partir de vos « J’aime » sur Facebook?

Une étude de l’Université Stanford a montré que l’IA peut être plus précise que vos amis proches pour déterminer votre personnalité.

Risques liés à la reconnaissance faciale et aux systèmes de surveillance intelligents

La reconnaissance faciale représente l’un des dangers majeurs de l’intelligence artificielle pour notre vie privée.

Au Canada, l’utilisation de cette technologie se développe rapidement :

  • Des centres commerciaux l’utilisent pour analyser la clientèle
  • Certaines forces de police canadiennes expérimentent ces technologies
  • Des écoles envisagent son utilisation pour la sécurité

Ces systèmes posent d’importantes questions éthiques.

Le Commissariat à la protection de la vie privée du Canada a d’ailleurs lancé plusieurs enquêtes sur l’utilisation de la reconnaissance faciale par des organisations privées et publiques.

Liste des risques liés à la surveillance par IA :

  1. Surveillance de masse sans consentement
  2. Identification erronée et faux positifs
  3. Utilisation des données à des fins non prévues
  4. Normalisation de la surveillance constante
  5. Discrimination contre certains groupes ethniques (la technologie est moins précise pour les personnes à la peau foncée)

L’IA et la collecte massive de données personnelles des Canadiens

L’intelligence artificielle nécessite d’énormes quantités de données pour fonctionner efficacement. Cette réalité crée une forte incitation à collecter toujours plus d’informations sur nous:

« Si vous ne payez pas pour le produit, c’est que vous êtes le produit. « – Adage populaire dans le monde de la technologie selon Webetic.be

Les entreprises technologiques canadiennes et étrangères recueillent constamment nos données :

  • Ce que nous disons à nos assistants vocaux
  • Où nous allons (données GPS)
  • Ce que nous achetons
  • Ce que nous regardons en ligne

Ces données alimentent des algorithmes qui apprennent à nous connaître, posant de sérieux risques liés à l’IA pour notre vie privée.

Les dangers spécifiques des assistants vocaux et appareils connectés

Dans de nombreux foyers québécois, des appareils comme Alexa, Google Home ou des objets connectés nous écoutent en permanence.

Ces technologies présentent des dangers de l’intelligence artificielle particuliers:

Étude de cas: Les enregistrements d’Amazon Alexa

En 2019, Bloomberg a révélé qu’Amazon employait des milliers de personnes pour écouter et transcrire les enregistrements des utilisateurs d’Alexa.

Ces employés entendaient parfois des conversations privées, des informations bancaires et même des moments intimes, soulevant d’importantes questions sur les risques liés à l’IA domestique.

Comment l’intelligence artificielle peut perpétuer ou amplifier les biais sociaux

Un des dangers les plus insidieux de l’intelligence artificielle est sa capacité à reproduire et même amplifier les biais existants dans notre société. Contrairement à ce que l’on pourrait penser, les algorithmes ne sont pas neutres:

L’IA apprend à partir des données qu’on lui fournit. Si ces données contiennent des biais (racisme, sexisme, âgisme), l’algorithme reproduira ces mêmes biais. C’est comme si nous enseignions involontairement nos préjugés à ces systèmes.

Par exemple, si un système d’IA est entraîné sur des décisions d’embauche passées qui favorisaient les hommes, il aura tendance à perpétuer cette discrimination, créant un cercle vicieux de risques liés à l’IA.

Exemples de discrimination par IA observés au Canada et ailleurs

Ces biais algorithmiques ne sont pas théoriques, ils affectent déjà des vies :

  • Au Canada, des algorithmes d’évaluation de crédit ont été critiqués pour défavoriser les personnes à faible revenu et les nouveaux immigrants.
  • Aux États-Unis, un système de santé utilisait un algorithme qui accordait moins de soins aux patients noirs qu’aux patients blancs à besoins égaux.
  • Au Royaume-Uni, un algorithme d’évaluation des examens a systématiquement sous-noté les élèves des quartiers défavorisés.

Ces exemples montrent comment l’intelligence artificielle peut renforcer les inégalités existantes plutôt que de les réduire.

L’impact des algorithmes biaisés sur les communautés minoritaires québécoises

Au Québec, où la diversité culturelle est une richesse, les dangers de l’intelligence artificielle biaisée sont particulièrement préoccupants :

  • Les systèmes de reconnaissance faciale fonctionnent moins bien pour les personnes à la peau foncée
  • Les algorithmes de traduction peuvent perpétuer des stéréotypes de genre
  • Les systèmes automatisés pourraient défavoriser les personnes dont le français n’est pas la langue maternelle

« Les algorithmes sont des opinions intégrées dans du code. Ils ne sont pas objectifs par nature. » – Cathy O’Neil, auteure de « Weapons of Math Destruction »

Le danger des systèmes automatisés de prise de décision

L’utilisation croissante de l’IA pour prendre des décisions importantes représente un risque majeur :

Liste des domaines où l’IA prend déjà des décisions critiques :

  1. Approbation de prêts et de crédits
  2. Embauche et évaluation des employés (l’auteur de ce blog a vécu ce fait avant de créer la compagnie d’automatisation Simplement. Simon.)
  3. Admissibilité aux prestations sociales
  4. Détermination des primes d’assurance
  5. Évaluation des risques dans le système judiciaire

Le problème? Ces systèmes fonctionnent souvent comme des « boîtes noires » dont les décisions sont difficiles à expliquer ou à contester, créant un véritable défi démocratique.

Pour en savoir plus sur ces enjeux, découvrez notre analyse des biais algorithmiques et leur impact sur l’équité sociale.

Les hypertrucages ou deepfakes et leur menace pour l’information fiable

Parmi les dangers de l’intelligence artificielle les plus inquiétants, les deepfakes occupent une place particulière.

Ces vidéos ou audios hyper-réalistes créés par IA peuvent faire dire ou faire n’importe quoi à n’importe qui.

Imaginez un politicien québécois « apparaissant » dans une vidéo tenant des propos qu’il n’a jamais tenus, ou votre propre visage utilisé dans une vidéo compromettante.

Cette technologie progresse rapidement :

  • En 2017, les premiers deepfakes étaient facilement identifiables
  • En 2023, même des experts peuvent avoir du mal à distinguer les vrais des faux
  • D’après Gartner, les attaques par deepfakes pourraient éroder la confiance dans l’authentification biométrique pour 30 % des entreprises d’ici 2026, car les systèmes actuels de détection de présentation ne sont pas conçus pour contrer les attaques par injection numérique utilisant des hypertrucages ou deepfakes

Source : Gartner.com

Cette technologie pose de graves risques liés à l’IA pour notre démocratie et notre confiance dans les médias.

Comment l’intelligence artificielle peut être utilisée pour manipuler l’opinion publique

Au-delà des hypertrucages, l’IA offre d’autres outils puissants pour influencer nos opinions :

  • Bots sur les réseaux sociaux : Des armées de faux comptes contrôlés par IA peuvent créer l’illusion d’un mouvement d’opinion
  • Contenu personnalisé : L’IA peut créer du contenu sur mesure pour exploiter vos craintes ou préjugés
  • Fausses informations à grande échelle : Des systèmes comme GPT-4, Kimi, Claude et le petit nouveau, Deepseek,  peuvent générer des milliers d’articles convaincants mais trompeurs en quelques minutes

Étude de cas : La manipulation par IA pendant le référendum du Brexit

Des études ont montré que des algorithmes sophistiqués ont été utilisés pour cibler des électeurs indécis avec des publicités politiques personnalisées pendant la campagne du Brexit.

Ces systèmes utilisaient l’IA pour déterminer quels messages seraient les plus efficaces pour chaque individu, soulevant des questions éthiques importantes sur l’influence algorithmique dans les processus démocratiques.

Les risques pour la démocratie canadienne

Notre démocratie repose sur une information fiable et un débat public éclairé.

Les dangers de l’intelligence artificielle pour ces fondements sont considérables :

  1. Érosion de la confiance : Si nous ne pouvons plus croire ce que nous voyons ou entendons, comment maintenir un débat démocratique ?
  2. Polarisation accrue : Les algorithmes de recommandation nous enferment dans des bulles d’information qui renforcent nos opinions existantes
  3. Manipulation électorale : Des campagnes de désinformation ciblées peuvent influencer les résultats électoraux

Le Centre de la sécurité des télécommunications a d’ailleurs averti que les élections canadiennes pourraient être ciblées par ce type de technologies.

L’IA générative et la création de fausses informations

Les modèles d’IA générative comme ChatGPT, DeepSeek ou Claude représentent une nouvelle frontière en matière de risques liés à l’IA :

  • Ils peuvent produire des textes convaincants sur n’importe quel sujet
  • Ils sont capables de créer des articles, des essais ou des rapports d’apparence professionnelle
  • Ils peuvent imiter différents styles d’écriture

« La capacité des IA génératives à produire du contenu convaincant à grande échelle représente un défi sans précédent pour notre écosystème informationnel. » – Commission canadienne pour l’UNESCO

Pour apprendre à reconnaître les contenus générés par IA, consultez notre guide Qu’est-ce qu’un « chatbot » IA ?

Actions individuelles pour préserver sa vie privée face à l’IA

Face aux dangers de l’intelligence artificielle, nous ne sommes pas impuissants. Voici des mesures concrètes pour vous protéger :

Liste d’actions pour protéger votre vie privée:

  1. Utilisez des navigateurs qui respectent la vie privée (Firefox, Brave)
  2. Activez les paramètres de confidentialité renforcée sur vos appareils
  3. Limitez les permissions des applications sur votre téléphone
  4. Utilisez un VPN pour masquer votre activité en ligne (toujours !)
  5. Désactivez les microphones des appareils intelligents quand vous ne les utilisez pas
  6. Examinez régulièrement les paramètres de confidentialité de vos comptes en ligne

En prenant ces mesures simples, vous réduisez significativement les risques liés à l’IA pour votre vie privée.

Ressources éducatives pour mieux comprendre les risques des dangers de l’intelligence artificielle

S’informer est la première étape pour se protéger.

Voici quelques ressources fiables :

L’importance de la sensibilisation aux risques de l’IA

Une société informée est mieux armée face aux dangers de l’intelligence artificielle.

Nous avons tous un rôle à jouer :

  • Partagez vos connaissances avec vos proches, surtout les plus vulnérables
  • Questionnez l’utilisation de l’IA dans votre milieu de travail ou communauté
  • Soutenez les organisations qui militent pour une IA éthique et responsable

« La meilleure protection contre les risques de l’IA n’est pas technologique, mais sociale: une population informée et vigilante. » – Rémi Quirion, Scientifique en chef du Québec

Conclusion

Les dangers de l’intelligence artificielle sont réels et touchent déjà notre quotidien. De la menace pour nos emplois aux risques pour notre vie privée, en passant par la manipulation de l’information, l’IA soulève d’importants défis pour notre société québécoise et canadienne.

Cependant, il ne s’agit pas de rejeter cette technologie, mais plutôt de l’encadrer et de l’utiliser de manière responsable.

L’IA peut aussi être une force positive, améliorant nos soins de santé, notre environnement et notre qualité de vie.

En restant informés et vigilants, nous pouvons collectivement façonner un avenir où l’intelligence artificielle sert l’humain plutôt que de le menacer.

La technologie n’est ni bonne ni mauvaise en soi – tout dépend de l’usage que nous en faisons.

Besoin d’aide pour démêler tout ça ? Venez nous jaser en vidéo !