400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon VivaTech. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon un rapport de McKinsey. Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle.
IA-t-il un risque pour nos emplois ?
L'un des débats les plus fréquents autour de l'IA concerne son impact sur l'emploi. Va-t-elle pousser au chômage technique des millions de travailleurs ? Ou au contraire nous pousser à devenir davantage productifs ? Vaste sujet, mais il est clair que les algorithmes entraînés par machine learning peuvent accomplir des tâches de plus en plus complexes, souvent plus rapidement et à moindre coût que les humains. Cela pourrait entraîner une suppression massive d'emplois, notamment dans les secteurs manufacturiers et de services. Mais pourrait aussi créer de nombreux emplois autour de la robotique et du développement informatique.
Pour résumer, voici les deux principaux arguments :
- Automatisation des emplois : Les lignes de production, les chatbots et autres assistants virtuels, l’analyse de fraudes en temps réel pour les assurances, le tri des candidatures pour les ressources humaines, la gestion des inventaires pour les transporteurs et logisticiens, les diagnostics médicaux et la surveillance des champs en agriculture : autant d’applications possibles pour l’IA.
Une faille de cybersécurité ?
En plus du marché de l’emploi, l’IA révolutionne aussi la manière dont les entreprises construisent leur système d’information (SI). La cybersécurité est ainsi une autre préoccupation majeure pour les entreprises. Car des systèmes d’IA mal conçus ou mal utilisés pourraient entraîner des conséquences désastreuses.
Les deux failles particulièrement observées :
-
- Systèmes autonomes : Les véhicules autonomes et les drones militaires peuvent causer des accidents ou être utilisés à des fins malveillantes. Des régulations strictes et des protocoles de sécurité sont toutefois en cours d'élaboration pour minimiser ces risques.
- Cybersécurité : L'IA peut être exploitée pour mener des cyberattaques sophistiquées, mettant en danger les infrastructures critiques et les données personnelles. Et les utilisateurs eux-mêmes peuvent aussi, par inadvertance, faire fuiter des données sensibles en utilisant des IA. Résultat : les entreprises investissent de plus en plus dans des solutions de cybersécurité pour contrer ces menaces.
Les enjeux éthiques et moraux
Réfléchir sur les valeurs et les normes guidant les actions humaines, en questionnant ce qui est bien ou mal, c’est le rôle de l’éthique. Or, l’IA n’a pas fini d’évoluer et de se transformer. Quels seront les prochains usages, les prochains champs d’application possibles ? Pour anticiper les problèmes, il faut dès maintenant s’emparer des questions éthiques et morales. Car l'IA, en tant qu'outil puissant, doit être pensée et utilisée de manière responsable pour éviter les abus.
Deux points sont ainsi particulièrement importants à prendre en compte :
- Biais et discrimination : Les algorithmes peuvent perpétuer ou aggraver les biais existants, menant à des décisions injustes dans des domaines tels que le recrutement et le système judiciaire. C’est pourquoi la transparence et l'audit des algorithmes sont des mesures cruciales pour réduire ces biais.
- Responsabilité : Lorsqu'une IA cause un dommage, déterminer la responsabilité peut être complexe, que ce soit celle du développeur, de l'utilisateur, ou de l'IA elle-même. Des cadres juridiques doivent encore être construits pour clarifier ces aspects, à l’image de l’IA Act porté par l’Union européenne.
- Protection de la vie privée : Les systèmes d’IA, d’acquisition et d’archivage de données personnelles peuvent s’introduire dans la vie privée et intime des utilisateurs. Des mesures de protection doivent donc être prises.
L’université de Montréal a par exemple listé 10 principes pour un développement responsable de l’intelligence artificielle.
Pour approfondir le sujet, voici une vidéo de la chercheuse Asma Mhalla pour l’UNESCO, qui présente les enjeux et les perspectives autour de l'IA. Elle pose notamment une question importante à l’heure où les géants de la Tech prennent une importance croissante dans les débats internationaux : qui gouverne les concepteurs d’IA ?
Comme tous les outils avant elle, l'IA offre des avantages indéniables pour le développement de nos activités. Le danger, ce n’est donc pas l’IA en tant que telle, mais les dérives possibles de son utilisation. C’est pourquoi il est crucial de continuer à débattre et à réguler son développement, afin de maximiser ses bénéfices tout en minimisant ses risques. Tous les experts s'accordent maintenant sur la nécessité d'une approche équilibrée, combinant innovation et prudence, pour faire de la technologie le remède et non le poison.
Vous voulez en apprendre davantage sur la conception des IA ? Alors inscrivez-vous à notre formation Data & IA Engineer en alternance et obtenez le titre certifié Chef de projet en Intelligence Artificielle de niveau Bac+5 !
Pour vous inscrire, c’est par ici !