Éthique et Sécurité : Piliers Essentiels de l'IA Générative
Dans le domaine de l'intelligence artificielle, l'éthique et la sécurité sont deux aspects essentiels pour garantir une utilisation responsable et bénéfique des modèles. Quels sont les enjeux clés et les bonnes pratiques à adopter pour naviguer dans ces domaines complexes ?
Les défis éthiques de l'IA générative
L'intelligence artificielle générative présente plusieurs défis éthiques nécessitant une attention particulière de la part des développeurs et des utilisateurs. Ces défis incluent la gestion de la création de contenus potentiellement nuisibles et la responsabilisation des créateurs.
Prévention de la création de contenus faux ou nuisibles
Un des principaux défis concerne la véracité des contenus générés. Il est crucial d'empêcher l'IA de produire des faux contenus, trompeurs ou offensants. Les grands modèles de langage peuvent établir des corrélations entre des éléments de texte sans garantir leur exactitude, entraînant des erreurs ou des hallucinations (résultats corrects syntaxiquement, mais basés sur de fausses hypothèses). Cela souligne l'importance de mettre en place des filtres et des contrôles rigoureux lors de la conception des modèles d'IA.
Responsabilisation des créateurs
Les développeurs d'IA générative doivent assumer la responsabilité des actions de leurs créations. Cela inclut la prévention des abus et l'intervention active en cas d'utilisations non éthiques. Pour minimiser les risques d'erreur, les concepteurs doivent utiliser des sources de données de qualité et établir des critères explicites pour la constitution des corpus d'apprentissage des modèles.
Il est de la responsabilité des éditeurs de ces modèles et des concepteurs de produits IA d’établir des lignes directrices éthiques, d’intégrer des mécanismes de signalement des éventuels problèmes ou manquements et d’assurer une transparence totale sur l’utilisation des données de l’entraînement des modèles à leur utilisation.
Équité et biais algorithmiques
Garantir l'équité des modèles d'IA et minimiser les biais requiert une évaluation et une réévaluation constantes des algorithmes. Cela vise à éviter la perpétuation de stéréotypes ou de discriminations.
Sécurité des données et protection de la vie privée
La protection des données personnelles et la sécurité des informations sont essentielles pour maintenir la confiance des utilisateurs et assurer une utilisation éthique de la technologie.
Transparence et protection dans l'utilisation des données
Adopter une démarche transparente implique de communiquer clairement sur les méthodes de collecte, d'utilisation et de partage des données. Cela permet aux utilisateurs de comprendre et de contrôler l'utilisation de leurs informations. Les données personnelles doivent être sécurisées par le chiffrement, l'application de politiques de confidentialité strictes et la sensibilisation des utilisateurs à la gestion de leurs informations.
Consentement éclairé
Assurer que les utilisateurs fournissent un consentement éclairé avant de collecter ou d'utiliser leurs données est crucial pour la protection de la vie privée. Cela inclut d’informer clairement les utilisateurs sur l'utilisation de leurs informations :
- Transparence sur l'usage des données
- Options de gestion des préférences
- Droit à l'oubli et à la portabilité des données
Sécurité des infrastructures
Les infrastructures hébergeant les modèles d'IA générative doivent être protégées contre les cyberattaques et les fuites de données. Cela implique des audits de sécurité réguliers et l'adoption de pratiques de sécurité informatique avancées.
Sécurité des données et protection de la vie privée
L'éthique dès la conception
Intégrer l'éthique dès la conception des modèles d'IA générative est fondamental. Cela permet de guider le développement et l'utilisation de ces technologies dès le départ.
Ethics by Design
Les principes éthiques fondamentaux comprennent le respect de la vie privée, la non-discrimination et la transparence. Le design éthique nécessite une collaboration multidisciplinaire pour garantir que les produits d'IA sont conçus avec une conscience éthique dès les premières étapes de développement.
Études d'impact et analyse des réponses des modèles
Il est crucial d'effectuer des études d'impact pour évaluer les effets des modèles d'IA générative sur la société et l'individu. Cela aide à identifier et à atténuer les risques potentiels. Les études d'impact social permettent de comprendre comment l'IA affecte les comportements humains et les structures sociales. L'analyse régulière des réponses fournies par les modèles d'IA est essentielle pour détecter les biais et les erreurs, et assurer l'équité et la précision des réponses.
L'avenir de l'intelligence artificielle générative dépend de sa capacité à innover tout en restant ancrée dans une démarche responsable. L'innovation dans l'IA doit s'accompagner d'une réflexion éthique, prenant en compte les conséquences potentielles sur la société. Cet équilibre est essentiel pour le développement durable de la technologie.
Ces articles sont susceptibles de vous intéresser
-
L’éthique de l’IA générative en trois questions clés
Lire l'article(BlogPost: { "ab" : false, "abStatus" : null, "abTestId" : null, "abVariation" : false, "abVariationAutomated" : false, "absoluteUrl" : "https://www.wildcodeschool.com/fr-fr/blog/léthique-de-lia-générative-en-trois-questions-clés", "afterPostBody" : null, "aifeatures" : null, "allowedSlugConflict" : false, "analytics" : null, "analyticsPageId" : "156126989454", "analyticsPageType" : "blog-post", "approvalStatus" : null, "archived" : false, "archivedAt" : 0, "archivedInDashboard" : false, "areCommentsAllowed" : false, "attachedStylesheets" : [ ], "audienceAccess" : "PUBLIC", "author" : null, "authorName" : null, "authorUsername" : null, "blogAuthor" : { "avatar" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/Fabrice%20Deblock%20journaliste%20(1).jpeg", "bio" : "Journaliste contributeur", "cdnPurgeEmbargoTime" : null, "cosObjectType" : "BLOG_AUTHOR", "created" : 1706092122606, "deletedAt" : 0, "displayName" : "Fabrice Deblock", "email" : "", "facebook" : "", "fullName" : "Fabrice Deblock", "gravatarUrl" : null, "hasSocialProfiles" : true, "id" : 154132536716, "label" : "Fabrice Deblock", "language" : "fr-fr", "linkedin" : "https://www.linkedin.com/in/fabricedeblock/?originalSubdomain=fr", "name" : "Fabrice Deblock", "portalId" : 2902314, "slug" : "fabrice-deblock", "translatedFromId" : null, "translations" : { }, "twitter" : "", "twitterUsername" : "", "updated" : 1706092226521, "userId" : null, "username" : null, "website" : "" }, "blogAuthorId" : 154132536716, "blogPostAuthor" : { "avatar" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/Fabrice%20Deblock%20journaliste%20(1).jpeg", "bio" : "Journaliste contributeur", "cdnPurgeEmbargoTime" : null, "cosObjectType" : "BLOG_AUTHOR", "created" : 1706092122606, "deletedAt" : 0, "displayName" : "Fabrice Deblock", "email" : "", "facebook" : "", "fullName" : "Fabrice Deblock", "gravatarUrl" : null, "hasSocialProfiles" : true, "id" : 154132536716, "label" : "Fabrice Deblock", "language" : "fr-fr", "linkedin" : "https://www.linkedin.com/in/fabricedeblock/?originalSubdomain=fr", "name" : "Fabrice Deblock", "portalId" : 2902314, "slug" : "fabrice-deblock", "translatedFromId" : null, "translations" : { }, "twitter" : "", "twitterUsername" : "", "updated" : 1706092226521, "userId" : null, "username" : null, "website" : "" }, "blogPostScheduleTaskUid" : null, "blogPublishInstantEmailCampaignId" : null, "blogPublishInstantEmailRetryCount" : null, "blogPublishInstantEmailTaskUid" : null, "blogPublishToSocialMediaTask" : "DONE_NOT_SENT", "blueprintTypeId" : 0, "businessUnitId" : null, "campaign" : null, "campaignName" : null, "campaignUtm" : null, "category" : 3, "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "checkPostLevelAudienceAccessFirst" : true, "clonedFrom" : null, "composeBody" : null, "compositionId" : 0, "contentAccessRuleIds" : [ ], "contentAccessRuleTypes" : [ ], "contentGroup" : 103175636270, "contentGroupId" : 103175636270, "contentTypeCategory" : 3, "contentTypeCategoryId" : 3, "contentTypeId" : null, "created" : 1707387971922, "createdByAgent" : null, "createdById" : 50704370, "createdTime" : 1707387971922, "crmObjectId" : null, "css" : { }, "cssText" : "", "ctaClicks" : null, "ctaViews" : null, "currentState" : "PUBLISHED", "currentlyPublished" : true, "deletedAt" : 0, "deletedBy" : null, "deletedByEmail" : null, "deletedById" : null, "domain" : "", "dynamicPageDataSourceId" : null, "dynamicPageDataSourceType" : null, "dynamicPageHubDbTableId" : null, "enableDomainStylesheets" : null, "enableGoogleAmpOutputOverride" : false, "enableLayoutStylesheets" : null, "errors" : [ ], "featuredImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-02-15_LTHIQUE_DE_LIA_GNRATIVE_EN_TROIS_QUESTIONS_CLS.jpg", "featuredImageAltText" : "", "featuredImageHeight" : 400, "featuredImageLength" : 0, "featuredImageWidth" : 600, "flexAreas" : { }, "folderId" : null, "footerHtml" : null, "freezeDate" : 1707980400000, "generateJsonLdEnabledOverride" : true, "hasContentAccessRules" : false, "hasUserChanges" : true, "headHtml" : null, "header" : null, "htmlTitle" : "L’éthique de l’IA générative en trois questions clés", "id" : 156126989454, "includeDefaultCustomCss" : null, "isCaptchaRequired" : true, "isCrawlableByBots" : false, "isDraft" : false, "isInstanceLayoutPage" : false, "isInstantEmailEnabled" : false, "isPublished" : true, "isSocialPublishingEnabled" : false, "keywords" : [ ], "label" : "L’éthique de l’IA générative en trois questions clés", "language" : "fr-fr", "lastEditSessionId" : null, "lastEditUpdateId" : null, "layoutSections" : { }, "legacyBlogTabid" : null, "legacyId" : null, "legacyPostGuid" : null, "linkRelCanonicalUrl" : null, "listTemplate" : "", "liveDomain" : "www.wildcodeschool.com", "mab" : false, "mabExperimentId" : null, "mabMaster" : false, "mabVariant" : false, "meta" : { "html_title" : "L’éthique de l’IA générative en trois questions clés", "public_access_rules" : [ ], "public_access_rules_enabled" : false, "use_featured_image" : true, "post_body" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>\n<!--more--><p><span style=\"color: #000000;\">Mais dans cette euphorie générale, il est important de garder la tête froide et de ne pas perdre de vue un certain nombre de <a data-insert=\"true\"><span style=\"font-weight: bold;\">principes fondamentaux liés à l’</span></a></span><span style=\"font-weight: bold;\">éthique</span><span style=\"color: #000000;\">. Car pour bien piloter un projet d’intelligence artificielle, l’éthique doit être placée au centre des préoccupations, au risque de négliger un certain nombre de prérequis indispensables.</span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment maintenir le rapport à la vérité ?</span></strong></h2>\n<p><span style=\"color: #222222;\">L'éthique de l'intelligence artificielle soulève plusieurs enjeux majeurs, notamment quand il s’agit d'IA générative. Le premier de ces enjeux concerne <span style=\"font-weight: bold;\">le rapport à la vérité</span>. Les grands modèles de langage (</span><em><span style=\"color: #222222;\">Large Language Models</span></em><span style=\"color: #222222;\"> en anglais) présentent en effet des corrélations entre des éléments de texte sans nécessairement que le lien soit avéré. </span></p>\n<p><span style=\"color: #222222;\">Cela peut engendrer des résultats erronés, voire <span style=\"font-weight: bold;\">des </span></span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/retour-vers-le-futur-de-lia-g%C3%A9n%C3%A9rative\" style=\"font-weight: bold;\">hallucinations</a><span style=\"color: #222222;\"> (résultats corrects d’un point de vue syntaxique, mais basés sur de fausses hypothèses). Le manque de compréhension des mots par ces systèmes peut avoir des conséquences graves, notamment dans des situations critiques, comme le souligne le </span><a href=\"https://www.ccne-ethique.fr/fr/cnpen\" style=\"font-weight: bold;\">Comité national pilote d'éthique du numérique</a><span style=\"color: #222222;\"> (CNPEN).</span></p>\n<p><span style=\"color: #222222;\">Pour minorer les risques d’erreur, les concepteurs de systèmes d’IA générative doivent privilégier l’usage de sources de qualité, jugées selon des critères explicites, pour la constitution et l’usage des corpus d’apprentissage des modèles (pré-entraînement), mais aussi pour leur l’optimisation.</span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment éviter la manipulation des utilisateurs ?</span></strong></h2>\n<p><span style=\"color: #222222;\">Un autre défi éthique majeur concerne <span style=\"font-weight: bold;\">la possible manipulation des utilisateurs</span>. Les textes générés, écrits dans un bon niveau de langage, peuvent donner l'impression que la machine est supérieure à l'homme, posant ainsi des risques de manipulation, intentionnelle ou non, des individus. Ces derniers peuvent ainsi <span style=\"font-weight: bold;\">se sentir pris à défaut ou incompétents devant les « capacités » de la machine</span>. </span></p>\n<p><span style=\"color: #222222;\">L’interaction en langage naturel peut par ailleurs amener l’utilisateur à parler plus librement de son intimité et à <span style=\"font-weight: bold;\">croire à une attention de la part de la machine</span> qui donne l’illusion de l’empathie humaine. Un système d’IA générative peut donc mettre les utilisateurs dans des situations les amenant à se confier, mais aussi à révéler des informations confidentielles. </span></p>\n<p><span style=\"color: #222222;\">Il est donc primordial de </span><a href=\"https://www.wildcodeschool.com/fr-fr/formation-intelligence-artificielle\" style=\"font-weight: bold;\">former les personnes</a><span style=\"color: #222222;\"> à l’utilisation de ces nouveaux outils. Il est notamment indispensable qu’elles apprennent à <span style=\"font-weight: bold;\">élaborer des requêtes précises (des prompts)</span> afin d’obtenir des réponses les plus pertinentes qui soient, sans risque de confusion ou de mauvaise interprétation. </span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment faire la différence entre les contenus générés par la machine et les humains ?</span></strong></h2>\n<p><span style=\"color: #222222;\">La nécessité de <span style=\"font-weight: bold;\">maintenir des distinctions claires entre les contenus générés par la machine et ceux créés par des humains</span> représente un troisième défi éthique de taille. Pouvoir faire la différence entre ces deux types de contenus permet notamment d’attribuer des responsabilités pour un éventuel préjudice. </span></p>\n<p><span style=\"color: #222222;\">Si un contenu provoque une tension éthique, par exemple à cause de la tentative de manipulation ou de la fraude qu’il contient, il est <span style=\"font-weight: bold;\">important de pouvoir tracer son origine</span> afin d’éviter la confusion entre un discours produit par une personne responsable, apte à répondre de ce qu’elle dit, et la parole algorithmique d’un système d’intelligence artificielle auquel </span><span style=\"color: #222222;\">il est plus complexe d'attribuer une responsabilité.</span></p>\n<p><span style=\"color: #222222;\">Par ailleurs, l'utilisation croissante des systèmes d'IA générative dans l'éducation soulève des préoccupations éthiques. Le risque est ici de <span style=\"font-weight: bold;\">remplacer la formation à la pensée critique par une simple acquisition de connaissances via la machine</span>. </span></p>\n<p><span style=\"color: #222222;\">L'utilisation de solutions techniques telles que des « watermarks » peut permettre aux utilisateurs de différencier les résultats issus des modèles d'IA de ceux produits par des auteurs humains.</span></p>\n<p><br><br></p>\n<p><span style=\"color: #222222;\">Le sujet de </span><span style=\"color: #000000;\">l’éthique</span><span style=\"color: #222222;\"> de l’intelligence artificielle vous intéresse ? Envie de prendre part aux réflexions en cours ? Découvrez nos offres de formation (en format bootcamp ou en alternance) dans les domaines </span><span style=\"color: #222222;\">de la </span><a href=\"https://www.wildcodeschool.com/fr-fr/formations-data?hsLang=fr-fr\" style=\"font-weight: bold;\">Data et de l'IA</a><span style=\"color: #222222;\">, et notamment <a href=\"/fr-fr/formation-intelligence-artificielle?__hstc=45788219.4567035ec7978208b7d12a59783d1338.1707388091287.1707388091287.1707388091287.1&__hssc=45788219.1.1707388091287&__hsfp=3140030652\" rel=\"noopener\"><span style=\"font-weight: bold;\">notre skill course dédié à l'Intelligence Artificielle</span></a>, à paraître prochainement. </span></p>", "post_summary" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>\n", "blog_post_schedule_task_uid" : null, "blog_publish_to_social_media_task" : "DONE_NOT_SENT", "blog_publish_instant_email_task_uid" : null, "blog_publish_instant_email_campaign_id" : null, "blog_publish_instant_email_retry_count" : null, "rss_body" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>\n<!--more--><p><span style=\"color: #000000;\">Mais dans cette euphorie générale, il est important de garder la tête froide et de ne pas perdre de vue un certain nombre de <a data-insert=\"true\"><span style=\"font-weight: bold;\">principes fondamentaux liés à l’</span></a></span><span style=\"font-weight: bold;\">éthique</span><span style=\"color: #000000;\">. Car pour bien piloter un projet d’intelligence artificielle, l’éthique doit être placée au centre des préoccupations, au risque de négliger un certain nombre de prérequis indispensables.</span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment maintenir le rapport à la vérité ?</span></strong></h2>\n<p><span style=\"color: #222222;\">L'éthique de l'intelligence artificielle soulève plusieurs enjeux majeurs, notamment quand il s’agit d'IA générative. Le premier de ces enjeux concerne <span style=\"font-weight: bold;\">le rapport à la vérité</span>. Les grands modèles de langage (</span><em><span style=\"color: #222222;\">Large Language Models</span></em><span style=\"color: #222222;\"> en anglais) présentent en effet des corrélations entre des éléments de texte sans nécessairement que le lien soit avéré. </span></p>\n<p><span style=\"color: #222222;\">Cela peut engendrer des résultats erronés, voire <span style=\"font-weight: bold;\">des </span></span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/retour-vers-le-futur-de-lia-g%C3%A9n%C3%A9rative\" style=\"font-weight: bold;\">hallucinations</a><span style=\"color: #222222;\"> (résultats corrects d’un point de vue syntaxique, mais basés sur de fausses hypothèses). Le manque de compréhension des mots par ces systèmes peut avoir des conséquences graves, notamment dans des situations critiques, comme le souligne le </span><a href=\"https://www.ccne-ethique.fr/fr/cnpen\" style=\"font-weight: bold;\">Comité national pilote d'éthique du numérique</a><span style=\"color: #222222;\"> (CNPEN).</span></p>\n<p><span style=\"color: #222222;\">Pour minorer les risques d’erreur, les concepteurs de systèmes d’IA générative doivent privilégier l’usage de sources de qualité, jugées selon des critères explicites, pour la constitution et l’usage des corpus d’apprentissage des modèles (pré-entraînement), mais aussi pour leur l’optimisation.</span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment éviter la manipulation des utilisateurs ?</span></strong></h2>\n<p><span style=\"color: #222222;\">Un autre défi éthique majeur concerne <span style=\"font-weight: bold;\">la possible manipulation des utilisateurs</span>. Les textes générés, écrits dans un bon niveau de langage, peuvent donner l'impression que la machine est supérieure à l'homme, posant ainsi des risques de manipulation, intentionnelle ou non, des individus. Ces derniers peuvent ainsi <span style=\"font-weight: bold;\">se sentir pris à défaut ou incompétents devant les « capacités » de la machine</span>. </span></p>\n<p><span style=\"color: #222222;\">L’interaction en langage naturel peut par ailleurs amener l’utilisateur à parler plus librement de son intimité et à <span style=\"font-weight: bold;\">croire à une attention de la part de la machine</span> qui donne l’illusion de l’empathie humaine. Un système d’IA générative peut donc mettre les utilisateurs dans des situations les amenant à se confier, mais aussi à révéler des informations confidentielles. </span></p>\n<p><span style=\"color: #222222;\">Il est donc primordial de </span><a href=\"https://www.wildcodeschool.com/fr-fr/formation-intelligence-artificielle\" style=\"font-weight: bold;\">former les personnes</a><span style=\"color: #222222;\"> à l’utilisation de ces nouveaux outils. Il est notamment indispensable qu’elles apprennent à <span style=\"font-weight: bold;\">élaborer des requêtes précises (des prompts)</span> afin d’obtenir des réponses les plus pertinentes qui soient, sans risque de confusion ou de mauvaise interprétation. </span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment faire la différence entre les contenus générés par la machine et les humains ?</span></strong></h2>\n<p><span style=\"color: #222222;\">La nécessité de <span style=\"font-weight: bold;\">maintenir des distinctions claires entre les contenus générés par la machine et ceux créés par des humains</span> représente un troisième défi éthique de taille. Pouvoir faire la différence entre ces deux types de contenus permet notamment d’attribuer des responsabilités pour un éventuel préjudice. </span></p>\n<p><span style=\"color: #222222;\">Si un contenu provoque une tension éthique, par exemple à cause de la tentative de manipulation ou de la fraude qu’il contient, il est <span style=\"font-weight: bold;\">important de pouvoir tracer son origine</span> afin d’éviter la confusion entre un discours produit par une personne responsable, apte à répondre de ce qu’elle dit, et la parole algorithmique d’un système d’intelligence artificielle auquel </span><span style=\"color: #222222;\">il est plus complexe d'attribuer une responsabilité.</span></p>\n<p><span style=\"color: #222222;\">Par ailleurs, l'utilisation croissante des systèmes d'IA générative dans l'éducation soulève des préoccupations éthiques. Le risque est ici de <span style=\"font-weight: bold;\">remplacer la formation à la pensée critique par une simple acquisition de connaissances via la machine</span>. </span></p>\n<p><span style=\"color: #222222;\">L'utilisation de solutions techniques telles que des « watermarks » peut permettre aux utilisateurs de différencier les résultats issus des modèles d'IA de ceux produits par des auteurs humains.</span></p>\n<p><br><br></p>\n<p><span style=\"color: #222222;\">Le sujet de </span><span style=\"color: #000000;\">l’éthique</span><span style=\"color: #222222;\"> de l’intelligence artificielle vous intéresse ? Envie de prendre part aux réflexions en cours ? Découvrez nos offres de formation (en format bootcamp ou en alternance) dans les domaines </span><span style=\"color: #222222;\">de la </span><a href=\"https://www.wildcodeschool.com/fr-fr/formations-data?hsLang=fr-fr\" style=\"font-weight: bold;\">Data et de l'IA</a><span style=\"color: #222222;\">, et notamment <a href=\"/fr-fr/formation-intelligence-artificielle?__hstc=45788219.4567035ec7978208b7d12a59783d1338.1707388091287.1707388091287.1707388091287.1&__hssc=45788219.1.1707388091287&__hsfp=3140030652\" rel=\"noopener\"><span style=\"font-weight: bold;\">notre skill course dédié à l'Intelligence Artificielle</span></a>, à paraître prochainement. </span></p>", "rss_summary" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>\n", "keywords" : [ ], "enable_google_amp_output_override" : false, "generate_json_ld_enabled" : true, "composition_id" : 0, "is_crawlable_by_bots" : false, "tag_ids" : [ 112529293687, 117730085406 ], "topic_ids" : [ 112529293687, 117730085406 ], "meta_description" : "Alors que 2023 a été l’année de l’intelligence artificielle générative, l’année 2024 sera-t-elle consacrée aux enjeux liés à l’éthique ? Nous vous proposons de découvrir les principales interrogations que l’émergence de cette technologie soulève.", "meta_keywords" : null, "past_mab_experiment_ids" : [ ], "deleted_by" : null, "featured_image_alt_text" : "", "layout_sections" : { }, "enable_layout_stylesheets" : null, "tweet" : null, "tweet_at" : null, "campaign_name" : null, "campaign_utm" : null, "tweet_immediately" : false, "publish_immediately" : false, "security_state" : "NONE", "scheduled_update_date" : 0, "placement_guids" : [ ], "property_for_dynamic_page_title" : null, "property_for_dynamic_page_slug" : null, "property_for_dynamic_page_meta_description" : null, "property_for_dynamic_page_featured_image" : null, "property_for_dynamic_page_canonical_url" : null, "preview_image_src" : null, "legacy_blog_tabid" : null, "legacy_post_guid" : null, "performable_variation_letter" : null, "style_override_id" : null, "has_user_changes" : true, "css" : { }, "css_text" : "", "unpublished_at" : 0, "published_by_id" : 50704370, "allowed_slug_conflict" : false, "ai_features" : null, "link_rel_canonical_url" : null, "page_redirected" : false, "page_expiry_enabled" : null, "page_expiry_date" : null, "page_expiry_redirect_id" : null, "page_expiry_redirect_url" : null, "deleted_by_id" : null, "state_when_deleted" : null, "cloned_from" : null, "staged_from" : null, "personas" : [ ], "compose_body" : null, "featured_image" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-02-15_LTHIQUE_DE_LIA_GNRATIVE_EN_TROIS_QUESTIONS_CLS.jpg", "featured_image_width" : 600, "password" : null, "header" : null, "head_html" : null, "footer_html" : null, "attached_stylesheets" : [ ], "enable_domain_stylesheets" : null, "include_default_custom_css" : null, "published_at" : 1707980400830, "featured_image_height" : 400, "publish_timezone_offset" : null, "theme_settings_values" : null, "last_edit_session_id" : null, "last_edit_update_id" : null, "created_by_agent" : null }, "metaDescription" : "Alors que 2023 a été l’année de l’intelligence artificielle générative, l’année 2024 sera-t-elle consacrée aux enjeux liés à l’éthique ? Nous vous proposons de découvrir les principales interrogations que l’émergence de cette technologie soulève.", "metaKeywords" : null, "name" : "L’éthique de l’IA générative en trois questions clés", "nextPostFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-02-20_6_TIPS_POUR_UN_TOP_PROFIL_LINKEDIN.jpg", "nextPostFeaturedImageAltText" : "", "nextPostName" : "6 tips pour un top profil LinkedIn", "nextPostSlug" : "fr-fr/blog/6-tips-pour-un-top-profil-linkedin", "pageExpiryDate" : null, "pageExpiryEnabled" : null, "pageExpiryRedirectId" : null, "pageExpiryRedirectUrl" : null, "pageRedirected" : false, "pageTitle" : "L’éthique de l’IA générative en trois questions clés", "parentBlog" : { "absoluteUrl" : "https://www.wildcodeschool.com/fr-fr/blog", "allowComments" : false, "ampBodyColor" : "#404040", "ampBodyFont" : "'Helvetica Neue', Helvetica, Arial, sans-serif", "ampBodyFontSize" : "18", "ampCustomCss" : "", "ampHeaderBackgroundColor" : "#ffffff", "ampHeaderColor" : "#1e1e1e", "ampHeaderFont" : "'Helvetica Neue', Helvetica, Arial, sans-serif", "ampHeaderFontSize" : "36", "ampLinkColor" : "#416bb3", "ampLogoAlt" : "", "ampLogoHeight" : 0, "ampLogoSrc" : "", "ampLogoWidth" : 0, "analyticsPageId" : 103175636270, "attachedStylesheets" : [ ], "audienceAccess" : "PUBLIC", "businessUnitId" : null, "captchaAfterDays" : 7, "captchaAlways" : false, "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "closeCommentsOlder" : 0, "commentDateFormat" : "medium", "commentFormGuid" : "c7bc1329-e868-4cf0-9b1c-23d0a756caa6", "commentMaxThreadDepth" : 1, "commentModeration" : false, "commentNotificationEmails" : [ ], "commentShouldCreateContact" : false, "commentVerificationText" : "", "cosObjectType" : "BLOG", "created" : 1676891663653, "createdDateTime" : 1676891663653, "dailyNotificationEmailId" : null, "dateFormattingLanguage" : null, "defaultGroupStyleId" : "", "defaultNotificationFromName" : "", "defaultNotificationReplyTo" : "", "deletedAt" : 0, "description" : "Faites le plein d'informations liées aux métiers de la tech.", "domain" : "", "domainWhenPublished" : "www.wildcodeschool.com", "emailApiSubscriptionId" : null, "enableGoogleAmpOutput" : true, "enableSocialAutoPublishing" : false, "generateJsonLdEnabled" : true, "header" : null, "htmlFooter" : "", "htmlFooterIsShared" : true, "htmlHead" : "", "htmlHeadIsShared" : true, "htmlKeywords" : [ ], "htmlTitle" : "Le blog de la Wild Code School - Wild Code School", "id" : 103175636270, "ilsSubscriptionListsByType" : { }, "instantNotificationEmailId" : null, "itemLayoutId" : null, "itemTemplateIsShared" : false, "itemTemplatePath" : "MarkentivexWCS/templates/blog-post.html", "label" : "Blog", "language" : "fr-fr", "legacyGuid" : null, "legacyModuleId" : null, "legacyTabId" : null, "listingLayoutId" : null, "listingPageId" : 103175636271, "listingTemplatePath" : "", "liveDomain" : "www.wildcodeschool.com", "monthFilterFormat" : "MMMM yyyy", "monthlyNotificationEmailId" : null, "name" : "Blog", "parentBlogUpdateTaskId" : null, "portalId" : 2902314, "postHtmlFooter" : "", "postHtmlHead" : "", "postsPerListingPage" : 9, "postsPerRssFeed" : 10, "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "publicTitle" : "Blog", "publishDateFormat" : "dd/MM/YYYY", "resolvedDomain" : "www.wildcodeschool.com", "rootUrl" : "https://www.wildcodeschool.com/fr-fr/blog", "rssCustomFeed" : null, "rssDescription" : null, "rssItemFooter" : null, "rssItemHeader" : null, "settingsOverrides" : { "itemLayoutId" : false, "itemTemplatePath" : false, "itemTemplateIsShared" : false, "listingLayoutId" : false, "listingTemplatePath" : false, "postsPerListingPage" : false, "showSummaryInListing" : false, "useFeaturedImageInSummary" : false, "htmlHead" : false, "postHtmlHead" : false, "htmlHeadIsShared" : false, "htmlFooter" : false, "listingPageHtmlFooter" : false, "postHtmlFooter" : false, "htmlFooterIsShared" : false, "attachedStylesheets" : false, "postsPerRssFeed" : false, "showSummaryInRss" : false, "showSummaryInEmails" : false, "showSummariesInEmails" : false, "allowComments" : false, "commentShouldCreateContact" : false, "commentModeration" : false, "closeCommentsOlder" : false, "commentNotificationEmails" : false, "commentMaxThreadDepth" : false, "commentVerificationText" : false, "socialAccountTwitter" : false, "showSocialLinkTwitter" : false, "showSocialLinkLinkedin" : false, "showSocialLinkFacebook" : false, "enableGoogleAmpOutput" : false, "ampLogoSrc" : false, "ampLogoHeight" : false, "ampLogoWidth" : false, "ampLogoAlt" : false, "ampHeaderFont" : false, "ampHeaderFontSize" : false, "ampHeaderColor" : false, "ampHeaderBackgroundColor" : false, "ampBodyFont" : false, "ampBodyFontSize" : false, "ampBodyColor" : false, "ampLinkColor" : false, "generateJsonLdEnabled" : false }, "showSocialLinkFacebook" : true, "showSocialLinkLinkedin" : true, "showSocialLinkTwitter" : true, "showSummaryInEmails" : true, "showSummaryInListing" : true, "showSummaryInRss" : true, "siteId" : null, "slug" : "fr-fr/blog", "socialAccountTwitter" : "", "state" : null, "subscriptionContactsProperty" : null, "subscriptionEmailType" : null, "subscriptionFormGuid" : null, "subscriptionListsByType" : { }, "title" : null, "translatedFromId" : null, "translations" : { "de-de" : { "absoluteUrl" : "https://www.wildcodeschool.com/de-de/blog", "id" : 103176710277, "language" : "de-de", "masterId" : 103175636270, "name" : "Blog", "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "slug" : "de-de/blog" }, "en-gb" : { "absoluteUrl" : "https://www.wildcodeschool.com/en-gb/blog", "id" : 103176710275, "language" : "en-gb", "masterId" : 103175636270, "name" : "Blog", "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "slug" : "en-gb/blog" }, "es-es" : { "absoluteUrl" : "https://www.wildcodeschool.com/es-es/blog", "id" : 103176710278, "language" : "es-es", "masterId" : 103175636270, "name" : "Blog", "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "slug" : "es-es/blog" }, "pt-pt" : { "absoluteUrl" : "https://www.wildcodeschool.com/pt-pt/blog", "id" : 103176710276, "language" : "pt-pt", "masterId" : 103175636270, "name" : "Blog", "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "slug" : "pt-pt/blog" } }, "updated" : 1726755591366, "updatedDateTime" : 1726755591366, "urlBase" : "www.wildcodeschool.com/fr-fr/blog", "urlSegments" : { "all" : "all", "archive" : "archive", "author" : "author", "page" : "page", "tag" : "tag" }, "useFeaturedImageInSummary" : true, "usesDefaultTemplate" : false, "weeklyNotificationEmailId" : null }, "password" : null, "pastMabExperimentIds" : [ ], "performableGuid" : null, "performableVariationLetter" : null, "personas" : [ ], "placementGuids" : [ ], "portableKey" : null, "portalId" : 2902314, "position" : null, "postBody" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>\n<!--more--><p><span style=\"color: #000000;\">Mais dans cette euphorie générale, il est important de garder la tête froide et de ne pas perdre de vue un certain nombre de <a data-insert=\"true\"><span style=\"font-weight: bold;\">principes fondamentaux liés à l’</span></a></span><span style=\"font-weight: bold;\">éthique</span><span style=\"color: #000000;\">. Car pour bien piloter un projet d’intelligence artificielle, l’éthique doit être placée au centre des préoccupations, au risque de négliger un certain nombre de prérequis indispensables.</span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment maintenir le rapport à la vérité ?</span></strong></h2>\n<p><span style=\"color: #222222;\">L'éthique de l'intelligence artificielle soulève plusieurs enjeux majeurs, notamment quand il s’agit d'IA générative. Le premier de ces enjeux concerne <span style=\"font-weight: bold;\">le rapport à la vérité</span>. Les grands modèles de langage (</span><em><span style=\"color: #222222;\">Large Language Models</span></em><span style=\"color: #222222;\"> en anglais) présentent en effet des corrélations entre des éléments de texte sans nécessairement que le lien soit avéré. </span></p>\n<p><span style=\"color: #222222;\">Cela peut engendrer des résultats erronés, voire <span style=\"font-weight: bold;\">des </span></span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/retour-vers-le-futur-de-lia-g%C3%A9n%C3%A9rative\" style=\"font-weight: bold;\">hallucinations</a><span style=\"color: #222222;\"> (résultats corrects d’un point de vue syntaxique, mais basés sur de fausses hypothèses). Le manque de compréhension des mots par ces systèmes peut avoir des conséquences graves, notamment dans des situations critiques, comme le souligne le </span><a href=\"https://www.ccne-ethique.fr/fr/cnpen\" style=\"font-weight: bold;\">Comité national pilote d'éthique du numérique</a><span style=\"color: #222222;\"> (CNPEN).</span></p>\n<p><span style=\"color: #222222;\">Pour minorer les risques d’erreur, les concepteurs de systèmes d’IA générative doivent privilégier l’usage de sources de qualité, jugées selon des critères explicites, pour la constitution et l’usage des corpus d’apprentissage des modèles (pré-entraînement), mais aussi pour leur l’optimisation.</span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment éviter la manipulation des utilisateurs ?</span></strong></h2>\n<p><span style=\"color: #222222;\">Un autre défi éthique majeur concerne <span style=\"font-weight: bold;\">la possible manipulation des utilisateurs</span>. Les textes générés, écrits dans un bon niveau de langage, peuvent donner l'impression que la machine est supérieure à l'homme, posant ainsi des risques de manipulation, intentionnelle ou non, des individus. Ces derniers peuvent ainsi <span style=\"font-weight: bold;\">se sentir pris à défaut ou incompétents devant les « capacités » de la machine</span>. </span></p>\n<p><span style=\"color: #222222;\">L’interaction en langage naturel peut par ailleurs amener l’utilisateur à parler plus librement de son intimité et à <span style=\"font-weight: bold;\">croire à une attention de la part de la machine</span> qui donne l’illusion de l’empathie humaine. Un système d’IA générative peut donc mettre les utilisateurs dans des situations les amenant à se confier, mais aussi à révéler des informations confidentielles. </span></p>\n<p><span style=\"color: #222222;\">Il est donc primordial de </span><a href=\"https://www.wildcodeschool.com/fr-fr/formation-intelligence-artificielle\" style=\"font-weight: bold;\">former les personnes</a><span style=\"color: #222222;\"> à l’utilisation de ces nouveaux outils. Il est notamment indispensable qu’elles apprennent à <span style=\"font-weight: bold;\">élaborer des requêtes précises (des prompts)</span> afin d’obtenir des réponses les plus pertinentes qui soient, sans risque de confusion ou de mauvaise interprétation. </span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment faire la différence entre les contenus générés par la machine et les humains ?</span></strong></h2>\n<p><span style=\"color: #222222;\">La nécessité de <span style=\"font-weight: bold;\">maintenir des distinctions claires entre les contenus générés par la machine et ceux créés par des humains</span> représente un troisième défi éthique de taille. Pouvoir faire la différence entre ces deux types de contenus permet notamment d’attribuer des responsabilités pour un éventuel préjudice. </span></p>\n<p><span style=\"color: #222222;\">Si un contenu provoque une tension éthique, par exemple à cause de la tentative de manipulation ou de la fraude qu’il contient, il est <span style=\"font-weight: bold;\">important de pouvoir tracer son origine</span> afin d’éviter la confusion entre un discours produit par une personne responsable, apte à répondre de ce qu’elle dit, et la parole algorithmique d’un système d’intelligence artificielle auquel </span><span style=\"color: #222222;\">il est plus complexe d'attribuer une responsabilité.</span></p>\n<p><span style=\"color: #222222;\">Par ailleurs, l'utilisation croissante des systèmes d'IA générative dans l'éducation soulève des préoccupations éthiques. Le risque est ici de <span style=\"font-weight: bold;\">remplacer la formation à la pensée critique par une simple acquisition de connaissances via la machine</span>. </span></p>\n<p><span style=\"color: #222222;\">L'utilisation de solutions techniques telles que des « watermarks » peut permettre aux utilisateurs de différencier les résultats issus des modèles d'IA de ceux produits par des auteurs humains.</span></p>\n<p><br><br></p>\n<p><span style=\"color: #222222;\">Le sujet de </span><span style=\"color: #000000;\">l’éthique</span><span style=\"color: #222222;\"> de l’intelligence artificielle vous intéresse ? Envie de prendre part aux réflexions en cours ? Découvrez nos offres de formation (en format bootcamp ou en alternance) dans les domaines </span><span style=\"color: #222222;\">de la </span><a href=\"https://www.wildcodeschool.com/fr-fr/formations-data?hsLang=fr-fr\" style=\"font-weight: bold;\">Data et de l'IA</a><span style=\"color: #222222;\">, et notamment <a href=\"/fr-fr/formation-intelligence-artificielle?__hstc=45788219.4567035ec7978208b7d12a59783d1338.1707388091287.1707388091287.1707388091287.1&__hssc=45788219.1.1707388091287&__hsfp=3140030652\" rel=\"noopener\"><span style=\"font-weight: bold;\">notre skill course dédié à l'Intelligence Artificielle</span></a>, à paraître prochainement. </span></p>", "postBodyRss" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>\n<!--more--><p><span style=\"color: #000000;\">Mais dans cette euphorie générale, il est important de garder la tête froide et de ne pas perdre de vue un certain nombre de <a data-insert=\"true\"><span style=\"font-weight: bold;\">principes fondamentaux liés à l’</span></a></span><span style=\"font-weight: bold;\">éthique</span><span style=\"color: #000000;\">. Car pour bien piloter un projet d’intelligence artificielle, l’éthique doit être placée au centre des préoccupations, au risque de négliger un certain nombre de prérequis indispensables.</span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment maintenir le rapport à la vérité ?</span></strong></h2>\n<p><span style=\"color: #222222;\">L'éthique de l'intelligence artificielle soulève plusieurs enjeux majeurs, notamment quand il s’agit d'IA générative. Le premier de ces enjeux concerne <span style=\"font-weight: bold;\">le rapport à la vérité</span>. Les grands modèles de langage (</span><em><span style=\"color: #222222;\">Large Language Models</span></em><span style=\"color: #222222;\"> en anglais) présentent en effet des corrélations entre des éléments de texte sans nécessairement que le lien soit avéré. </span></p>\n<p><span style=\"color: #222222;\">Cela peut engendrer des résultats erronés, voire <span style=\"font-weight: bold;\">des </span></span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/retour-vers-le-futur-de-lia-g%C3%A9n%C3%A9rative\" style=\"font-weight: bold;\">hallucinations</a><span style=\"color: #222222;\"> (résultats corrects d’un point de vue syntaxique, mais basés sur de fausses hypothèses). Le manque de compréhension des mots par ces systèmes peut avoir des conséquences graves, notamment dans des situations critiques, comme le souligne le </span><a href=\"https://www.ccne-ethique.fr/fr/cnpen\" style=\"font-weight: bold;\">Comité national pilote d'éthique du numérique</a><span style=\"color: #222222;\"> (CNPEN).</span></p>\n<p><span style=\"color: #222222;\">Pour minorer les risques d’erreur, les concepteurs de systèmes d’IA générative doivent privilégier l’usage de sources de qualité, jugées selon des critères explicites, pour la constitution et l’usage des corpus d’apprentissage des modèles (pré-entraînement), mais aussi pour leur l’optimisation.</span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment éviter la manipulation des utilisateurs ?</span></strong></h2>\n<p><span style=\"color: #222222;\">Un autre défi éthique majeur concerne <span style=\"font-weight: bold;\">la possible manipulation des utilisateurs</span>. Les textes générés, écrits dans un bon niveau de langage, peuvent donner l'impression que la machine est supérieure à l'homme, posant ainsi des risques de manipulation, intentionnelle ou non, des individus. Ces derniers peuvent ainsi <span style=\"font-weight: bold;\">se sentir pris à défaut ou incompétents devant les « capacités » de la machine</span>. </span></p>\n<p><span style=\"color: #222222;\">L’interaction en langage naturel peut par ailleurs amener l’utilisateur à parler plus librement de son intimité et à <span style=\"font-weight: bold;\">croire à une attention de la part de la machine</span> qui donne l’illusion de l’empathie humaine. Un système d’IA générative peut donc mettre les utilisateurs dans des situations les amenant à se confier, mais aussi à révéler des informations confidentielles. </span></p>\n<p><span style=\"color: #222222;\">Il est donc primordial de </span><a href=\"https://www.wildcodeschool.com/fr-fr/formation-intelligence-artificielle\" style=\"font-weight: bold;\">former les personnes</a><span style=\"color: #222222;\"> à l’utilisation de ces nouveaux outils. Il est notamment indispensable qu’elles apprennent à <span style=\"font-weight: bold;\">élaborer des requêtes précises (des prompts)</span> afin d’obtenir des réponses les plus pertinentes qui soient, sans risque de confusion ou de mauvaise interprétation. </span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment faire la différence entre les contenus générés par la machine et les humains ?</span></strong></h2>\n<p><span style=\"color: #222222;\">La nécessité de <span style=\"font-weight: bold;\">maintenir des distinctions claires entre les contenus générés par la machine et ceux créés par des humains</span> représente un troisième défi éthique de taille. Pouvoir faire la différence entre ces deux types de contenus permet notamment d’attribuer des responsabilités pour un éventuel préjudice. </span></p>\n<p><span style=\"color: #222222;\">Si un contenu provoque une tension éthique, par exemple à cause de la tentative de manipulation ou de la fraude qu’il contient, il est <span style=\"font-weight: bold;\">important de pouvoir tracer son origine</span> afin d’éviter la confusion entre un discours produit par une personne responsable, apte à répondre de ce qu’elle dit, et la parole algorithmique d’un système d’intelligence artificielle auquel </span><span style=\"color: #222222;\">il est plus complexe d'attribuer une responsabilité.</span></p>\n<p><span style=\"color: #222222;\">Par ailleurs, l'utilisation croissante des systèmes d'IA générative dans l'éducation soulève des préoccupations éthiques. Le risque est ici de <span style=\"font-weight: bold;\">remplacer la formation à la pensée critique par une simple acquisition de connaissances via la machine</span>. </span></p>\n<p><span style=\"color: #222222;\">L'utilisation de solutions techniques telles que des « watermarks » peut permettre aux utilisateurs de différencier les résultats issus des modèles d'IA de ceux produits par des auteurs humains.</span></p>\n<p><br><br></p>\n<p><span style=\"color: #222222;\">Le sujet de </span><span style=\"color: #000000;\">l’éthique</span><span style=\"color: #222222;\"> de l’intelligence artificielle vous intéresse ? Envie de prendre part aux réflexions en cours ? Découvrez nos offres de formation (en format bootcamp ou en alternance) dans les domaines </span><span style=\"color: #222222;\">de la </span><a href=\"https://www.wildcodeschool.com/fr-fr/formations-data?hsLang=fr-fr\" style=\"font-weight: bold;\">Data et de l'IA</a><span style=\"color: #222222;\">, et notamment <a href=\"/fr-fr/formation-intelligence-artificielle?__hstc=45788219.4567035ec7978208b7d12a59783d1338.1707388091287.1707388091287.1707388091287.1&__hssc=45788219.1.1707388091287&__hsfp=3140030652\" rel=\"noopener\"><span style=\"font-weight: bold;\">notre skill course dédié à l'Intelligence Artificielle</span></a>, à paraître prochainement. </span></p>", "postEmailContent" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>", "postFeaturedImageIfEnabled" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-02-15_LTHIQUE_DE_LIA_GNRATIVE_EN_TROIS_QUESTIONS_CLS.jpg", "postListContent" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>", "postListSummaryFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-02-15_LTHIQUE_DE_LIA_GNRATIVE_EN_TROIS_QUESTIONS_CLS.jpg", "postRssContent" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>", "postRssSummaryFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-02-15_LTHIQUE_DE_LIA_GNRATIVE_EN_TROIS_QUESTIONS_CLS.jpg", "postSummary" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>\n", "postSummaryRss" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>", "postTemplate" : "MarkentivexWCS/templates/blog-post.html", "previewImageSrc" : null, "previewKey" : "RWVjghlw", "previousPostFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-02-07_DEVENIR_DVELOPPEURSE_WEB_EN_FREELANCE_LES_CONSEILS_CLS_POUR_SE_LANCER.webp", "previousPostFeaturedImageAltText" : "Wendy développeuse web", "previousPostName" : "Devenir développeur·se web en freelance : les conseils clés pour se lancer", "previousPostSlug" : "fr-fr/blog/devenir-développeurse-web-en-freelance-les-conseils-clés-pour-se-lancer", "processingStatus" : "PUBLISHED", "propertyForDynamicPageCanonicalUrl" : null, "propertyForDynamicPageFeaturedImage" : null, "propertyForDynamicPageMetaDescription" : null, "propertyForDynamicPageSlug" : null, "propertyForDynamicPageTitle" : null, "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "publishDate" : 1707980400000, "publishDateLocalTime" : 1707980400000, "publishDateLocalized" : { "date" : 1707980400000, "format" : "dd/MM/YYYY", "language" : null }, "publishImmediately" : false, "publishTimezoneOffset" : null, "publishedAt" : 1707980400830, "publishedByEmail" : null, "publishedById" : 50704370, "publishedByName" : null, "publishedUrl" : "https://www.wildcodeschool.com/fr-fr/blog/léthique-de-lia-générative-en-trois-questions-clés", "resolvedDomain" : "www.wildcodeschool.com", "resolvedLanguage" : null, "rssBody" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>\n<!--more--><p><span style=\"color: #000000;\">Mais dans cette euphorie générale, il est important de garder la tête froide et de ne pas perdre de vue un certain nombre de <a data-insert=\"true\"><span style=\"font-weight: bold;\">principes fondamentaux liés à l’</span></a></span><span style=\"font-weight: bold;\">éthique</span><span style=\"color: #000000;\">. Car pour bien piloter un projet d’intelligence artificielle, l’éthique doit être placée au centre des préoccupations, au risque de négliger un certain nombre de prérequis indispensables.</span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment maintenir le rapport à la vérité ?</span></strong></h2>\n<p><span style=\"color: #222222;\">L'éthique de l'intelligence artificielle soulève plusieurs enjeux majeurs, notamment quand il s’agit d'IA générative. Le premier de ces enjeux concerne <span style=\"font-weight: bold;\">le rapport à la vérité</span>. Les grands modèles de langage (</span><em><span style=\"color: #222222;\">Large Language Models</span></em><span style=\"color: #222222;\"> en anglais) présentent en effet des corrélations entre des éléments de texte sans nécessairement que le lien soit avéré. </span></p>\n<p><span style=\"color: #222222;\">Cela peut engendrer des résultats erronés, voire <span style=\"font-weight: bold;\">des </span></span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/retour-vers-le-futur-de-lia-g%C3%A9n%C3%A9rative\" style=\"font-weight: bold;\">hallucinations</a><span style=\"color: #222222;\"> (résultats corrects d’un point de vue syntaxique, mais basés sur de fausses hypothèses). Le manque de compréhension des mots par ces systèmes peut avoir des conséquences graves, notamment dans des situations critiques, comme le souligne le </span><a href=\"https://www.ccne-ethique.fr/fr/cnpen\" style=\"font-weight: bold;\">Comité national pilote d'éthique du numérique</a><span style=\"color: #222222;\"> (CNPEN).</span></p>\n<p><span style=\"color: #222222;\">Pour minorer les risques d’erreur, les concepteurs de systèmes d’IA générative doivent privilégier l’usage de sources de qualité, jugées selon des critères explicites, pour la constitution et l’usage des corpus d’apprentissage des modèles (pré-entraînement), mais aussi pour leur l’optimisation.</span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment éviter la manipulation des utilisateurs ?</span></strong></h2>\n<p><span style=\"color: #222222;\">Un autre défi éthique majeur concerne <span style=\"font-weight: bold;\">la possible manipulation des utilisateurs</span>. Les textes générés, écrits dans un bon niveau de langage, peuvent donner l'impression que la machine est supérieure à l'homme, posant ainsi des risques de manipulation, intentionnelle ou non, des individus. Ces derniers peuvent ainsi <span style=\"font-weight: bold;\">se sentir pris à défaut ou incompétents devant les « capacités » de la machine</span>. </span></p>\n<p><span style=\"color: #222222;\">L’interaction en langage naturel peut par ailleurs amener l’utilisateur à parler plus librement de son intimité et à <span style=\"font-weight: bold;\">croire à une attention de la part de la machine</span> qui donne l’illusion de l’empathie humaine. Un système d’IA générative peut donc mettre les utilisateurs dans des situations les amenant à se confier, mais aussi à révéler des informations confidentielles. </span></p>\n<p><span style=\"color: #222222;\">Il est donc primordial de </span><a href=\"https://www.wildcodeschool.com/fr-fr/formation-intelligence-artificielle\" style=\"font-weight: bold;\">former les personnes</a><span style=\"color: #222222;\"> à l’utilisation de ces nouveaux outils. Il est notamment indispensable qu’elles apprennent à <span style=\"font-weight: bold;\">élaborer des requêtes précises (des prompts)</span> afin d’obtenir des réponses les plus pertinentes qui soient, sans risque de confusion ou de mauvaise interprétation. </span></p>\n<p> </p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #000000;\">Comment faire la différence entre les contenus générés par la machine et les humains ?</span></strong></h2>\n<p><span style=\"color: #222222;\">La nécessité de <span style=\"font-weight: bold;\">maintenir des distinctions claires entre les contenus générés par la machine et ceux créés par des humains</span> représente un troisième défi éthique de taille. Pouvoir faire la différence entre ces deux types de contenus permet notamment d’attribuer des responsabilités pour un éventuel préjudice. </span></p>\n<p><span style=\"color: #222222;\">Si un contenu provoque une tension éthique, par exemple à cause de la tentative de manipulation ou de la fraude qu’il contient, il est <span style=\"font-weight: bold;\">important de pouvoir tracer son origine</span> afin d’éviter la confusion entre un discours produit par une personne responsable, apte à répondre de ce qu’elle dit, et la parole algorithmique d’un système d’intelligence artificielle auquel </span><span style=\"color: #222222;\">il est plus complexe d'attribuer une responsabilité.</span></p>\n<p><span style=\"color: #222222;\">Par ailleurs, l'utilisation croissante des systèmes d'IA générative dans l'éducation soulève des préoccupations éthiques. Le risque est ici de <span style=\"font-weight: bold;\">remplacer la formation à la pensée critique par une simple acquisition de connaissances via la machine</span>. </span></p>\n<p><span style=\"color: #222222;\">L'utilisation de solutions techniques telles que des « watermarks » peut permettre aux utilisateurs de différencier les résultats issus des modèles d'IA de ceux produits par des auteurs humains.</span></p>\n<p><br><br></p>\n<p><span style=\"color: #222222;\">Le sujet de </span><span style=\"color: #000000;\">l’éthique</span><span style=\"color: #222222;\"> de l’intelligence artificielle vous intéresse ? Envie de prendre part aux réflexions en cours ? Découvrez nos offres de formation (en format bootcamp ou en alternance) dans les domaines </span><span style=\"color: #222222;\">de la </span><a href=\"https://www.wildcodeschool.com/fr-fr/formations-data?hsLang=fr-fr\" style=\"font-weight: bold;\">Data et de l'IA</a><span style=\"color: #222222;\">, et notamment <a href=\"/fr-fr/formation-intelligence-artificielle?__hstc=45788219.4567035ec7978208b7d12a59783d1338.1707388091287.1707388091287.1707388091287.1&__hssc=45788219.1.1707388091287&__hsfp=3140030652\" rel=\"noopener\"><span style=\"font-weight: bold;\">notre skill course dédié à l'Intelligence Artificielle</span></a>, à paraître prochainement. </span></p>", "rssSummary" : "<p><span style=\"color: #000000;\">180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de </span><span style=\"font-weight: bold;\">l’</span><a href=\"https://www.wildcodeschool.com/fr-fr/blog/ia-g%C3%A9n%C3%A9ratives-prendre-le-pouls-de-la-r%C3%A9volution-en-marche\" style=\"font-weight: bold;\">intelligence artificielle générative</a><span style=\"color: #000000;\">, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA. </span></p>\n", "rssSummaryFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-02-15_LTHIQUE_DE_LIA_GNRATIVE_EN_TROIS_QUESTIONS_CLS.jpg", "scheduledUpdateDate" : 0, "screenshotPreviewTakenAt" : 1729493999735, "screenshotPreviewUrl" : "https://cdn1.hubspot.net/hubshotv3/prod/e/0/84b26e14-9ff8-4c06-a4f1-d1dc48ee3f6d.png", "sections" : { }, "securityState" : "NONE", "siteId" : null, "slug" : "fr-fr/blog/léthique-de-lia-générative-en-trois-questions-clés", "stagedFrom" : null, "state" : "PUBLISHED", "stateWhenDeleted" : null, "structuredContentPageType" : null, "structuredContentType" : null, "styleOverrideId" : null, "subcategory" : "normal_blog_post", "syncedWithBlogRoot" : true, "tagIds" : [ 112529293687, 117730085406 ], "tagList" : [ { "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "contentIds" : [ ], "cosObjectType" : "TAG", "created" : 1682323659406, "deletedAt" : 0, "description" : "", "id" : 112529293687, "label" : "Décryptage", "language" : "fr-fr", "name" : "Décryptage", "portalId" : 2902314, "slug" : "décryptage", "translatedFromId" : null, "translations" : { }, "updated" : 1689243063828 }, { "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "contentIds" : [ ], "cosObjectType" : "TAG", "created" : 1685378194804, "deletedAt" : 0, "description" : "", "id" : 117730085406, "label" : "Tech", "language" : "fr-fr", "name" : "Tech", "portalId" : 2902314, "slug" : "tech", "translatedFromId" : null, "translations" : { }, "updated" : 1685378194804 } ], "tagNames" : [ "Décryptage", "Tech" ], "teamPerms" : [ ], "templatePath" : "", "templatePathForRender" : "MarkentivexWCS/templates/blog-post.html", "textToAudioFileId" : null, "textToAudioGenerationRequestId" : null, "themePath" : null, "themeSettingsValues" : null, "title" : "L’éthique de l’IA générative en trois questions clés", "tmsId" : null, "topicIds" : [ 112529293687, 117730085406 ], "topicList" : [ { "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "contentIds" : [ ], "cosObjectType" : "TAG", "created" : 1682323659406, "deletedAt" : 0, "description" : "", "id" : 112529293687, "label" : "Décryptage", "language" : "fr-fr", "name" : "Décryptage", "portalId" : 2902314, "slug" : "décryptage", "translatedFromId" : null, "translations" : { }, "updated" : 1689243063828 }, { "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "contentIds" : [ ], "cosObjectType" : "TAG", "created" : 1685378194804, "deletedAt" : 0, "description" : "", "id" : 117730085406, "label" : "Tech", "language" : "fr-fr", "name" : "Tech", "portalId" : 2902314, "slug" : "tech", "translatedFromId" : null, "translations" : { }, "updated" : 1685378194804 } ], "topicNames" : [ "Décryptage", "Tech" ], "topics" : [ 112529293687, 117730085406 ], "translatedContent" : { }, "translatedFromId" : null, "translations" : { }, "tweet" : null, "tweetAt" : null, "tweetImmediately" : false, "unpublishedAt" : 0, "updated" : 1707980400835, "updatedById" : 50704370, "upsizeFeaturedImage" : false, "url" : "https://www.wildcodeschool.com/fr-fr/blog/léthique-de-lia-générative-en-trois-questions-clés", "useFeaturedImage" : true, "userPerms" : [ ], "views" : 0, "visibleToAll" : null, "widgetContainers" : { }, "widgetcontainers" : { }, "widgets" : { } }) -
IA Act : tout savoir sur le projet européen de régulation de l’IA
Lire l'article(BlogPost: { "ab" : false, "abStatus" : null, "abTestId" : null, "abVariation" : false, "abVariationAutomated" : false, "absoluteUrl" : "https://www.wildcodeschool.com/fr-fr/blog/ia-act-tout-savoir-sur-le-projet-européen-de-régulation-de-lia", "afterPostBody" : null, "aifeatures" : null, "allowedSlugConflict" : false, "analytics" : null, "analyticsPageId" : "136420051609", "analyticsPageType" : "blog-post", "approvalStatus" : null, "archived" : false, "archivedAt" : 0, "archivedInDashboard" : false, "areCommentsAllowed" : false, "attachedStylesheets" : [ ], "audienceAccess" : "PUBLIC", "author" : null, "authorName" : null, "authorUsername" : null, "blogAuthor" : { "avatar" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/1684833909839.jpeg", "bio" : "Journaliste contributeur", "cdnPurgeEmbargoTime" : null, "cosObjectType" : "BLOG_AUTHOR", "created" : 1686238750029, "deletedAt" : 0, "displayName" : "Calvin Ropers", "email" : "", "facebook" : "", "fullName" : "Calvin Ropers", "gravatarUrl" : null, "hasSocialProfiles" : true, "id" : 119398496648, "label" : "Calvin Ropers", "language" : null, "linkedin" : "https://www.linkedin.com/in/calvin-ropers-1b6582195/?originalSubdomain=fr", "name" : "Calvin Ropers", "portalId" : 2902314, "slug" : "calvin-ropers", "translatedFromId" : null, "translations" : { }, "twitter" : "", "twitterUsername" : "", "updated" : 1686839894865, "userId" : null, "username" : null, "website" : "" }, "blogAuthorId" : 119398496648, "blogPostAuthor" : { "avatar" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/1684833909839.jpeg", "bio" : "Journaliste contributeur", "cdnPurgeEmbargoTime" : null, "cosObjectType" : "BLOG_AUTHOR", "created" : 1686238750029, "deletedAt" : 0, "displayName" : "Calvin Ropers", "email" : "", "facebook" : "", "fullName" : "Calvin Ropers", "gravatarUrl" : null, "hasSocialProfiles" : true, "id" : 119398496648, "label" : "Calvin Ropers", "language" : null, "linkedin" : "https://www.linkedin.com/in/calvin-ropers-1b6582195/?originalSubdomain=fr", "name" : "Calvin Ropers", "portalId" : 2902314, "slug" : "calvin-ropers", "translatedFromId" : null, "translations" : { }, "twitter" : "", "twitterUsername" : "", "updated" : 1686839894865, "userId" : null, "username" : null, "website" : "" }, "blogPostScheduleTaskUid" : null, "blogPublishInstantEmailCampaignId" : null, "blogPublishInstantEmailRetryCount" : null, "blogPublishInstantEmailTaskUid" : null, "blogPublishToSocialMediaTask" : "DONE_NOT_SENT", "blueprintTypeId" : 0, "businessUnitId" : null, "campaign" : null, "campaignName" : null, "campaignUtm" : null, "category" : 3, "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "checkPostLevelAudienceAccessFirst" : true, "clonedFrom" : null, "composeBody" : null, "compositionId" : 0, "contentAccessRuleIds" : [ ], "contentAccessRuleTypes" : [ ], "contentGroup" : 103175636270, "contentGroupId" : 103175636270, "contentTypeCategory" : 3, "contentTypeCategoryId" : 3, "contentTypeId" : null, "created" : 1695645669288, "createdByAgent" : null, "createdById" : 50704370, "createdTime" : 1695645669288, "crmObjectId" : null, "css" : { }, "cssText" : "", "ctaClicks" : null, "ctaViews" : null, "currentState" : "PUBLISHED", "currentlyPublished" : true, "deletedAt" : 0, "deletedBy" : null, "deletedByEmail" : null, "deletedById" : null, "domain" : "", "dynamicPageDataSourceId" : null, "dynamicPageDataSourceType" : null, "dynamicPageHubDbTableId" : null, "enableDomainStylesheets" : null, "enableGoogleAmpOutputOverride" : false, "enableLayoutStylesheets" : null, "errors" : [ ], "featuredImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/04-10-2023_IA%20ACT%20-%20TOUT%20SAVOIR%20SUR%20LE%20PROJET%20EUROP%C3%89EN%20DE%20R%C3%89GULATION%20DE%20LIA.jpg", "featuredImageAltText" : "", "featuredImageHeight" : 1333, "featuredImageLength" : 0, "featuredImageWidth" : 2000, "flexAreas" : { }, "folderId" : null, "footerHtml" : null, "freezeDate" : 1696402800000, "generateJsonLdEnabledOverride" : true, "hasContentAccessRules" : false, "hasUserChanges" : true, "headHtml" : null, "header" : null, "htmlTitle" : "IA Act : tout savoir sur le projet européen de régulation de l’IA", "id" : 136420051609, "includeDefaultCustomCss" : null, "isCaptchaRequired" : true, "isCrawlableByBots" : false, "isDraft" : false, "isInstanceLayoutPage" : false, "isInstantEmailEnabled" : false, "isPublished" : true, "isSocialPublishingEnabled" : false, "keywords" : [ ], "label" : "IA Act : tout savoir sur le projet européen de régulation de l’IA", "language" : "fr-fr", "lastEditSessionId" : null, "lastEditUpdateId" : null, "layoutSections" : { }, "legacyBlogTabid" : null, "legacyId" : null, "legacyPostGuid" : null, "linkRelCanonicalUrl" : null, "listTemplate" : "", "liveDomain" : "www.wildcodeschool.com", "mab" : false, "mabExperimentId" : null, "mabMaster" : false, "mabVariant" : false, "meta" : { "attached_stylesheets" : [ ], "featured_image_height" : 1333, "featured_image_width" : 2000, "post_summary" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>\n", "has_user_changes" : true, "last_edit_session_id" : null, "last_edit_update_id" : null, "html_title" : null, "tag_ids" : [ 117730085406, 119837566082 ], "topic_ids" : [ 117730085406, 119837566082 ], "campaign_name" : null, "campaign_utm" : null, "enable_google_amp_output_override" : false, "featured_image" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/04-10-2023_IA%20ACT%20-%20TOUT%20SAVOIR%20SUR%20LE%20PROJET%20EUROP%C3%89EN%20DE%20R%C3%89GULATION%20DE%20LIA.jpg", "featured_image_alt_text" : "", "head_html" : null, "link_rel_canonical_url" : null, "meta_description" : "La Commission Européenne a décidé de réguler l’usage des intelligences artificielles sur son territoire. Alors, que contient cette nouvelle proposition de loi sur l’IA ? Décryptage.", "post_body" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>\n<!--more-->\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>De quoi l’IA Act est-il le nom ?</strong></h2>\n<p>L'objectif principal de l'<span style=\"font-weight: bold;\">IA Act</span> est de promouvoir l'innovation tout en garantissant la sécurité et les droits des utilisateurs. Il vise à créer un cadre juridique clair pour l'utilisation de l'intelligence artificielle dans l'UE. Et justement, l’UE travaille sur ce projet depuis plus de deux ans, avec un premier texte déposé en avril 2021. Depuis, les eurodéputés se sont réunis pour voter sur le projet de régulation de l'IA en commission et ont largement approuvé un projet encore plus strict.</p>\n<p>Le projet de régulation de l'IA Act aborde la <span style=\"font-weight: bold;\">surveillance des systèmes d'IA à haut risque, la transparence des systèmes, la responsabilité des fournisseurs, la protection des données et la supervision par les autorités compétentes</span>. Si le projet devient une loi, il aura des implications importantes pour les entreprises et les développeurs d'IA en Europe. Ils devront en effet se conformer aux nouvelles règles et aux exigences en matière de sécurité et de transparence.</p>\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>L’échelle des risques</strong></h2>\n<p>La Commission Européenne a classé trois catégories de risques. Celles-ci donnent lieu à des droits et des devoirs différents pour toutes les parties prenantes autour de l’IA.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques inacceptables</strong></li>\n</ul>\n<p>Les risques inacceptables sont considérés comme une <span style=\"font-weight: bold;\">menace sérieuse pour la sécurité et les droits</span> des individus, et seront tout bonnement <span style=\"font-weight: bold;\">interdits</span> sur le continent. Ils comprennent les systèmes d'IA conçus pour manipuler le comportement ou les pensées de personnes, tels que les jouets activés par la voix qui pourraient encourager des comportements dangereux chez les enfants.</p>\n<p>Le système de score social mis en place en Chine est également pointé du doigt, puisque cette pratique est jugée discriminatoire et intrusive par la Commission. Dans la même lignée, les systèmes d'identification biométrique en temps réel et à distance, comme la reconnaissance faciale par exemple, seront interdits. L’objectif est de protéger la vie privée des européens en luttant contre la surveillance de masse.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques élevés</strong></li>\n</ul>\n<p>Toutes les IA ayant des risques élevés pour les individus devront être enregistrées dans une base de données de l’UE. Cela comprend, par exemple, la gestion et l’exploitation des infrastructures critiques, l’éducation et la formation professionnelle, l’emploi et la gestion des ressources humaines, les forces de l’ordre, l’accès aux biens publics, la gestion de la migration et l’interprétation juridique de la loi.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques limités</strong></li>\n</ul>\n<p>Les fournisseurs d’IA à risques limités doivent, quant à eux, faire preuve de transparence vis-à-vis des utilisateurs, pour leur permettre de prendre des décisions éclairées sur l’utilisation de ces ressources. C’est le cas notamment des IA génératives servant à créer ou manipuler du contenu déjà existant.</p>\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>Quelles conséquences pour les IA génératives ?</strong></h2>\n<p>ChatGPT, Midjourney, ou DALL-E devront divulguer leurs sources et permettre de distinguer les contenus générés par l’IA. Une mesure particulièrement attendue pour <span style=\"font-weight: bold;\">renforcer la protection de la propriété intellectuelle</span> des œuvres numériques. Cette mesure vise également à garantir que ces algorithmes ne sont pas utilisés de manière abusive pour reproduire des contenus protégés sans autorisation.</p>\n<p>Mais les IA génératives devront aussi être soumises à des tests par des experts indépendants pour évaluer les risques potentiels liés à la sécurité et à la santé des individus. Ces évaluations contribueront à<span style=\"font-weight: bold;\"> identifier les utilisations malveillantes possibles </span>et à mettre en place des mesures de prévention.</p>\n<p>Pour répertorier ces usages malveillants, une documentation transparente devra être fournie aux utilisateurs et aux régulateurs afin de comprendre les risques associés à ces technologies. Et, enfin, <span style=\"font-weight: bold;\">le respect du RGPD sera incontournable pour le développement de ces algorithmes</span>, ce qui signifie une meilleure protection des données personnelles.</p>\n<p> </p>\n<p>En juin 2023, les députés européens se sont mis d’accord sur le contenu de l’IA Act. Les négociations autour de la forme finale de la loi vont maintenant commencer avec les pays de l'UE. L'objectif est de parvenir à un accord d'ici la fin de l'année.</p>\n<p> </p>\n<p>Le développement de l’intelligence artificielle n’a pas fini d’évoluer et les compétences techniques à acquérir aussi. Alors, si vous souhaitez développer les solutions innovantes de demain, venez vous former <a href=\"/fr-fr/formations-data\" rel=\"noopener\"><span style=\"font-weight: bold;\">aux métiers de la Data et de l'IA</span></a> !</p>\n<p> </p>", "public_access_rules" : [ ], "public_access_rules_enabled" : false, "publish_immediately" : false, "use_featured_image" : true, "layout_sections" : { }, "published_by_id" : 50704370, "published_at" : 1697635299842, "rss_body" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>\n<!--more-->\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>De quoi l’IA Act est-il le nom ?</strong></h2>\n<p>L'objectif principal de l'<span style=\"font-weight: bold;\">IA Act</span> est de promouvoir l'innovation tout en garantissant la sécurité et les droits des utilisateurs. Il vise à créer un cadre juridique clair pour l'utilisation de l'intelligence artificielle dans l'UE. Et justement, l’UE travaille sur ce projet depuis plus de deux ans, avec un premier texte déposé en avril 2021. Depuis, les eurodéputés se sont réunis pour voter sur le projet de régulation de l'IA en commission et ont largement approuvé un projet encore plus strict.</p>\n<p>Le projet de régulation de l'IA Act aborde la <span style=\"font-weight: bold;\">surveillance des systèmes d'IA à haut risque, la transparence des systèmes, la responsabilité des fournisseurs, la protection des données et la supervision par les autorités compétentes</span>. Si le projet devient une loi, il aura des implications importantes pour les entreprises et les développeurs d'IA en Europe. Ils devront en effet se conformer aux nouvelles règles et aux exigences en matière de sécurité et de transparence.</p>\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>L’échelle des risques</strong></h2>\n<p>La Commission Européenne a classé trois catégories de risques. Celles-ci donnent lieu à des droits et des devoirs différents pour toutes les parties prenantes autour de l’IA.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques inacceptables</strong></li>\n</ul>\n<p>Les risques inacceptables sont considérés comme une <span style=\"font-weight: bold;\">menace sérieuse pour la sécurité et les droits</span> des individus, et seront tout bonnement <span style=\"font-weight: bold;\">interdits</span> sur le continent. Ils comprennent les systèmes d'IA conçus pour manipuler le comportement ou les pensées de personnes, tels que les jouets activés par la voix qui pourraient encourager des comportements dangereux chez les enfants.</p>\n<p>Le système de score social mis en place en Chine est également pointé du doigt, puisque cette pratique est jugée discriminatoire et intrusive par la Commission. Dans la même lignée, les systèmes d'identification biométrique en temps réel et à distance, comme la reconnaissance faciale par exemple, seront interdits. L’objectif est de protéger la vie privée des européens en luttant contre la surveillance de masse.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques élevés</strong></li>\n</ul>\n<p>Toutes les IA ayant des risques élevés pour les individus devront être enregistrées dans une base de données de l’UE. Cela comprend, par exemple, la gestion et l’exploitation des infrastructures critiques, l’éducation et la formation professionnelle, l’emploi et la gestion des ressources humaines, les forces de l’ordre, l’accès aux biens publics, la gestion de la migration et l’interprétation juridique de la loi.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques limités</strong></li>\n</ul>\n<p>Les fournisseurs d’IA à risques limités doivent, quant à eux, faire preuve de transparence vis-à-vis des utilisateurs, pour leur permettre de prendre des décisions éclairées sur l’utilisation de ces ressources. C’est le cas notamment des IA génératives servant à créer ou manipuler du contenu déjà existant.</p>\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>Quelles conséquences pour les IA génératives ?</strong></h2>\n<p>ChatGPT, Midjourney, ou DALL-E devront divulguer leurs sources et permettre de distinguer les contenus générés par l’IA. Une mesure particulièrement attendue pour <span style=\"font-weight: bold;\">renforcer la protection de la propriété intellectuelle</span> des œuvres numériques. Cette mesure vise également à garantir que ces algorithmes ne sont pas utilisés de manière abusive pour reproduire des contenus protégés sans autorisation.</p>\n<p>Mais les IA génératives devront aussi être soumises à des tests par des experts indépendants pour évaluer les risques potentiels liés à la sécurité et à la santé des individus. Ces évaluations contribueront à<span style=\"font-weight: bold;\"> identifier les utilisations malveillantes possibles </span>et à mettre en place des mesures de prévention.</p>\n<p>Pour répertorier ces usages malveillants, une documentation transparente devra être fournie aux utilisateurs et aux régulateurs afin de comprendre les risques associés à ces technologies. Et, enfin, <span style=\"font-weight: bold;\">le respect du RGPD sera incontournable pour le développement de ces algorithmes</span>, ce qui signifie une meilleure protection des données personnelles.</p>\n<p> </p>\n<p>En juin 2023, les députés européens se sont mis d’accord sur le contenu de l’IA Act. Les négociations autour de la forme finale de la loi vont maintenant commencer avec les pays de l'UE. L'objectif est de parvenir à un accord d'ici la fin de l'année.</p>\n<p> </p>\n<p>Le développement de l’intelligence artificielle n’a pas fini d’évoluer et les compétences techniques à acquérir aussi. Alors, si vous souhaitez développer les solutions innovantes de demain, venez vous former <a href=\"/fr-fr/formations-data\" rel=\"noopener\"><span style=\"font-weight: bold;\">aux métiers de la Data et de l'IA</span></a> !</p>\n<p> </p>", "rss_summary" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>\n", "scheduled_update_date" : 0, "bypass_approvals" : false, "blog_publish_to_social_media_task" : "DONE_NOT_SENT", "blog_post_schedule_task_uid" : null }, "metaDescription" : "La Commission Européenne a décidé de réguler l’usage des intelligences artificielles sur son territoire. Alors, que contient cette nouvelle proposition de loi sur l’IA ? Décryptage.", "metaKeywords" : null, "name" : "IA Act : tout savoir sur le projet européen de régulation de l’IA", "nextPostFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/09-10-2023_QUELLE%20FORMATION%20POUR%20DEVENIR%20DEVELOPPEUR%20WEB.jpg", "nextPostFeaturedImageAltText" : "", "nextPostName" : "Quelle formation pour devenir développeur web ?", "nextPostSlug" : "fr-fr/blog/quelle-formation-pour-devenir-développeur-web", "pageExpiryDate" : null, "pageExpiryEnabled" : null, "pageExpiryRedirectId" : null, "pageExpiryRedirectUrl" : null, "pageRedirected" : false, "pageTitle" : "IA Act : tout savoir sur le projet européen de régulation de l’IA", "parentBlog" : { "absoluteUrl" : "https://www.wildcodeschool.com/fr-fr/blog", "allowComments" : false, "ampBodyColor" : "#404040", "ampBodyFont" : "'Helvetica Neue', Helvetica, Arial, sans-serif", "ampBodyFontSize" : "18", "ampCustomCss" : "", "ampHeaderBackgroundColor" : "#ffffff", "ampHeaderColor" : "#1e1e1e", "ampHeaderFont" : "'Helvetica Neue', Helvetica, Arial, sans-serif", "ampHeaderFontSize" : "36", "ampLinkColor" : "#416bb3", "ampLogoAlt" : "", "ampLogoHeight" : 0, "ampLogoSrc" : "", "ampLogoWidth" : 0, "analyticsPageId" : 103175636270, "attachedStylesheets" : [ ], "audienceAccess" : "PUBLIC", "businessUnitId" : null, "captchaAfterDays" : 7, "captchaAlways" : false, "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "closeCommentsOlder" : 0, "commentDateFormat" : "medium", "commentFormGuid" : "c7bc1329-e868-4cf0-9b1c-23d0a756caa6", "commentMaxThreadDepth" : 1, "commentModeration" : false, "commentNotificationEmails" : [ ], "commentShouldCreateContact" : false, "commentVerificationText" : "", "cosObjectType" : "BLOG", "created" : 1676891663653, "createdDateTime" : 1676891663653, "dailyNotificationEmailId" : null, "dateFormattingLanguage" : null, "defaultGroupStyleId" : "", "defaultNotificationFromName" : "", "defaultNotificationReplyTo" : "", "deletedAt" : 0, "description" : "Faites le plein d'informations liées aux métiers de la tech.", "domain" : "", "domainWhenPublished" : "www.wildcodeschool.com", "emailApiSubscriptionId" : null, "enableGoogleAmpOutput" : true, "enableSocialAutoPublishing" : false, "generateJsonLdEnabled" : true, "header" : null, "htmlFooter" : "", "htmlFooterIsShared" : true, "htmlHead" : "", "htmlHeadIsShared" : true, "htmlKeywords" : [ ], "htmlTitle" : "Le blog de la Wild Code School - Wild Code School", "id" : 103175636270, "ilsSubscriptionListsByType" : { }, "instantNotificationEmailId" : null, "itemLayoutId" : null, "itemTemplateIsShared" : false, "itemTemplatePath" : "MarkentivexWCS/templates/blog-post.html", "label" : "Blog", "language" : "fr-fr", "legacyGuid" : null, "legacyModuleId" : null, "legacyTabId" : null, "listingLayoutId" : null, "listingPageId" : 103175636271, "listingTemplatePath" : "", "liveDomain" : "www.wildcodeschool.com", "monthFilterFormat" : "MMMM yyyy", "monthlyNotificationEmailId" : null, "name" : "Blog", "parentBlogUpdateTaskId" : null, "portalId" : 2902314, "postHtmlFooter" : "", "postHtmlHead" : "", "postsPerListingPage" : 9, "postsPerRssFeed" : 10, "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "publicTitle" : "Blog", "publishDateFormat" : "dd/MM/YYYY", "resolvedDomain" : "www.wildcodeschool.com", "rootUrl" : "https://www.wildcodeschool.com/fr-fr/blog", "rssCustomFeed" : null, "rssDescription" : null, "rssItemFooter" : null, "rssItemHeader" : null, "settingsOverrides" : { "itemLayoutId" : false, "itemTemplatePath" : false, "itemTemplateIsShared" : false, "listingLayoutId" : false, "listingTemplatePath" : false, "postsPerListingPage" : false, "showSummaryInListing" : false, "useFeaturedImageInSummary" : false, "htmlHead" : false, "postHtmlHead" : false, "htmlHeadIsShared" : false, "htmlFooter" : false, "listingPageHtmlFooter" : false, "postHtmlFooter" : false, "htmlFooterIsShared" : false, "attachedStylesheets" : false, "postsPerRssFeed" : false, "showSummaryInRss" : false, "showSummaryInEmails" : false, "showSummariesInEmails" : false, "allowComments" : false, "commentShouldCreateContact" : false, "commentModeration" : false, "closeCommentsOlder" : false, "commentNotificationEmails" : false, "commentMaxThreadDepth" : false, "commentVerificationText" : false, "socialAccountTwitter" : false, "showSocialLinkTwitter" : false, "showSocialLinkLinkedin" : false, "showSocialLinkFacebook" : false, "enableGoogleAmpOutput" : false, "ampLogoSrc" : false, "ampLogoHeight" : false, "ampLogoWidth" : false, "ampLogoAlt" : false, "ampHeaderFont" : false, "ampHeaderFontSize" : false, "ampHeaderColor" : false, "ampHeaderBackgroundColor" : false, "ampBodyFont" : false, "ampBodyFontSize" : false, "ampBodyColor" : false, "ampLinkColor" : false, "generateJsonLdEnabled" : false }, "showSocialLinkFacebook" : true, "showSocialLinkLinkedin" : true, "showSocialLinkTwitter" : true, "showSummaryInEmails" : true, "showSummaryInListing" : true, "showSummaryInRss" : true, "siteId" : null, "slug" : "fr-fr/blog", "socialAccountTwitter" : "", "state" : null, "subscriptionContactsProperty" : null, "subscriptionEmailType" : null, "subscriptionFormGuid" : null, "subscriptionListsByType" : { }, "title" : null, "translatedFromId" : null, "translations" : { "de-de" : { "absoluteUrl" : "https://www.wildcodeschool.com/de-de/blog", "id" : 103176710277, "language" : "de-de", "masterId" : 103175636270, "name" : "Blog", "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "slug" : "de-de/blog" }, "en-gb" : { "absoluteUrl" : "https://www.wildcodeschool.com/en-gb/blog", "id" : 103176710275, "language" : "en-gb", "masterId" : 103175636270, "name" : "Blog", "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "slug" : "en-gb/blog" }, "es-es" : { "absoluteUrl" : "https://www.wildcodeschool.com/es-es/blog", "id" : 103176710278, "language" : "es-es", "masterId" : 103175636270, "name" : "Blog", "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "slug" : "es-es/blog" }, "pt-pt" : { "absoluteUrl" : "https://www.wildcodeschool.com/pt-pt/blog", "id" : 103176710276, "language" : "pt-pt", "masterId" : 103175636270, "name" : "Blog", "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "slug" : "pt-pt/blog" } }, "updated" : 1726755591366, "updatedDateTime" : 1726755591366, "urlBase" : "www.wildcodeschool.com/fr-fr/blog", "urlSegments" : { "all" : "all", "archive" : "archive", "author" : "author", "page" : "page", "tag" : "tag" }, "useFeaturedImageInSummary" : true, "usesDefaultTemplate" : false, "weeklyNotificationEmailId" : null }, "password" : null, "pastMabExperimentIds" : [ ], "performableGuid" : null, "performableVariationLetter" : null, "personas" : [ ], "placementGuids" : [ ], "portableKey" : null, "portalId" : 2902314, "position" : null, "postBody" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>\n<!--more-->\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>De quoi l’IA Act est-il le nom ?</strong></h2>\n<p>L'objectif principal de l'<span style=\"font-weight: bold;\">IA Act</span> est de promouvoir l'innovation tout en garantissant la sécurité et les droits des utilisateurs. Il vise à créer un cadre juridique clair pour l'utilisation de l'intelligence artificielle dans l'UE. Et justement, l’UE travaille sur ce projet depuis plus de deux ans, avec un premier texte déposé en avril 2021. Depuis, les eurodéputés se sont réunis pour voter sur le projet de régulation de l'IA en commission et ont largement approuvé un projet encore plus strict.</p>\n<p>Le projet de régulation de l'IA Act aborde la <span style=\"font-weight: bold;\">surveillance des systèmes d'IA à haut risque, la transparence des systèmes, la responsabilité des fournisseurs, la protection des données et la supervision par les autorités compétentes</span>. Si le projet devient une loi, il aura des implications importantes pour les entreprises et les développeurs d'IA en Europe. Ils devront en effet se conformer aux nouvelles règles et aux exigences en matière de sécurité et de transparence.</p>\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>L’échelle des risques</strong></h2>\n<p>La Commission Européenne a classé trois catégories de risques. Celles-ci donnent lieu à des droits et des devoirs différents pour toutes les parties prenantes autour de l’IA.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques inacceptables</strong></li>\n</ul>\n<p>Les risques inacceptables sont considérés comme une <span style=\"font-weight: bold;\">menace sérieuse pour la sécurité et les droits</span> des individus, et seront tout bonnement <span style=\"font-weight: bold;\">interdits</span> sur le continent. Ils comprennent les systèmes d'IA conçus pour manipuler le comportement ou les pensées de personnes, tels que les jouets activés par la voix qui pourraient encourager des comportements dangereux chez les enfants.</p>\n<p>Le système de score social mis en place en Chine est également pointé du doigt, puisque cette pratique est jugée discriminatoire et intrusive par la Commission. Dans la même lignée, les systèmes d'identification biométrique en temps réel et à distance, comme la reconnaissance faciale par exemple, seront interdits. L’objectif est de protéger la vie privée des européens en luttant contre la surveillance de masse.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques élevés</strong></li>\n</ul>\n<p>Toutes les IA ayant des risques élevés pour les individus devront être enregistrées dans une base de données de l’UE. Cela comprend, par exemple, la gestion et l’exploitation des infrastructures critiques, l’éducation et la formation professionnelle, l’emploi et la gestion des ressources humaines, les forces de l’ordre, l’accès aux biens publics, la gestion de la migration et l’interprétation juridique de la loi.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques limités</strong></li>\n</ul>\n<p>Les fournisseurs d’IA à risques limités doivent, quant à eux, faire preuve de transparence vis-à-vis des utilisateurs, pour leur permettre de prendre des décisions éclairées sur l’utilisation de ces ressources. C’est le cas notamment des IA génératives servant à créer ou manipuler du contenu déjà existant.</p>\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>Quelles conséquences pour les IA génératives ?</strong></h2>\n<p>ChatGPT, Midjourney, ou DALL-E devront divulguer leurs sources et permettre de distinguer les contenus générés par l’IA. Une mesure particulièrement attendue pour <span style=\"font-weight: bold;\">renforcer la protection de la propriété intellectuelle</span> des œuvres numériques. Cette mesure vise également à garantir que ces algorithmes ne sont pas utilisés de manière abusive pour reproduire des contenus protégés sans autorisation.</p>\n<p>Mais les IA génératives devront aussi être soumises à des tests par des experts indépendants pour évaluer les risques potentiels liés à la sécurité et à la santé des individus. Ces évaluations contribueront à<span style=\"font-weight: bold;\"> identifier les utilisations malveillantes possibles </span>et à mettre en place des mesures de prévention.</p>\n<p>Pour répertorier ces usages malveillants, une documentation transparente devra être fournie aux utilisateurs et aux régulateurs afin de comprendre les risques associés à ces technologies. Et, enfin, <span style=\"font-weight: bold;\">le respect du RGPD sera incontournable pour le développement de ces algorithmes</span>, ce qui signifie une meilleure protection des données personnelles.</p>\n<p> </p>\n<p>En juin 2023, les députés européens se sont mis d’accord sur le contenu de l’IA Act. Les négociations autour de la forme finale de la loi vont maintenant commencer avec les pays de l'UE. L'objectif est de parvenir à un accord d'ici la fin de l'année.</p>\n<p> </p>\n<p>Le développement de l’intelligence artificielle n’a pas fini d’évoluer et les compétences techniques à acquérir aussi. Alors, si vous souhaitez développer les solutions innovantes de demain, venez vous former <a href=\"/fr-fr/formations-data\" rel=\"noopener\"><span style=\"font-weight: bold;\">aux métiers de la Data et de l'IA</span></a> !</p>\n<p> </p>", "postBodyRss" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>\n<!--more-->\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>De quoi l’IA Act est-il le nom ?</strong></h2>\n<p>L'objectif principal de l'<span style=\"font-weight: bold;\">IA Act</span> est de promouvoir l'innovation tout en garantissant la sécurité et les droits des utilisateurs. Il vise à créer un cadre juridique clair pour l'utilisation de l'intelligence artificielle dans l'UE. Et justement, l’UE travaille sur ce projet depuis plus de deux ans, avec un premier texte déposé en avril 2021. Depuis, les eurodéputés se sont réunis pour voter sur le projet de régulation de l'IA en commission et ont largement approuvé un projet encore plus strict.</p>\n<p>Le projet de régulation de l'IA Act aborde la <span style=\"font-weight: bold;\">surveillance des systèmes d'IA à haut risque, la transparence des systèmes, la responsabilité des fournisseurs, la protection des données et la supervision par les autorités compétentes</span>. Si le projet devient une loi, il aura des implications importantes pour les entreprises et les développeurs d'IA en Europe. Ils devront en effet se conformer aux nouvelles règles et aux exigences en matière de sécurité et de transparence.</p>\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>L’échelle des risques</strong></h2>\n<p>La Commission Européenne a classé trois catégories de risques. Celles-ci donnent lieu à des droits et des devoirs différents pour toutes les parties prenantes autour de l’IA.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques inacceptables</strong></li>\n</ul>\n<p>Les risques inacceptables sont considérés comme une <span style=\"font-weight: bold;\">menace sérieuse pour la sécurité et les droits</span> des individus, et seront tout bonnement <span style=\"font-weight: bold;\">interdits</span> sur le continent. Ils comprennent les systèmes d'IA conçus pour manipuler le comportement ou les pensées de personnes, tels que les jouets activés par la voix qui pourraient encourager des comportements dangereux chez les enfants.</p>\n<p>Le système de score social mis en place en Chine est également pointé du doigt, puisque cette pratique est jugée discriminatoire et intrusive par la Commission. Dans la même lignée, les systèmes d'identification biométrique en temps réel et à distance, comme la reconnaissance faciale par exemple, seront interdits. L’objectif est de protéger la vie privée des européens en luttant contre la surveillance de masse.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques élevés</strong></li>\n</ul>\n<p>Toutes les IA ayant des risques élevés pour les individus devront être enregistrées dans une base de données de l’UE. Cela comprend, par exemple, la gestion et l’exploitation des infrastructures critiques, l’éducation et la formation professionnelle, l’emploi et la gestion des ressources humaines, les forces de l’ordre, l’accès aux biens publics, la gestion de la migration et l’interprétation juridique de la loi.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques limités</strong></li>\n</ul>\n<p>Les fournisseurs d’IA à risques limités doivent, quant à eux, faire preuve de transparence vis-à-vis des utilisateurs, pour leur permettre de prendre des décisions éclairées sur l’utilisation de ces ressources. C’est le cas notamment des IA génératives servant à créer ou manipuler du contenu déjà existant.</p>\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>Quelles conséquences pour les IA génératives ?</strong></h2>\n<p>ChatGPT, Midjourney, ou DALL-E devront divulguer leurs sources et permettre de distinguer les contenus générés par l’IA. Une mesure particulièrement attendue pour <span style=\"font-weight: bold;\">renforcer la protection de la propriété intellectuelle</span> des œuvres numériques. Cette mesure vise également à garantir que ces algorithmes ne sont pas utilisés de manière abusive pour reproduire des contenus protégés sans autorisation.</p>\n<p>Mais les IA génératives devront aussi être soumises à des tests par des experts indépendants pour évaluer les risques potentiels liés à la sécurité et à la santé des individus. Ces évaluations contribueront à<span style=\"font-weight: bold;\"> identifier les utilisations malveillantes possibles </span>et à mettre en place des mesures de prévention.</p>\n<p>Pour répertorier ces usages malveillants, une documentation transparente devra être fournie aux utilisateurs et aux régulateurs afin de comprendre les risques associés à ces technologies. Et, enfin, <span style=\"font-weight: bold;\">le respect du RGPD sera incontournable pour le développement de ces algorithmes</span>, ce qui signifie une meilleure protection des données personnelles.</p>\n<p> </p>\n<p>En juin 2023, les députés européens se sont mis d’accord sur le contenu de l’IA Act. Les négociations autour de la forme finale de la loi vont maintenant commencer avec les pays de l'UE. L'objectif est de parvenir à un accord d'ici la fin de l'année.</p>\n<p> </p>\n<p>Le développement de l’intelligence artificielle n’a pas fini d’évoluer et les compétences techniques à acquérir aussi. Alors, si vous souhaitez développer les solutions innovantes de demain, venez vous former <a href=\"/fr-fr/formations-data\" rel=\"noopener\"><span style=\"font-weight: bold;\">aux métiers de la Data et de l'IA</span></a> !</p>\n<p> </p>", "postEmailContent" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>", "postFeaturedImageIfEnabled" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/04-10-2023_IA%20ACT%20-%20TOUT%20SAVOIR%20SUR%20LE%20PROJET%20EUROP%C3%89EN%20DE%20R%C3%89GULATION%20DE%20LIA.jpg", "postListContent" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>", "postListSummaryFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/04-10-2023_IA%20ACT%20-%20TOUT%20SAVOIR%20SUR%20LE%20PROJET%20EUROP%C3%89EN%20DE%20R%C3%89GULATION%20DE%20LIA.jpg", "postRssContent" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>", "postRssSummaryFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/04-10-2023_IA%20ACT%20-%20TOUT%20SAVOIR%20SUR%20LE%20PROJET%20EUROP%C3%89EN%20DE%20R%C3%89GULATION%20DE%20LIA.jpg", "postSummary" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>\n", "postSummaryRss" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>", "postTemplate" : "MarkentivexWCS/templates/blog-post.html", "previewImageSrc" : null, "previewKey" : "kCiXJWav", "previousPostFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/04-10-2023_FEMMES%20ET%20IA%20-%20POUR%20UNE%20INTELLIGENCE%20ARTIFICIELLE%20EGALITAIRE.jpg", "previousPostFeaturedImageAltText" : "", "previousPostName" : "Femmes et IA : pour une Intelligence Artificielle égalitaire", "previousPostSlug" : "fr-fr/blog/femmes-et-ia-pour-une-intelligence-artificielle-égalitaire", "processingStatus" : "PUBLISHED", "propertyForDynamicPageCanonicalUrl" : null, "propertyForDynamicPageFeaturedImage" : null, "propertyForDynamicPageMetaDescription" : null, "propertyForDynamicPageSlug" : null, "propertyForDynamicPageTitle" : null, "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "publishDate" : 1696402800000, "publishDateLocalTime" : 1696402800000, "publishDateLocalized" : { "date" : 1696402800000, "format" : "dd/MM/YYYY", "language" : null }, "publishImmediately" : false, "publishTimezoneOffset" : null, "publishedAt" : 1697635299842, "publishedByEmail" : null, "publishedById" : 50704370, "publishedByName" : null, "publishedUrl" : "https://www.wildcodeschool.com/fr-fr/blog/ia-act-tout-savoir-sur-le-projet-européen-de-régulation-de-lia", "resolvedDomain" : "www.wildcodeschool.com", "resolvedLanguage" : null, "rssBody" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>\n<!--more-->\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>De quoi l’IA Act est-il le nom ?</strong></h2>\n<p>L'objectif principal de l'<span style=\"font-weight: bold;\">IA Act</span> est de promouvoir l'innovation tout en garantissant la sécurité et les droits des utilisateurs. Il vise à créer un cadre juridique clair pour l'utilisation de l'intelligence artificielle dans l'UE. Et justement, l’UE travaille sur ce projet depuis plus de deux ans, avec un premier texte déposé en avril 2021. Depuis, les eurodéputés se sont réunis pour voter sur le projet de régulation de l'IA en commission et ont largement approuvé un projet encore plus strict.</p>\n<p>Le projet de régulation de l'IA Act aborde la <span style=\"font-weight: bold;\">surveillance des systèmes d'IA à haut risque, la transparence des systèmes, la responsabilité des fournisseurs, la protection des données et la supervision par les autorités compétentes</span>. Si le projet devient une loi, il aura des implications importantes pour les entreprises et les développeurs d'IA en Europe. Ils devront en effet se conformer aux nouvelles règles et aux exigences en matière de sécurité et de transparence.</p>\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>L’échelle des risques</strong></h2>\n<p>La Commission Européenne a classé trois catégories de risques. Celles-ci donnent lieu à des droits et des devoirs différents pour toutes les parties prenantes autour de l’IA.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques inacceptables</strong></li>\n</ul>\n<p>Les risques inacceptables sont considérés comme une <span style=\"font-weight: bold;\">menace sérieuse pour la sécurité et les droits</span> des individus, et seront tout bonnement <span style=\"font-weight: bold;\">interdits</span> sur le continent. Ils comprennent les systèmes d'IA conçus pour manipuler le comportement ou les pensées de personnes, tels que les jouets activés par la voix qui pourraient encourager des comportements dangereux chez les enfants.</p>\n<p>Le système de score social mis en place en Chine est également pointé du doigt, puisque cette pratique est jugée discriminatoire et intrusive par la Commission. Dans la même lignée, les systèmes d'identification biométrique en temps réel et à distance, comme la reconnaissance faciale par exemple, seront interdits. L’objectif est de protéger la vie privée des européens en luttant contre la surveillance de masse.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques élevés</strong></li>\n</ul>\n<p>Toutes les IA ayant des risques élevés pour les individus devront être enregistrées dans une base de données de l’UE. Cela comprend, par exemple, la gestion et l’exploitation des infrastructures critiques, l’éducation et la formation professionnelle, l’emploi et la gestion des ressources humaines, les forces de l’ordre, l’accès aux biens publics, la gestion de la migration et l’interprétation juridique de la loi.</p>\n<ul>\n<li aria-level=\"1\"><strong>Les risques limités</strong></li>\n</ul>\n<p>Les fournisseurs d’IA à risques limités doivent, quant à eux, faire preuve de transparence vis-à-vis des utilisateurs, pour leur permettre de prendre des décisions éclairées sur l’utilisation de ces ressources. C’est le cas notamment des IA génératives servant à créer ou manipuler du contenu déjà existant.</p>\n<p> </p>\n<h2 style=\"font-size: 32px;\"><strong>Quelles conséquences pour les IA génératives ?</strong></h2>\n<p>ChatGPT, Midjourney, ou DALL-E devront divulguer leurs sources et permettre de distinguer les contenus générés par l’IA. Une mesure particulièrement attendue pour <span style=\"font-weight: bold;\">renforcer la protection de la propriété intellectuelle</span> des œuvres numériques. Cette mesure vise également à garantir que ces algorithmes ne sont pas utilisés de manière abusive pour reproduire des contenus protégés sans autorisation.</p>\n<p>Mais les IA génératives devront aussi être soumises à des tests par des experts indépendants pour évaluer les risques potentiels liés à la sécurité et à la santé des individus. Ces évaluations contribueront à<span style=\"font-weight: bold;\"> identifier les utilisations malveillantes possibles </span>et à mettre en place des mesures de prévention.</p>\n<p>Pour répertorier ces usages malveillants, une documentation transparente devra être fournie aux utilisateurs et aux régulateurs afin de comprendre les risques associés à ces technologies. Et, enfin, <span style=\"font-weight: bold;\">le respect du RGPD sera incontournable pour le développement de ces algorithmes</span>, ce qui signifie une meilleure protection des données personnelles.</p>\n<p> </p>\n<p>En juin 2023, les députés européens se sont mis d’accord sur le contenu de l’IA Act. Les négociations autour de la forme finale de la loi vont maintenant commencer avec les pays de l'UE. L'objectif est de parvenir à un accord d'ici la fin de l'année.</p>\n<p> </p>\n<p>Le développement de l’intelligence artificielle n’a pas fini d’évoluer et les compétences techniques à acquérir aussi. Alors, si vous souhaitez développer les solutions innovantes de demain, venez vous former <a href=\"/fr-fr/formations-data\" rel=\"noopener\"><span style=\"font-weight: bold;\">aux métiers de la Data et de l'IA</span></a> !</p>\n<p> </p>", "rssSummary" : "<p>Le volume de données produit dans le monde devrait passer de <span style=\"font-weight: bold;\">33 zettaoctets</span> en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le <a href=\"https://www.europarl.europa.eu/news/fr/headlines/society/20200918STO87404/intelligence-artificielle-opportunites-et-risques\"><span>Parlement Européen</span></a>. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de <span style=\"font-weight: bold;\">la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035</span>. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.</p>\n", "rssSummaryFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/04-10-2023_IA%20ACT%20-%20TOUT%20SAVOIR%20SUR%20LE%20PROJET%20EUROP%C3%89EN%20DE%20R%C3%89GULATION%20DE%20LIA.jpg", "scheduledUpdateDate" : 0, "screenshotPreviewTakenAt" : 1733491299439, "screenshotPreviewUrl" : "https://cdn1.hubspot.net/hubshotv3/prod/e/0/444546e8-48a0-4340-a207-2325f1131c01.png", "sections" : { }, "securityState" : "NONE", "siteId" : null, "slug" : "fr-fr/blog/ia-act-tout-savoir-sur-le-projet-européen-de-régulation-de-lia", "stagedFrom" : null, "state" : "PUBLISHED", "stateWhenDeleted" : null, "structuredContentPageType" : null, "structuredContentType" : null, "styleOverrideId" : null, "subcategory" : "normal_blog_post", "syncedWithBlogRoot" : true, "tagIds" : [ 117730085406, 119837566082 ], "tagList" : [ { "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "contentIds" : [ ], "cosObjectType" : "TAG", "created" : 1685378194804, "deletedAt" : 0, "description" : "", "id" : 117730085406, "label" : "Tech", "language" : "fr-fr", "name" : "Tech", "portalId" : 2902314, "slug" : "tech", "translatedFromId" : null, "translations" : { }, "updated" : 1685378194804 }, { "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "contentIds" : [ ], "cosObjectType" : "TAG", "created" : 1686581089321, "deletedAt" : 0, "description" : "", "id" : 119837566082, "label" : "Dossier", "language" : "fr-fr", "name" : "Dossier", "portalId" : 2902314, "slug" : "dossier", "translatedFromId" : null, "translations" : { }, "updated" : 1686581089321 } ], "tagNames" : [ "Tech", "Dossier" ], "teamPerms" : [ ], "templatePath" : "", "templatePathForRender" : "MarkentivexWCS/templates/blog-post.html", "textToAudioFileId" : null, "textToAudioGenerationRequestId" : null, "themePath" : null, "themeSettingsValues" : null, "title" : "IA Act : tout savoir sur le projet européen de régulation de l’IA", "tmsId" : null, "topicIds" : [ 117730085406, 119837566082 ], "topicList" : [ { "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "contentIds" : [ ], "cosObjectType" : "TAG", "created" : 1685378194804, "deletedAt" : 0, "description" : "", "id" : 117730085406, "label" : "Tech", "language" : "fr-fr", "name" : "Tech", "portalId" : 2902314, "slug" : "tech", "translatedFromId" : null, "translations" : { }, "updated" : 1685378194804 }, { "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "contentIds" : [ ], "cosObjectType" : "TAG", "created" : 1686581089321, "deletedAt" : 0, "description" : "", "id" : 119837566082, "label" : "Dossier", "language" : "fr-fr", "name" : "Dossier", "portalId" : 2902314, "slug" : "dossier", "translatedFromId" : null, "translations" : { }, "updated" : 1686581089321 } ], "topicNames" : [ "Tech", "Dossier" ], "topics" : [ 117730085406, 119837566082 ], "translatedContent" : { }, "translatedFromId" : null, "translations" : { }, "tweet" : null, "tweetAt" : null, "tweetImmediately" : false, "unpublishedAt" : 0, "updated" : 1697635299849, "updatedById" : 50704370, "upsizeFeaturedImage" : false, "url" : "https://www.wildcodeschool.com/fr-fr/blog/ia-act-tout-savoir-sur-le-projet-européen-de-régulation-de-lia", "useFeaturedImage" : true, "userPerms" : [ ], "views" : 0, "visibleToAll" : null, "widgetContainers" : { }, "widgetcontainers" : { }, "widgets" : { } }) -
Intelligence artificielle : entre innovation et inconvénients
Lire l'article(BlogPost: { "ab" : false, "abStatus" : null, "abTestId" : null, "abVariation" : false, "abVariationAutomated" : false, "absoluteUrl" : "https://www.wildcodeschool.com/fr-fr/blog/intelligence-artificielle-entre-innovation-et-inconvenients", "afterPostBody" : null, "aifeatures" : null, "allowedSlugConflict" : false, "analytics" : null, "analyticsPageId" : "169902654575", "analyticsPageType" : "blog-post", "approvalStatus" : null, "archived" : false, "archivedAt" : 0, "archivedInDashboard" : false, "areCommentsAllowed" : false, "attachedStylesheets" : [ ], "audienceAccess" : "PUBLIC", "author" : null, "authorName" : null, "authorUsername" : null, "blogAuthor" : { "avatar" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/1684833909839.jpeg", "bio" : "Journaliste contributeur", "cdnPurgeEmbargoTime" : null, "cosObjectType" : "BLOG_AUTHOR", "created" : 1686238750029, "deletedAt" : 0, "displayName" : "Calvin Ropers", "email" : "", "facebook" : "", "fullName" : "Calvin Ropers", "gravatarUrl" : null, "hasSocialProfiles" : true, "id" : 119398496648, "label" : "Calvin Ropers", "language" : null, "linkedin" : "https://www.linkedin.com/in/calvin-ropers-1b6582195/?originalSubdomain=fr", "name" : "Calvin Ropers", "portalId" : 2902314, "slug" : "calvin-ropers", "translatedFromId" : null, "translations" : { }, "twitter" : "", "twitterUsername" : "", "updated" : 1686839894865, "userId" : null, "username" : null, "website" : "" }, "blogAuthorId" : 119398496648, "blogPostAuthor" : { "avatar" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/1684833909839.jpeg", "bio" : "Journaliste contributeur", "cdnPurgeEmbargoTime" : null, "cosObjectType" : "BLOG_AUTHOR", "created" : 1686238750029, "deletedAt" : 0, "displayName" : "Calvin Ropers", "email" : "", "facebook" : "", "fullName" : "Calvin Ropers", "gravatarUrl" : null, "hasSocialProfiles" : true, "id" : 119398496648, "label" : "Calvin Ropers", "language" : null, "linkedin" : "https://www.linkedin.com/in/calvin-ropers-1b6582195/?originalSubdomain=fr", "name" : "Calvin Ropers", "portalId" : 2902314, "slug" : "calvin-ropers", "translatedFromId" : null, "translations" : { }, "twitter" : "", "twitterUsername" : "", "updated" : 1686839894865, "userId" : null, "username" : null, "website" : "" }, "blogPostScheduleTaskUid" : null, "blogPublishInstantEmailCampaignId" : null, "blogPublishInstantEmailRetryCount" : null, "blogPublishInstantEmailTaskUid" : null, "blogPublishToSocialMediaTask" : "DONE_NOT_SENT", "blueprintTypeId" : 0, "businessUnitId" : null, "campaign" : null, "campaignName" : null, "campaignUtm" : null, "category" : 3, "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "checkPostLevelAudienceAccessFirst" : true, "clonedFrom" : null, "composeBody" : null, "compositionId" : 0, "contentAccessRuleIds" : [ ], "contentAccessRuleTypes" : [ ], "contentGroup" : 103175636270, "contentGroupId" : 103175636270, "contentTypeCategory" : 3, "contentTypeCategoryId" : 3, "contentTypeId" : null, "created" : 1717943293663, "createdByAgent" : null, "createdById" : 47318422, "createdTime" : 1717943293663, "crmObjectId" : null, "css" : { }, "cssText" : "", "ctaClicks" : null, "ctaViews" : null, "currentState" : "PUBLISHED", "currentlyPublished" : true, "deletedAt" : 0, "deletedBy" : null, "deletedByEmail" : null, "deletedById" : null, "domain" : "", "dynamicPageDataSourceId" : null, "dynamicPageDataSourceType" : null, "dynamicPageHubDbTableId" : null, "enableDomainStylesheets" : null, "enableGoogleAmpOutputOverride" : false, "enableLayoutStylesheets" : null, "errors" : [ ], "featuredImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-06-12_Intelligence_artificielle_Entre_innovation_et_dangers_possibles.jpeg", "featuredImageAltText" : "", "featuredImageHeight" : 1333, "featuredImageLength" : 0, "featuredImageWidth" : 2000, "flexAreas" : { }, "folderId" : null, "footerHtml" : null, "freezeDate" : 1718143200000, "generateJsonLdEnabledOverride" : true, "hasContentAccessRules" : false, "hasUserChanges" : true, "headHtml" : null, "header" : null, "htmlTitle" : "Intelligence artificielle : entre innovation et inconvénients", "id" : 169902654575, "includeDefaultCustomCss" : null, "isCaptchaRequired" : true, "isCrawlableByBots" : false, "isDraft" : false, "isInstanceLayoutPage" : false, "isInstantEmailEnabled" : false, "isPublished" : true, "isSocialPublishingEnabled" : false, "keywords" : [ ], "label" : "Intelligence artificielle : entre innovation et inconvénients", "language" : "fr-fr", "lastEditSessionId" : null, "lastEditUpdateId" : null, "layoutSections" : { }, "legacyBlogTabid" : null, "legacyId" : null, "legacyPostGuid" : null, "linkRelCanonicalUrl" : "", "listTemplate" : "", "liveDomain" : "www.wildcodeschool.com", "mab" : false, "mabExperimentId" : null, "mabMaster" : false, "mabVariant" : false, "meta" : { "public_access_rules" : [ ], "public_access_rules_enabled" : false, "use_featured_image" : true, "post_body" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>\n<!--more-->\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">IA-t-il un risque pour nos emplois ?<br></span></strong></h2>\n<p>Beaucoup de débats ont lieu autour de l'intelligence artificielle mais les plus fréquents concernent son impact sur l'emploi. Va-t-elle pousser au chômage technique des millions de travailleurs ? Ou au contraire nous pousser à devenir davantage productifs ?</p>\n<p>Vaste sujet, mais il est clair que les algorithmes entraînés par machine learning peuvent accomplir des tâches de plus en plus complexes, souvent plus rapidement et à moindre coût que les humains. Cela pourrait entraîner une suppression massive d'emplois, notamment dans les secteurs manufacturiers et de services. Mais pourrait aussi créer de nombreux emplois autour de la robotique et du développement informatique.</p>\n<p>Pour résumer, voici les deux principaux arguments : </p>\n<ol>\n<li aria-level=\"1\"><strong>Automatisation des emplois :</strong> Les lignes de production, les chatbots et autres assistants virtuels, l’analyse de fraudes en temps réel pour les assurances, le tri des candidatures pour les ressources humaines, la gestion des inventaires pour les transporteurs et logisticiens, les diagnostics médicaux et la surveillance des champs en agriculture : autant d’applications possibles pour l’IA.<br><br></li>\n<li aria-level=\"1\"><strong style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\">Évolution des compétences :</strong><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\"> Les emplois restants nécessiteront des compétences techniques avancées, excluant les travailleurs moins qualifiés et exacerbant les inégalités sociales. Néanmoins, de nombreuses initiatives de formation et de reconversion professionnelle se développent déjà pour aider les travailleurs à s'adapter à ces changements, à l’image de notre</span><span style=\"font-weight: bold;\"> </span><a href=\"https://www.wildcodeschool.com/fr-fr/formation-intelligence-artificielle\" style=\"font-weight: bold;\">formation Intelligence Artificielle</a><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\"> de 55h. Les softskills sont aussi importants, comme l’adaptabilité, la créativité et la communication avec les interfaces hommes-machines.</span></li>\n</ol>\n<p><br><br></p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">Une faille de cybersécurité ?</span></strong></h2>\n<p>En plus du marché de l’emploi, l’IA révolutionne aussi la manière dont les entreprises construisent leur système d’information (SI). La cybersécurité est ainsi une autre préoccupation majeure pour les entreprises. Car des systèmes d’IA mal conçus ou mal utilisés pourraient entraîner des conséquences désastreuses.</p>\n<p>Les deux failles particulièrement observées :</p>\n<ol>\n<li style=\"list-style-type: none;\">\n<ol>\n<li aria-level=\"1\"><strong>Systèmes autonomes :</strong> Les véhicules autonomes et les drones militaires peuvent causer des accidents ou être utilisés à des fins malveillantes. Des régulations strictes et des protocoles de sécurité sont toutefois en cours d'élaboration pour minimiser ces risques.<br><br></li>\n<li aria-level=\"1\"><strong>Cybersécurité :</strong> L'IA peut être exploitée pour mener des cyberattaques sophistiquées, mettant en danger les infrastructures critiques et les données personnelles. Et les utilisateurs eux-mêmes peuvent aussi, par inadvertance, faire fuiter des données sensibles en utilisant des IA. Résultat : les entreprises investissent de plus en plus dans des solutions de cybersécurité pour contrer ces menaces.<br><br><br></li>\n</ol>\n</li>\n</ol>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">Les enjeux éthiques et moraux autour de l'intelligence artificielle<br></span></strong></h2>\n<p><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\">Réfléchir sur les valeurs et les normes guidant les actions humaines, en questionnant ce qui est bien ou mal, c’est le rôle de l’éthique. Or, l’IA n’a pas fini d’évoluer et de se transformer. Quels seront les prochains usages, les prochains champs d’application possibles ? Pour anticiper les problèmes, il faut dès maintenant s’emparer des questions éthiques et morales. Car l'IA, en tant qu'outil puissant, doit être pensée et utilisée de manière responsable pour éviter les abus.</span></p>\n<p>Deux points sont ainsi particulièrement importants à prendre en compte :</p>\n<ol>\n<li aria-level=\"1\"><strong>Biais et discrimination :</strong> Les algorithmes peuvent perpétuer ou aggraver les biais existants, menant à des décisions injustes dans des domaines tels que le recrutement et le système judiciaire. C’est pourquoi la transparence et l'audit des algorithmes sont des mesures cruciales pour réduire ces biais.</li>\n<li aria-level=\"1\"><strong>Responsabilité :</strong> Lorsqu'une IA cause un dommage, déterminer la responsabilité peut être complexe, que ce soit celle du développeur, de l'utilisateur, ou de l'IA elle-même. Des cadres juridiques doivent encore être construits pour clarifier ces aspects, à l’image de<span style=\"font-weight: bold;\"> </span><a href=\"https://artificialintelligenceact.eu/fr/\" style=\"font-weight: bold;\">l’IA Act porté par l’Union européenne</a><span style=\"font-weight: bold;\">.</span></li>\n<li aria-level=\"1\"><strong>Protection de la vie privée :</strong> Les systèmes d’IA, d’acquisition et d’archivage de données personnelles peuvent s’introduire dans la vie privée et intime des utilisateurs. Des mesures de protection doivent donc être prises.</li>\n</ol>\n<p>L’université de Montréal a par exemple listé <a href=\"https://declarationmontreal-iaresponsable.com/la-declaration/\" style=\"font-weight: bold;\">10 principes pour un développement responsable de l’intelligence artificielle</a><span style=\"font-weight: bold;\">.</span></p>\n<p>Pour approfondir le sujet, voici une vidéo de la chercheuse <a href=\"https://www.youtube.com/watch?v=dp5Yga_WKng\" style=\"font-weight: bold;\"><span>Asma Mhalla pour l’UNESCO</span></a>, qui présente les enjeux et les perspectives autour de l'IA. Elle pose notamment une question importante à l’heure où les géants de la Tech prennent une importance croissante dans les débats internationaux : qui gouverne les concepteurs d’IA ? </p>\n<p>Comme tous les outils avant elle, l'IA offre des avantages indéniables pour le développement de nos activités. Le danger, ce n’est donc pas l’IA en tant que telle, mais les dérives possibles de son utilisation. C’est pourquoi il est crucial de continuer à débattre et à réguler son développement, afin de maximiser ses bénéfices tout en minimisant ses risques. Tous les experts s'accordent maintenant sur la nécessité d'une approche équilibrée, combinant innovation et prudence, pour faire de la technologie le remède et non le poison.</p>\n<p>Vous voulez en apprendre davantage sur la conception des IA ? Alors inscrivez-vous à notre formation <a href=\"/fr-fr/formations-data/formation-data-engineer-alternance\" rel=\"noopener\"><span style=\"font-weight: bold;\">Data & IA Engineer en alternance</span></a> et obtenez le titre certifié Chef de projet en Intelligence Artificielle de niveau Bac+5 !</p>\n<p>Pour vous inscrire, <a href=\"https://www.wildcodeschool.com/fr-fr/formations-data/formation-data-engineer-alternance\" style=\"font-weight: bold;\">c’est par ici !</a></p>", "post_summary" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>\n", "blog_post_schedule_task_uid" : null, "blog_publish_to_social_media_task" : "DONE_NOT_SENT", "blog_publish_instant_email_task_uid" : null, "blog_publish_instant_email_campaign_id" : null, "blog_publish_instant_email_retry_count" : null, "rss_body" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>\n<!--more-->\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">IA-t-il un risque pour nos emplois ?<br></span></strong></h2>\n<p>Beaucoup de débats ont lieu autour de l'intelligence artificielle mais les plus fréquents concernent son impact sur l'emploi. Va-t-elle pousser au chômage technique des millions de travailleurs ? Ou au contraire nous pousser à devenir davantage productifs ?</p>\n<p>Vaste sujet, mais il est clair que les algorithmes entraînés par machine learning peuvent accomplir des tâches de plus en plus complexes, souvent plus rapidement et à moindre coût que les humains. Cela pourrait entraîner une suppression massive d'emplois, notamment dans les secteurs manufacturiers et de services. Mais pourrait aussi créer de nombreux emplois autour de la robotique et du développement informatique.</p>\n<p>Pour résumer, voici les deux principaux arguments : </p>\n<ol>\n<li aria-level=\"1\"><strong>Automatisation des emplois :</strong> Les lignes de production, les chatbots et autres assistants virtuels, l’analyse de fraudes en temps réel pour les assurances, le tri des candidatures pour les ressources humaines, la gestion des inventaires pour les transporteurs et logisticiens, les diagnostics médicaux et la surveillance des champs en agriculture : autant d’applications possibles pour l’IA.<br><br></li>\n<li aria-level=\"1\"><strong style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\">Évolution des compétences :</strong><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\"> Les emplois restants nécessiteront des compétences techniques avancées, excluant les travailleurs moins qualifiés et exacerbant les inégalités sociales. Néanmoins, de nombreuses initiatives de formation et de reconversion professionnelle se développent déjà pour aider les travailleurs à s'adapter à ces changements, à l’image de notre</span><span style=\"font-weight: bold;\"> </span><a href=\"https://www.wildcodeschool.com/fr-fr/formation-intelligence-artificielle\" style=\"font-weight: bold;\">formation Intelligence Artificielle</a><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\"> de 55h. Les softskills sont aussi importants, comme l’adaptabilité, la créativité et la communication avec les interfaces hommes-machines.</span></li>\n</ol>\n<p><br><br></p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">Une faille de cybersécurité ?</span></strong></h2>\n<p>En plus du marché de l’emploi, l’IA révolutionne aussi la manière dont les entreprises construisent leur système d’information (SI). La cybersécurité est ainsi une autre préoccupation majeure pour les entreprises. Car des systèmes d’IA mal conçus ou mal utilisés pourraient entraîner des conséquences désastreuses.</p>\n<p>Les deux failles particulièrement observées :</p>\n<ol>\n<li style=\"list-style-type: none;\">\n<ol>\n<li aria-level=\"1\"><strong>Systèmes autonomes :</strong> Les véhicules autonomes et les drones militaires peuvent causer des accidents ou être utilisés à des fins malveillantes. Des régulations strictes et des protocoles de sécurité sont toutefois en cours d'élaboration pour minimiser ces risques.<br><br></li>\n<li aria-level=\"1\"><strong>Cybersécurité :</strong> L'IA peut être exploitée pour mener des cyberattaques sophistiquées, mettant en danger les infrastructures critiques et les données personnelles. Et les utilisateurs eux-mêmes peuvent aussi, par inadvertance, faire fuiter des données sensibles en utilisant des IA. Résultat : les entreprises investissent de plus en plus dans des solutions de cybersécurité pour contrer ces menaces.<br><br><br></li>\n</ol>\n</li>\n</ol>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">Les enjeux éthiques et moraux autour de l'intelligence artificielle<br></span></strong></h2>\n<p><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\">Réfléchir sur les valeurs et les normes guidant les actions humaines, en questionnant ce qui est bien ou mal, c’est le rôle de l’éthique. Or, l’IA n’a pas fini d’évoluer et de se transformer. Quels seront les prochains usages, les prochains champs d’application possibles ? Pour anticiper les problèmes, il faut dès maintenant s’emparer des questions éthiques et morales. Car l'IA, en tant qu'outil puissant, doit être pensée et utilisée de manière responsable pour éviter les abus.</span></p>\n<p>Deux points sont ainsi particulièrement importants à prendre en compte :</p>\n<ol>\n<li aria-level=\"1\"><strong>Biais et discrimination :</strong> Les algorithmes peuvent perpétuer ou aggraver les biais existants, menant à des décisions injustes dans des domaines tels que le recrutement et le système judiciaire. C’est pourquoi la transparence et l'audit des algorithmes sont des mesures cruciales pour réduire ces biais.</li>\n<li aria-level=\"1\"><strong>Responsabilité :</strong> Lorsqu'une IA cause un dommage, déterminer la responsabilité peut être complexe, que ce soit celle du développeur, de l'utilisateur, ou de l'IA elle-même. Des cadres juridiques doivent encore être construits pour clarifier ces aspects, à l’image de<span style=\"font-weight: bold;\"> </span><a href=\"https://artificialintelligenceact.eu/fr/\" style=\"font-weight: bold;\">l’IA Act porté par l’Union européenne</a><span style=\"font-weight: bold;\">.</span></li>\n<li aria-level=\"1\"><strong>Protection de la vie privée :</strong> Les systèmes d’IA, d’acquisition et d’archivage de données personnelles peuvent s’introduire dans la vie privée et intime des utilisateurs. Des mesures de protection doivent donc être prises.</li>\n</ol>\n<p>L’université de Montréal a par exemple listé <a href=\"https://declarationmontreal-iaresponsable.com/la-declaration/\" style=\"font-weight: bold;\">10 principes pour un développement responsable de l’intelligence artificielle</a><span style=\"font-weight: bold;\">.</span></p>\n<p>Pour approfondir le sujet, voici une vidéo de la chercheuse <a href=\"https://www.youtube.com/watch?v=dp5Yga_WKng\" style=\"font-weight: bold;\"><span>Asma Mhalla pour l’UNESCO</span></a>, qui présente les enjeux et les perspectives autour de l'IA. Elle pose notamment une question importante à l’heure où les géants de la Tech prennent une importance croissante dans les débats internationaux : qui gouverne les concepteurs d’IA ? </p>\n<p>Comme tous les outils avant elle, l'IA offre des avantages indéniables pour le développement de nos activités. Le danger, ce n’est donc pas l’IA en tant que telle, mais les dérives possibles de son utilisation. C’est pourquoi il est crucial de continuer à débattre et à réguler son développement, afin de maximiser ses bénéfices tout en minimisant ses risques. Tous les experts s'accordent maintenant sur la nécessité d'une approche équilibrée, combinant innovation et prudence, pour faire de la technologie le remède et non le poison.</p>\n<p>Vous voulez en apprendre davantage sur la conception des IA ? Alors inscrivez-vous à notre formation <a href=\"/fr-fr/formations-data/formation-data-engineer-alternance\" rel=\"noopener\"><span style=\"font-weight: bold;\">Data & IA Engineer en alternance</span></a> et obtenez le titre certifié Chef de projet en Intelligence Artificielle de niveau Bac+5 !</p>\n<p>Pour vous inscrire, <a href=\"https://www.wildcodeschool.com/fr-fr/formations-data/formation-data-engineer-alternance\" style=\"font-weight: bold;\">c’est par ici !</a></p>", "rss_summary" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>\n", "keywords" : [ ], "enable_google_amp_output_override" : false, "generate_json_ld_enabled" : true, "composition_id" : 0, "is_crawlable_by_bots" : false, "tag_ids" : [ 112529293687, 117730085406 ], "topic_ids" : [ 112529293687, 117730085406 ], "html_title" : "Intelligence artificielle : entre innovation et inconvénients", "layout_sections" : { }, "past_mab_experiment_ids" : [ ], "deleted_by" : null, "featured_image_alt_text" : "", "enable_layout_stylesheets" : null, "tweet" : null, "tweet_at" : null, "campaign_name" : null, "campaign_utm" : null, "meta_keywords" : null, "meta_description" : "L'intelligence artificielle (IA) soulève des préoccupations importantes. Cet article explore les inconvénients de l'IA sur trois points clés : l'emploi, la sécurité et l'éthique.\n", "tweet_immediately" : false, "publish_immediately" : true, "security_state" : "NONE", "scheduled_update_date" : 0, "placement_guids" : [ ], "property_for_dynamic_page_title" : null, "property_for_dynamic_page_slug" : null, "property_for_dynamic_page_meta_description" : null, "property_for_dynamic_page_featured_image" : null, "property_for_dynamic_page_canonical_url" : null, "preview_image_src" : null, "legacy_blog_tabid" : null, "legacy_post_guid" : null, "performable_variation_letter" : null, "style_override_id" : null, "has_user_changes" : true, "css" : { }, "css_text" : "", "unpublished_at" : 0, "published_by_id" : 50704370, "allowed_slug_conflict" : false, "ai_features" : null, "link_rel_canonical_url" : "", "page_redirected" : false, "page_expiry_enabled" : null, "page_expiry_date" : null, "page_expiry_redirect_id" : null, "page_expiry_redirect_url" : null, "deleted_by_id" : null, "state_when_deleted" : null, "cloned_from" : null, "staged_from" : null, "personas" : [ ], "compose_body" : null, "featured_image" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-06-12_Intelligence_artificielle_Entre_innovation_et_dangers_possibles.jpeg", "featured_image_width" : 2000, "featured_image_height" : 1333, "publish_timezone_offset" : null, "theme_settings_values" : null, "head_html" : null, "footer_html" : null, "attached_stylesheets" : [ ], "enable_domain_stylesheets" : null, "include_default_custom_css" : null, "password" : null, "header" : null, "published_at" : 1730729710212, "last_edit_session_id" : null, "last_edit_update_id" : null, "created_by_agent" : null }, "metaDescription" : "L'intelligence artificielle (IA) soulève des préoccupations importantes. Cet article explore les inconvénients de l'IA sur trois points clés : l'emploi, la sécurité et l'éthique.\n", "metaKeywords" : null, "name" : "Intelligence artificielle : entre innovation et inconvénients", "nextPostFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-06-14_REAC_CDA_2024.jpeg", "nextPostFeaturedImageAltText" : "Deux élèves parlent du REACT CDA", "nextPostName" : "REAC CDA 2024 : tout ce que vous devez savoir", "nextPostSlug" : "fr-fr/blog/reac-cda", "pageExpiryDate" : null, "pageExpiryEnabled" : null, "pageExpiryRedirectId" : null, "pageExpiryRedirectUrl" : null, "pageRedirected" : false, "pageTitle" : "Intelligence artificielle : entre innovation et inconvénients", "parentBlog" : { "absoluteUrl" : "https://www.wildcodeschool.com/fr-fr/blog", "allowComments" : false, "ampBodyColor" : "#404040", "ampBodyFont" : "'Helvetica Neue', Helvetica, Arial, sans-serif", "ampBodyFontSize" : "18", "ampCustomCss" : "", "ampHeaderBackgroundColor" : "#ffffff", "ampHeaderColor" : "#1e1e1e", "ampHeaderFont" : "'Helvetica Neue', Helvetica, Arial, sans-serif", "ampHeaderFontSize" : "36", "ampLinkColor" : "#416bb3", "ampLogoAlt" : "", "ampLogoHeight" : 0, "ampLogoSrc" : "", "ampLogoWidth" : 0, "analyticsPageId" : 103175636270, "attachedStylesheets" : [ ], "audienceAccess" : "PUBLIC", "businessUnitId" : null, "captchaAfterDays" : 7, "captchaAlways" : false, "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "closeCommentsOlder" : 0, "commentDateFormat" : "medium", "commentFormGuid" : "c7bc1329-e868-4cf0-9b1c-23d0a756caa6", "commentMaxThreadDepth" : 1, "commentModeration" : false, "commentNotificationEmails" : [ ], "commentShouldCreateContact" : false, "commentVerificationText" : "", "cosObjectType" : "BLOG", "created" : 1676891663653, "createdDateTime" : 1676891663653, "dailyNotificationEmailId" : null, "dateFormattingLanguage" : null, "defaultGroupStyleId" : "", "defaultNotificationFromName" : "", "defaultNotificationReplyTo" : "", "deletedAt" : 0, "description" : "Faites le plein d'informations liées aux métiers de la tech.", "domain" : "", "domainWhenPublished" : "www.wildcodeschool.com", "emailApiSubscriptionId" : null, "enableGoogleAmpOutput" : true, "enableSocialAutoPublishing" : false, "generateJsonLdEnabled" : true, "header" : null, "htmlFooter" : "", "htmlFooterIsShared" : true, "htmlHead" : "", "htmlHeadIsShared" : true, "htmlKeywords" : [ ], "htmlTitle" : "Le blog de la Wild Code School - Wild Code School", "id" : 103175636270, "ilsSubscriptionListsByType" : { }, "instantNotificationEmailId" : null, "itemLayoutId" : null, "itemTemplateIsShared" : false, "itemTemplatePath" : "MarkentivexWCS/templates/blog-post.html", "label" : "Blog", "language" : "fr-fr", "legacyGuid" : null, "legacyModuleId" : null, "legacyTabId" : null, "listingLayoutId" : null, "listingPageId" : 103175636271, "listingTemplatePath" : "", "liveDomain" : "www.wildcodeschool.com", "monthFilterFormat" : "MMMM yyyy", "monthlyNotificationEmailId" : null, "name" : "Blog", "parentBlogUpdateTaskId" : null, "portalId" : 2902314, "postHtmlFooter" : "", "postHtmlHead" : "", "postsPerListingPage" : 9, "postsPerRssFeed" : 10, "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "publicTitle" : "Blog", "publishDateFormat" : "dd/MM/YYYY", "resolvedDomain" : "www.wildcodeschool.com", "rootUrl" : "https://www.wildcodeschool.com/fr-fr/blog", "rssCustomFeed" : null, "rssDescription" : null, "rssItemFooter" : null, "rssItemHeader" : null, "settingsOverrides" : { "itemLayoutId" : false, "itemTemplatePath" : false, "itemTemplateIsShared" : false, "listingLayoutId" : false, "listingTemplatePath" : false, "postsPerListingPage" : false, "showSummaryInListing" : false, "useFeaturedImageInSummary" : false, "htmlHead" : false, "postHtmlHead" : false, "htmlHeadIsShared" : false, "htmlFooter" : false, "listingPageHtmlFooter" : false, "postHtmlFooter" : false, "htmlFooterIsShared" : false, "attachedStylesheets" : false, "postsPerRssFeed" : false, "showSummaryInRss" : false, "showSummaryInEmails" : false, "showSummariesInEmails" : false, "allowComments" : false, "commentShouldCreateContact" : false, "commentModeration" : false, "closeCommentsOlder" : false, "commentNotificationEmails" : false, "commentMaxThreadDepth" : false, "commentVerificationText" : false, "socialAccountTwitter" : false, "showSocialLinkTwitter" : false, "showSocialLinkLinkedin" : false, "showSocialLinkFacebook" : false, "enableGoogleAmpOutput" : false, "ampLogoSrc" : false, "ampLogoHeight" : false, "ampLogoWidth" : false, "ampLogoAlt" : false, "ampHeaderFont" : false, "ampHeaderFontSize" : false, "ampHeaderColor" : false, "ampHeaderBackgroundColor" : false, "ampBodyFont" : false, "ampBodyFontSize" : false, "ampBodyColor" : false, "ampLinkColor" : false, "generateJsonLdEnabled" : false }, "showSocialLinkFacebook" : true, "showSocialLinkLinkedin" : true, "showSocialLinkTwitter" : true, "showSummaryInEmails" : true, "showSummaryInListing" : true, "showSummaryInRss" : true, "siteId" : null, "slug" : "fr-fr/blog", "socialAccountTwitter" : "", "state" : null, "subscriptionContactsProperty" : null, "subscriptionEmailType" : null, "subscriptionFormGuid" : null, "subscriptionListsByType" : { }, "title" : null, "translatedFromId" : null, "translations" : { "de-de" : { "absoluteUrl" : "https://www.wildcodeschool.com/de-de/blog", "id" : 103176710277, "language" : "de-de", "masterId" : 103175636270, "name" : "Blog", "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "slug" : "de-de/blog" }, "en-gb" : { "absoluteUrl" : "https://www.wildcodeschool.com/en-gb/blog", "id" : 103176710275, "language" : "en-gb", "masterId" : 103175636270, "name" : "Blog", "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "slug" : "en-gb/blog" }, "es-es" : { "absoluteUrl" : "https://www.wildcodeschool.com/es-es/blog", "id" : 103176710278, "language" : "es-es", "masterId" : 103175636270, "name" : "Blog", "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "slug" : "es-es/blog" }, "pt-pt" : { "absoluteUrl" : "https://www.wildcodeschool.com/pt-pt/blog", "id" : 103176710276, "language" : "pt-pt", "masterId" : 103175636270, "name" : "Blog", "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "slug" : "pt-pt/blog" } }, "updated" : 1726755591366, "updatedDateTime" : 1726755591366, "urlBase" : "www.wildcodeschool.com/fr-fr/blog", "urlSegments" : { "all" : "all", "archive" : "archive", "author" : "author", "page" : "page", "tag" : "tag" }, "useFeaturedImageInSummary" : true, "usesDefaultTemplate" : false, "weeklyNotificationEmailId" : null }, "password" : null, "pastMabExperimentIds" : [ ], "performableGuid" : null, "performableVariationLetter" : null, "personas" : [ ], "placementGuids" : [ ], "portableKey" : null, "portalId" : 2902314, "position" : null, "postBody" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>\n<!--more-->\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">IA-t-il un risque pour nos emplois ?<br></span></strong></h2>\n<p>Beaucoup de débats ont lieu autour de l'intelligence artificielle mais les plus fréquents concernent son impact sur l'emploi. Va-t-elle pousser au chômage technique des millions de travailleurs ? Ou au contraire nous pousser à devenir davantage productifs ?</p>\n<p>Vaste sujet, mais il est clair que les algorithmes entraînés par machine learning peuvent accomplir des tâches de plus en plus complexes, souvent plus rapidement et à moindre coût que les humains. Cela pourrait entraîner une suppression massive d'emplois, notamment dans les secteurs manufacturiers et de services. Mais pourrait aussi créer de nombreux emplois autour de la robotique et du développement informatique.</p>\n<p>Pour résumer, voici les deux principaux arguments : </p>\n<ol>\n<li aria-level=\"1\"><strong>Automatisation des emplois :</strong> Les lignes de production, les chatbots et autres assistants virtuels, l’analyse de fraudes en temps réel pour les assurances, le tri des candidatures pour les ressources humaines, la gestion des inventaires pour les transporteurs et logisticiens, les diagnostics médicaux et la surveillance des champs en agriculture : autant d’applications possibles pour l’IA.<br><br></li>\n<li aria-level=\"1\"><strong style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\">Évolution des compétences :</strong><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\"> Les emplois restants nécessiteront des compétences techniques avancées, excluant les travailleurs moins qualifiés et exacerbant les inégalités sociales. Néanmoins, de nombreuses initiatives de formation et de reconversion professionnelle se développent déjà pour aider les travailleurs à s'adapter à ces changements, à l’image de notre</span><span style=\"font-weight: bold;\"> </span><a href=\"https://www.wildcodeschool.com/fr-fr/formation-intelligence-artificielle\" style=\"font-weight: bold;\">formation Intelligence Artificielle</a><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\"> de 55h. Les softskills sont aussi importants, comme l’adaptabilité, la créativité et la communication avec les interfaces hommes-machines.</span></li>\n</ol>\n<p><br><br></p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">Une faille de cybersécurité ?</span></strong></h2>\n<p>En plus du marché de l’emploi, l’IA révolutionne aussi la manière dont les entreprises construisent leur système d’information (SI). La cybersécurité est ainsi une autre préoccupation majeure pour les entreprises. Car des systèmes d’IA mal conçus ou mal utilisés pourraient entraîner des conséquences désastreuses.</p>\n<p>Les deux failles particulièrement observées :</p>\n<ol>\n<li style=\"list-style-type: none;\">\n<ol>\n<li aria-level=\"1\"><strong>Systèmes autonomes :</strong> Les véhicules autonomes et les drones militaires peuvent causer des accidents ou être utilisés à des fins malveillantes. Des régulations strictes et des protocoles de sécurité sont toutefois en cours d'élaboration pour minimiser ces risques.<br><br></li>\n<li aria-level=\"1\"><strong>Cybersécurité :</strong> L'IA peut être exploitée pour mener des cyberattaques sophistiquées, mettant en danger les infrastructures critiques et les données personnelles. Et les utilisateurs eux-mêmes peuvent aussi, par inadvertance, faire fuiter des données sensibles en utilisant des IA. Résultat : les entreprises investissent de plus en plus dans des solutions de cybersécurité pour contrer ces menaces.<br><br><br></li>\n</ol>\n</li>\n</ol>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">Les enjeux éthiques et moraux autour de l'intelligence artificielle<br></span></strong></h2>\n<p><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\">Réfléchir sur les valeurs et les normes guidant les actions humaines, en questionnant ce qui est bien ou mal, c’est le rôle de l’éthique. Or, l’IA n’a pas fini d’évoluer et de se transformer. Quels seront les prochains usages, les prochains champs d’application possibles ? Pour anticiper les problèmes, il faut dès maintenant s’emparer des questions éthiques et morales. Car l'IA, en tant qu'outil puissant, doit être pensée et utilisée de manière responsable pour éviter les abus.</span></p>\n<p>Deux points sont ainsi particulièrement importants à prendre en compte :</p>\n<ol>\n<li aria-level=\"1\"><strong>Biais et discrimination :</strong> Les algorithmes peuvent perpétuer ou aggraver les biais existants, menant à des décisions injustes dans des domaines tels que le recrutement et le système judiciaire. C’est pourquoi la transparence et l'audit des algorithmes sont des mesures cruciales pour réduire ces biais.</li>\n<li aria-level=\"1\"><strong>Responsabilité :</strong> Lorsqu'une IA cause un dommage, déterminer la responsabilité peut être complexe, que ce soit celle du développeur, de l'utilisateur, ou de l'IA elle-même. Des cadres juridiques doivent encore être construits pour clarifier ces aspects, à l’image de<span style=\"font-weight: bold;\"> </span><a href=\"https://artificialintelligenceact.eu/fr/\" style=\"font-weight: bold;\">l’IA Act porté par l’Union européenne</a><span style=\"font-weight: bold;\">.</span></li>\n<li aria-level=\"1\"><strong>Protection de la vie privée :</strong> Les systèmes d’IA, d’acquisition et d’archivage de données personnelles peuvent s’introduire dans la vie privée et intime des utilisateurs. Des mesures de protection doivent donc être prises.</li>\n</ol>\n<p>L’université de Montréal a par exemple listé <a href=\"https://declarationmontreal-iaresponsable.com/la-declaration/\" style=\"font-weight: bold;\">10 principes pour un développement responsable de l’intelligence artificielle</a><span style=\"font-weight: bold;\">.</span></p>\n<p>Pour approfondir le sujet, voici une vidéo de la chercheuse <a href=\"https://www.youtube.com/watch?v=dp5Yga_WKng\" style=\"font-weight: bold;\"><span>Asma Mhalla pour l’UNESCO</span></a>, qui présente les enjeux et les perspectives autour de l'IA. Elle pose notamment une question importante à l’heure où les géants de la Tech prennent une importance croissante dans les débats internationaux : qui gouverne les concepteurs d’IA ? </p>\n<p>Comme tous les outils avant elle, l'IA offre des avantages indéniables pour le développement de nos activités. Le danger, ce n’est donc pas l’IA en tant que telle, mais les dérives possibles de son utilisation. C’est pourquoi il est crucial de continuer à débattre et à réguler son développement, afin de maximiser ses bénéfices tout en minimisant ses risques. Tous les experts s'accordent maintenant sur la nécessité d'une approche équilibrée, combinant innovation et prudence, pour faire de la technologie le remède et non le poison.</p>\n<p>Vous voulez en apprendre davantage sur la conception des IA ? Alors inscrivez-vous à notre formation <a href=\"/fr-fr/formations-data/formation-data-engineer-alternance\" rel=\"noopener\"><span style=\"font-weight: bold;\">Data & IA Engineer en alternance</span></a> et obtenez le titre certifié Chef de projet en Intelligence Artificielle de niveau Bac+5 !</p>\n<p>Pour vous inscrire, <a href=\"https://www.wildcodeschool.com/fr-fr/formations-data/formation-data-engineer-alternance\" style=\"font-weight: bold;\">c’est par ici !</a></p>", "postBodyRss" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>\n<!--more-->\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">IA-t-il un risque pour nos emplois ?<br></span></strong></h2>\n<p>Beaucoup de débats ont lieu autour de l'intelligence artificielle mais les plus fréquents concernent son impact sur l'emploi. Va-t-elle pousser au chômage technique des millions de travailleurs ? Ou au contraire nous pousser à devenir davantage productifs ?</p>\n<p>Vaste sujet, mais il est clair que les algorithmes entraînés par machine learning peuvent accomplir des tâches de plus en plus complexes, souvent plus rapidement et à moindre coût que les humains. Cela pourrait entraîner une suppression massive d'emplois, notamment dans les secteurs manufacturiers et de services. Mais pourrait aussi créer de nombreux emplois autour de la robotique et du développement informatique.</p>\n<p>Pour résumer, voici les deux principaux arguments : </p>\n<ol>\n<li aria-level=\"1\"><strong>Automatisation des emplois :</strong> Les lignes de production, les chatbots et autres assistants virtuels, l’analyse de fraudes en temps réel pour les assurances, le tri des candidatures pour les ressources humaines, la gestion des inventaires pour les transporteurs et logisticiens, les diagnostics médicaux et la surveillance des champs en agriculture : autant d’applications possibles pour l’IA.<br><br></li>\n<li aria-level=\"1\"><strong style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\">Évolution des compétences :</strong><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\"> Les emplois restants nécessiteront des compétences techniques avancées, excluant les travailleurs moins qualifiés et exacerbant les inégalités sociales. Néanmoins, de nombreuses initiatives de formation et de reconversion professionnelle se développent déjà pour aider les travailleurs à s'adapter à ces changements, à l’image de notre</span><span style=\"font-weight: bold;\"> </span><a href=\"https://www.wildcodeschool.com/fr-fr/formation-intelligence-artificielle\" style=\"font-weight: bold;\">formation Intelligence Artificielle</a><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\"> de 55h. Les softskills sont aussi importants, comme l’adaptabilité, la créativité et la communication avec les interfaces hommes-machines.</span></li>\n</ol>\n<p><br><br></p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">Une faille de cybersécurité ?</span></strong></h2>\n<p>En plus du marché de l’emploi, l’IA révolutionne aussi la manière dont les entreprises construisent leur système d’information (SI). La cybersécurité est ainsi une autre préoccupation majeure pour les entreprises. Car des systèmes d’IA mal conçus ou mal utilisés pourraient entraîner des conséquences désastreuses.</p>\n<p>Les deux failles particulièrement observées :</p>\n<ol>\n<li style=\"list-style-type: none;\">\n<ol>\n<li aria-level=\"1\"><strong>Systèmes autonomes :</strong> Les véhicules autonomes et les drones militaires peuvent causer des accidents ou être utilisés à des fins malveillantes. Des régulations strictes et des protocoles de sécurité sont toutefois en cours d'élaboration pour minimiser ces risques.<br><br></li>\n<li aria-level=\"1\"><strong>Cybersécurité :</strong> L'IA peut être exploitée pour mener des cyberattaques sophistiquées, mettant en danger les infrastructures critiques et les données personnelles. Et les utilisateurs eux-mêmes peuvent aussi, par inadvertance, faire fuiter des données sensibles en utilisant des IA. Résultat : les entreprises investissent de plus en plus dans des solutions de cybersécurité pour contrer ces menaces.<br><br><br></li>\n</ol>\n</li>\n</ol>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">Les enjeux éthiques et moraux autour de l'intelligence artificielle<br></span></strong></h2>\n<p><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\">Réfléchir sur les valeurs et les normes guidant les actions humaines, en questionnant ce qui est bien ou mal, c’est le rôle de l’éthique. Or, l’IA n’a pas fini d’évoluer et de se transformer. Quels seront les prochains usages, les prochains champs d’application possibles ? Pour anticiper les problèmes, il faut dès maintenant s’emparer des questions éthiques et morales. Car l'IA, en tant qu'outil puissant, doit être pensée et utilisée de manière responsable pour éviter les abus.</span></p>\n<p>Deux points sont ainsi particulièrement importants à prendre en compte :</p>\n<ol>\n<li aria-level=\"1\"><strong>Biais et discrimination :</strong> Les algorithmes peuvent perpétuer ou aggraver les biais existants, menant à des décisions injustes dans des domaines tels que le recrutement et le système judiciaire. C’est pourquoi la transparence et l'audit des algorithmes sont des mesures cruciales pour réduire ces biais.</li>\n<li aria-level=\"1\"><strong>Responsabilité :</strong> Lorsqu'une IA cause un dommage, déterminer la responsabilité peut être complexe, que ce soit celle du développeur, de l'utilisateur, ou de l'IA elle-même. Des cadres juridiques doivent encore être construits pour clarifier ces aspects, à l’image de<span style=\"font-weight: bold;\"> </span><a href=\"https://artificialintelligenceact.eu/fr/\" style=\"font-weight: bold;\">l’IA Act porté par l’Union européenne</a><span style=\"font-weight: bold;\">.</span></li>\n<li aria-level=\"1\"><strong>Protection de la vie privée :</strong> Les systèmes d’IA, d’acquisition et d’archivage de données personnelles peuvent s’introduire dans la vie privée et intime des utilisateurs. Des mesures de protection doivent donc être prises.</li>\n</ol>\n<p>L’université de Montréal a par exemple listé <a href=\"https://declarationmontreal-iaresponsable.com/la-declaration/\" style=\"font-weight: bold;\">10 principes pour un développement responsable de l’intelligence artificielle</a><span style=\"font-weight: bold;\">.</span></p>\n<p>Pour approfondir le sujet, voici une vidéo de la chercheuse <a href=\"https://www.youtube.com/watch?v=dp5Yga_WKng\" style=\"font-weight: bold;\"><span>Asma Mhalla pour l’UNESCO</span></a>, qui présente les enjeux et les perspectives autour de l'IA. Elle pose notamment une question importante à l’heure où les géants de la Tech prennent une importance croissante dans les débats internationaux : qui gouverne les concepteurs d’IA ? </p>\n<p>Comme tous les outils avant elle, l'IA offre des avantages indéniables pour le développement de nos activités. Le danger, ce n’est donc pas l’IA en tant que telle, mais les dérives possibles de son utilisation. C’est pourquoi il est crucial de continuer à débattre et à réguler son développement, afin de maximiser ses bénéfices tout en minimisant ses risques. Tous les experts s'accordent maintenant sur la nécessité d'une approche équilibrée, combinant innovation et prudence, pour faire de la technologie le remède et non le poison.</p>\n<p>Vous voulez en apprendre davantage sur la conception des IA ? Alors inscrivez-vous à notre formation <a href=\"/fr-fr/formations-data/formation-data-engineer-alternance\" rel=\"noopener\"><span style=\"font-weight: bold;\">Data & IA Engineer en alternance</span></a> et obtenez le titre certifié Chef de projet en Intelligence Artificielle de niveau Bac+5 !</p>\n<p>Pour vous inscrire, <a href=\"https://www.wildcodeschool.com/fr-fr/formations-data/formation-data-engineer-alternance\" style=\"font-weight: bold;\">c’est par ici !</a></p>", "postEmailContent" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>", "postFeaturedImageIfEnabled" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-06-12_Intelligence_artificielle_Entre_innovation_et_dangers_possibles.jpeg", "postListContent" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>", "postListSummaryFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-06-12_Intelligence_artificielle_Entre_innovation_et_dangers_possibles.jpeg", "postRssContent" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>", "postRssSummaryFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-06-12_Intelligence_artificielle_Entre_innovation_et_dangers_possibles.jpeg", "postSummary" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>\n", "postSummaryRss" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>", "postTemplate" : "MarkentivexWCS/templates/blog-post.html", "previewImageSrc" : null, "previewKey" : "NvIQIYUH", "previousPostFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-05-17_LA%20BO%C3%8ETE%20%C3%80%20OUTILS%20DU%20DATA%20SCIENTIST.jpg", "previousPostFeaturedImageAltText" : "Une boite avec le couvercle ouvert sur les outils du Data Scientist", "previousPostName" : "La boîte à outils du Data Scientist", "previousPostSlug" : "fr-fr/blog/la-boite-a-outils-du-data-scientist", "processingStatus" : "PUBLISHED", "propertyForDynamicPageCanonicalUrl" : null, "propertyForDynamicPageFeaturedImage" : null, "propertyForDynamicPageMetaDescription" : null, "propertyForDynamicPageSlug" : null, "propertyForDynamicPageTitle" : null, "publicAccessRules" : [ ], "publicAccessRulesEnabled" : false, "publishDate" : 1718143200000, "publishDateLocalTime" : 1718143200000, "publishDateLocalized" : { "date" : 1718143200000, "format" : "dd/MM/YYYY", "language" : null }, "publishImmediately" : true, "publishTimezoneOffset" : null, "publishedAt" : 1730729710212, "publishedByEmail" : null, "publishedById" : 50704370, "publishedByName" : null, "publishedUrl" : "https://www.wildcodeschool.com/fr-fr/blog/intelligence-artificielle-entre-innovation-et-inconvenients", "resolvedDomain" : "www.wildcodeschool.com", "resolvedLanguage" : null, "rssBody" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>\n<!--more-->\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">IA-t-il un risque pour nos emplois ?<br></span></strong></h2>\n<p>Beaucoup de débats ont lieu autour de l'intelligence artificielle mais les plus fréquents concernent son impact sur l'emploi. Va-t-elle pousser au chômage technique des millions de travailleurs ? Ou au contraire nous pousser à devenir davantage productifs ?</p>\n<p>Vaste sujet, mais il est clair que les algorithmes entraînés par machine learning peuvent accomplir des tâches de plus en plus complexes, souvent plus rapidement et à moindre coût que les humains. Cela pourrait entraîner une suppression massive d'emplois, notamment dans les secteurs manufacturiers et de services. Mais pourrait aussi créer de nombreux emplois autour de la robotique et du développement informatique.</p>\n<p>Pour résumer, voici les deux principaux arguments : </p>\n<ol>\n<li aria-level=\"1\"><strong>Automatisation des emplois :</strong> Les lignes de production, les chatbots et autres assistants virtuels, l’analyse de fraudes en temps réel pour les assurances, le tri des candidatures pour les ressources humaines, la gestion des inventaires pour les transporteurs et logisticiens, les diagnostics médicaux et la surveillance des champs en agriculture : autant d’applications possibles pour l’IA.<br><br></li>\n<li aria-level=\"1\"><strong style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\">Évolution des compétences :</strong><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\"> Les emplois restants nécessiteront des compétences techniques avancées, excluant les travailleurs moins qualifiés et exacerbant les inégalités sociales. Néanmoins, de nombreuses initiatives de formation et de reconversion professionnelle se développent déjà pour aider les travailleurs à s'adapter à ces changements, à l’image de notre</span><span style=\"font-weight: bold;\"> </span><a href=\"https://www.wildcodeschool.com/fr-fr/formation-intelligence-artificielle\" style=\"font-weight: bold;\">formation Intelligence Artificielle</a><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\"> de 55h. Les softskills sont aussi importants, comme l’adaptabilité, la créativité et la communication avec les interfaces hommes-machines.</span></li>\n</ol>\n<p><br><br></p>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">Une faille de cybersécurité ?</span></strong></h2>\n<p>En plus du marché de l’emploi, l’IA révolutionne aussi la manière dont les entreprises construisent leur système d’information (SI). La cybersécurité est ainsi une autre préoccupation majeure pour les entreprises. Car des systèmes d’IA mal conçus ou mal utilisés pourraient entraîner des conséquences désastreuses.</p>\n<p>Les deux failles particulièrement observées :</p>\n<ol>\n<li style=\"list-style-type: none;\">\n<ol>\n<li aria-level=\"1\"><strong>Systèmes autonomes :</strong> Les véhicules autonomes et les drones militaires peuvent causer des accidents ou être utilisés à des fins malveillantes. Des régulations strictes et des protocoles de sécurité sont toutefois en cours d'élaboration pour minimiser ces risques.<br><br></li>\n<li aria-level=\"1\"><strong>Cybersécurité :</strong> L'IA peut être exploitée pour mener des cyberattaques sophistiquées, mettant en danger les infrastructures critiques et les données personnelles. Et les utilisateurs eux-mêmes peuvent aussi, par inadvertance, faire fuiter des données sensibles en utilisant des IA. Résultat : les entreprises investissent de plus en plus dans des solutions de cybersécurité pour contrer ces menaces.<br><br><br></li>\n</ol>\n</li>\n</ol>\n<h2 style=\"font-size: 30px;\"><strong><span style=\"color: #0d0d0d;\">Les enjeux éthiques et moraux autour de l'intelligence artificielle<br></span></strong></h2>\n<p><span style=\"font-size: var(--body_font_font_size); color: var(--body_font_color);\">Réfléchir sur les valeurs et les normes guidant les actions humaines, en questionnant ce qui est bien ou mal, c’est le rôle de l’éthique. Or, l’IA n’a pas fini d’évoluer et de se transformer. Quels seront les prochains usages, les prochains champs d’application possibles ? Pour anticiper les problèmes, il faut dès maintenant s’emparer des questions éthiques et morales. Car l'IA, en tant qu'outil puissant, doit être pensée et utilisée de manière responsable pour éviter les abus.</span></p>\n<p>Deux points sont ainsi particulièrement importants à prendre en compte :</p>\n<ol>\n<li aria-level=\"1\"><strong>Biais et discrimination :</strong> Les algorithmes peuvent perpétuer ou aggraver les biais existants, menant à des décisions injustes dans des domaines tels que le recrutement et le système judiciaire. C’est pourquoi la transparence et l'audit des algorithmes sont des mesures cruciales pour réduire ces biais.</li>\n<li aria-level=\"1\"><strong>Responsabilité :</strong> Lorsqu'une IA cause un dommage, déterminer la responsabilité peut être complexe, que ce soit celle du développeur, de l'utilisateur, ou de l'IA elle-même. Des cadres juridiques doivent encore être construits pour clarifier ces aspects, à l’image de<span style=\"font-weight: bold;\"> </span><a href=\"https://artificialintelligenceact.eu/fr/\" style=\"font-weight: bold;\">l’IA Act porté par l’Union européenne</a><span style=\"font-weight: bold;\">.</span></li>\n<li aria-level=\"1\"><strong>Protection de la vie privée :</strong> Les systèmes d’IA, d’acquisition et d’archivage de données personnelles peuvent s’introduire dans la vie privée et intime des utilisateurs. Des mesures de protection doivent donc être prises.</li>\n</ol>\n<p>L’université de Montréal a par exemple listé <a href=\"https://declarationmontreal-iaresponsable.com/la-declaration/\" style=\"font-weight: bold;\">10 principes pour un développement responsable de l’intelligence artificielle</a><span style=\"font-weight: bold;\">.</span></p>\n<p>Pour approfondir le sujet, voici une vidéo de la chercheuse <a href=\"https://www.youtube.com/watch?v=dp5Yga_WKng\" style=\"font-weight: bold;\"><span>Asma Mhalla pour l’UNESCO</span></a>, qui présente les enjeux et les perspectives autour de l'IA. Elle pose notamment une question importante à l’heure où les géants de la Tech prennent une importance croissante dans les débats internationaux : qui gouverne les concepteurs d’IA ? </p>\n<p>Comme tous les outils avant elle, l'IA offre des avantages indéniables pour le développement de nos activités. Le danger, ce n’est donc pas l’IA en tant que telle, mais les dérives possibles de son utilisation. C’est pourquoi il est crucial de continuer à débattre et à réguler son développement, afin de maximiser ses bénéfices tout en minimisant ses risques. Tous les experts s'accordent maintenant sur la nécessité d'une approche équilibrée, combinant innovation et prudence, pour faire de la technologie le remède et non le poison.</p>\n<p>Vous voulez en apprendre davantage sur la conception des IA ? Alors inscrivez-vous à notre formation <a href=\"/fr-fr/formations-data/formation-data-engineer-alternance\" rel=\"noopener\"><span style=\"font-weight: bold;\">Data & IA Engineer en alternance</span></a> et obtenez le titre certifié Chef de projet en Intelligence Artificielle de niveau Bac+5 !</p>\n<p>Pour vous inscrire, <a href=\"https://www.wildcodeschool.com/fr-fr/formations-data/formation-data-engineer-alternance\" style=\"font-weight: bold;\">c’est par ici !</a></p>", "rssSummary" : "<p style=\"font-size: 16px;\"><span style=\"color: #0d0d0d;\">400 millions d’euros d’investissement dans la recherche et la formation autour de l’intelligence artificielle, c’est la promesse d’Emmanuel Macron faite en préambule du salon <a href=\"https://vivatechnology.com/\" rel=\"noopener\"><span style=\"font-weight: bold;\">VivaTech</span></a>. Et pour cause, l'adoption de l'intelligence artificielle dans les entreprises a connu une croissance exponentielle ces dernières années. L'utilisation de l'IA dans les entreprises a ainsi augmenté de 25% entre 2019 et 2022, avec plus de 50% des grandes entreprises intégrant au moins une fonction basée sur l'IA, selon </span><span style=\"font-size: 16px;\"><a href=\"https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai%20in%202022%20and%20a%20half%20decade%20in%20review/the-state-of-ai-in-2022-and-a-half-decade-in-review.pdf#:~:text=URL%3A%20https%3A%2F%2Fwww.mckinsey.com%2F~%2Fmedia%2Fmckinsey%2Fbusiness%2520functions%2Fquantumblack%2Four%2520insights%2Fthe%2520state%2520of%2520ai%2520in%25202022%2520and%2520a%2520half%2520decade%2520in%2520review%2Fthe\" style=\"font-weight: bold;\">un rapport de McKinsey</a></span><span style=\"color: #0d0d0d;\"><span style=\"font-weight: bold; font-size: 16px;\">. </span>Et 63% des entreprises prévoient encore d'augmenter leurs investissements en IA dans les trois prochaines années. La tendance n’est donc pas prête de s’arrêter et ces chiffres illustrent bien la nécessité de discuter des dangers potentiels de l’intelligence artificielle. D'ailleurs, nous avons développé <a href=\"/fr-fr/formation-intelligence-artificielle\" rel=\"noopener\" target=\"_blank\">une formation en ligne à ce sujet.</a><br><br></span></p>\n", "rssSummaryFeaturedImage" : "https://2902314.fs1.hubspotusercontent-na1.net/hubfs/2902314/2024-06-12_Intelligence_artificielle_Entre_innovation_et_dangers_possibles.jpeg", "scheduledUpdateDate" : 0, "screenshotPreviewTakenAt" : 1730729711313, "screenshotPreviewUrl" : "https://cdn1.hubspot.net/hubshotv3/prod/e/0/e316345e-1a40-4920-80e7-c7a70105a488.png", "sections" : { }, "securityState" : "NONE", "siteId" : null, "slug" : "fr-fr/blog/intelligence-artificielle-entre-innovation-et-inconvenients", "stagedFrom" : null, "state" : "PUBLISHED", "stateWhenDeleted" : null, "structuredContentPageType" : null, "structuredContentType" : null, "styleOverrideId" : null, "subcategory" : "normal_blog_post", "syncedWithBlogRoot" : true, "tagIds" : [ 112529293687, 117730085406 ], "tagList" : [ { "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "contentIds" : [ ], "cosObjectType" : "TAG", "created" : 1682323659406, "deletedAt" : 0, "description" : "", "id" : 112529293687, "label" : "Décryptage", "language" : "fr-fr", "name" : "Décryptage", "portalId" : 2902314, "slug" : "décryptage", "translatedFromId" : null, "translations" : { }, "updated" : 1689243063828 }, { "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "contentIds" : [ ], "cosObjectType" : "TAG", "created" : 1685378194804, "deletedAt" : 0, "description" : "", "id" : 117730085406, "label" : "Tech", "language" : "fr-fr", "name" : "Tech", "portalId" : 2902314, "slug" : "tech", "translatedFromId" : null, "translations" : { }, "updated" : 1685378194804 } ], "tagNames" : [ "Décryptage", "Tech" ], "teamPerms" : [ ], "templatePath" : "", "templatePathForRender" : "MarkentivexWCS/templates/blog-post.html", "textToAudioFileId" : null, "textToAudioGenerationRequestId" : null, "themePath" : null, "themeSettingsValues" : null, "title" : "Intelligence artificielle : entre innovation et inconvénients", "tmsId" : null, "topicIds" : [ 112529293687, 117730085406 ], "topicList" : [ { "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "contentIds" : [ ], "cosObjectType" : "TAG", "created" : 1682323659406, "deletedAt" : 0, "description" : "", "id" : 112529293687, "label" : "Décryptage", "language" : "fr-fr", "name" : "Décryptage", "portalId" : 2902314, "slug" : "décryptage", "translatedFromId" : null, "translations" : { }, "updated" : 1689243063828 }, { "categoryId" : 3, "cdnPurgeEmbargoTime" : null, "contentIds" : [ ], "cosObjectType" : "TAG", "created" : 1685378194804, "deletedAt" : 0, "description" : "", "id" : 117730085406, "label" : "Tech", "language" : "fr-fr", "name" : "Tech", "portalId" : 2902314, "slug" : "tech", "translatedFromId" : null, "translations" : { }, "updated" : 1685378194804 } ], "topicNames" : [ "Décryptage", "Tech" ], "topics" : [ 112529293687, 117730085406 ], "translatedContent" : { }, "translatedFromId" : null, "translations" : { }, "tweet" : null, "tweetAt" : null, "tweetImmediately" : false, "unpublishedAt" : 0, "updated" : 1730729710216, "updatedById" : 50704370, "upsizeFeaturedImage" : false, "url" : "https://www.wildcodeschool.com/fr-fr/blog/intelligence-artificielle-entre-innovation-et-inconvenients", "useFeaturedImage" : true, "userPerms" : [ ], "views" : 0, "visibleToAll" : null, "widgetContainers" : { }, "widgetcontainers" : { }, "widgets" : { } })