La technologie de l'IA s’est développée de manière exponentielle ces derniers mois. Alors que nous avançons en territoire inconnu, des employés et employeurs de tous les domaines, formation (L&D) incluse, se demandent comment l'IA impactera le monde du travail.
Même si 62 % des consommateurs sont ouverts à ce que les entreprises utilisent l’IA pour améliorer leur expérience (Salesforce), de nombreuses questions restent sans réponse, notamment en ce qui concerne l'éthique autour de l'IA, c’est-à-dire l'ensemble des valeurs, principes et techniques qui guident la conduite morale dans le développement et l'utilisation des technologies de l'IA. Cette même étude de Salesforce menée en 2023 pointe en effet qu'un peu moins d’un tiers des sondés pense que les entreprises sont suffisamment transparentes sur la manière dont elles utilisent l’IA.
Les employeurs peuvent adopter l'IA de manière centrée sur l'humain, et pas seulement dans la formation. Toutes les équipes et industries bénéficieront de l'IA. Mais pour en récolter les fruits, en particulier dans le domaine de la Formation, nous devons prendre en compte les considérations éthiques. Dans cet article, nous analysons trois préoccupations courantes des employés concernant l'éthique autour de l'IA et comment les gérer.
En cliquant ici, vous acceptez de recevoir du contenu de 360Learning. Vous pouvez modifier votre choix à tout moment. Pour plus d'informations, voir notre politique de protection des données.
Il est primordial d’aborder les enjeux éthiques de l'IA au travail. Voici trois inquiétudes récurrentes, ainsi que des conseils et des techniques pour y répondre et les atténuer.
Pour de nombreuses organisations, l'IA permet de faire des économies importantes tout en évitant de commettre des erreurs humaines. Par exemple, l'intelligence artificielle peut aider à limiter les accidents et à diminuer les erreurs dans les processus de paiement. Mais quid de la suppression d'emplois ? Une étude a révélé que l'automatisation des tâches remplace 3,3 emplois dans une zone géographique donnée. À cela s’ajoute le fait que 15 % des travailleurs dans le monde pourraient être remplacés entre 2016 et 2030 selon McKinsey.
Certains employés craignent pour leur avenir professionnel : l'IA pourrait-elle réduire leur pouvoir de négociation ? ou tout simplement leurs opportunités d'emploi ? D'autres ont également signalé que l'IA aurait un effet sur la baisse des salaires, notamment pour les postes spécialisés dans les tâches répétitives dans les industries touchées par une automatisation grandissante.
À mesure que les travailleurs s'inquiètent des effets au niveau éthique de l'IA, les employeurs doivent les rassurer.
L’automatisation des emplois va de pair avec la création de missions plus complexes et stratégiques pour les travailleurs afin qu’ils puissent continuer à être utiles au sein de la société dans son ensemble.
Sur le plan économique, l'IA améliorera la productivité, mais il est tout aussi vital pour les entreprises de préserver leur caractère humain pour rester concurrentielles. L'IA devrait servir à renforcer et à enrichir l'activité humaine plutôt qu'à remplacer complètement nos compétences. La réussite de tout outil d'IA dépend aussi de la compétence avec laquelle le professionnel expérimenté l’utilise. Par exemple, un rédacteur talentueux est encore nécessaire pour utiliser une IA de rédaction et modifier le contenu pour qu'il reste naturel, humain et cohérent avec votre image.
Parlons maintenant de la fiabilité et des droits de propriété du contenu généré par l'IA.
L'utilisation croissante de ChatGPT et d'autres outils d'IA soulève de nombreuses questions encore non résolues concernant l’utilisation, la propriété et l'attribution du contenu créé.
L'utilisation personnelle de ChatGPT ne pose pas de souci. Mais lorsqu'il s'agit de contenu destiné à une diffusion plus large, comme des supports marketing, des livres blancs, etc., les questions juridiques sont floues. Les législateurs de l'UE et des États-Unis travaillent à l'élaboration d'un code de conduite de l'IA qui devrait, espérons-le, atténuer certains des risques liés aux droits d’auteur et de la propriété intellectuelle.
Mais même si les entreprises respectent la loi et le code éthique établi, il y a toujours le problème de la fiabilité des informations issus de l’IA. Actuellement, le contenu généré par IA peut contenir des erreurs, et CNET l'a appris à ses dépens. Plus de la moitié de leur contenu rédigé par l’IA comportait des erreurs, et ils ont dû réembaucher les éditeurs qu'ils avaient licenciés. L’IA génératrice de contenu ne peut se passer des compétences humaines pour obtenir des résultats optimaux.
Une autre inquiétude récurrente liée à l'IA ? La vie privée.
La vie privée et la protection des données font partie des préoccupations les plus importantes concernant l'IA. De plus en plus de données sont collectées et traitées, augmentant le risque d'accès non autorisé aux informations personnelles ce qui inquiète employés et employeurs qui craignent la violation de données.
La cybercriminalité menace la sécurité de 80 % des entreprises dans le monde, et tout le monde est désormais conscient des dangers du vol de données personnelles qui, entre de mauvaises mains, peuvent être utilisées à mauvais escient. Comment limiter ce phénomène tout en laissant l'IA évoluer vers de nouvelles innovations? Les entreprises doivent au minimum protéger la vie privée et les informations de leurs employés et de leurs clients grâce à des plateformes d'authentification.
Une autre inquiétude concerne la surveillance et la supervision. L'adoption de l'IA a grandement facilité la collecte de données sur les employés et les clients par les entreprises. Des questions éthiques se posent lorsque les employés ou clients ne savent pas qu'ils sont surveillés ou lorsque cela produit des données biaisées qui ne peuvent pas être traitées correctement.
Les dirigeants utilisent déjà l'IA pour surveiller leurs employés. En 2019, Garner a interrogé 239 grandes entreprises et a constaté que plus de 50 % d'entre elles utilisaient des techniques de supervision non traditionnelles comme l'analyse des e-mails et des messages sur les réseaux sociaux. Au Royaume-Uni, il n'existe aucune autorisation explicite permettant la surveillance, ni aucun texte pour l'empêcher, ce qui floute d’autant plus la frontière légale de cette pratique.
61 % des employés se sentent à l'aise avec le fait d’être surveillés, sous certaines conditions. Ils veulent pouvoir voir les données, contester toute interprétation et s'assurer que lesdites données sont utilisées de manière éthique. Malheureusement, certaines entreprises abusent déjà de ces méthodes.
En l'absence de transparence de la part des employeurs concernant l'impact potentiel de l'IA sur leurs employés, la confiance entre entreprise et travailleurs risque de se briser. Et les employés pourraient avoir le sentiment d'être constamment sous surveillance.
Bien que la surveillance continue des performances du personnel soit envisageable, notamment dans un contexte de coaching ou de récompenses, les entreprises ont beaucoup à perdre si elles abusent de ce procédé. De nombreuses équipes de direction soutiennent que tant que le travail est réalisé de manière sûre et efficace, la méthode et le moment de son exécution importent peu.
Lorsque les organisations se voient contraintes d'utiliser la surveillance sur leur lieu de travail, comme pour garantir la sécurité dans un entrepôt par exemple, il est impératif d'adopter une approche transparente et de communiquer clairement sur son utilisation. Dans les situations où l'IA est nécessaire, elle doit toujours faire l'objet d'une supervision par un comité composé de différents membres du personnel afin de réduire les risques de partialité.
L'IA a clairement le pouvoir de révolutionner nos vies, mais elle comporte aussi des enjeux éthiques. Des cas d'utilisation inappropriée de l'IA nuisant aux employés existent déjà.
Pour changer cette idée, gouvernements et employeurs doivent travailler ensemble pour créer des règles qui font de l'IA un allié plutôt qu'une menace pour la main-d'œuvre. Les entreprises qui font de l'IA un outil au service de l'humain seront probablement plus productives et pourrons croître tout en préservant leur côté humain.
Les entreprises peuvent rendre l'IA plus humaine et rassurer leurs employés sur leur avenir professionnel. Montrez à votre équipe qu'ils sont précieux pour vous, et que leur contribution est irremplaçable et essentielle pour la réussite de l'entreprise.