Min menu

Pages

Qu'est-ce que l'Intelligence artificielle éthique ?

 Qu'est-ce que l'Intelligence artificielle éthique ?

Qu'est-ce que l'Intelligence artificielle éthique ?


Comment définir ce qu'est un « bon résultat » en matière d'algorithmes ?

Quand on considère le terme l'intelligence artificielle (IA) éthique, il est peut-être trop facile de tomber dans le piège d'imaginer une descente apocalyptique de type Skynet dans laquelle les humains sont asservis par des machines. Alors que les normes de la technologie de l'intelligence artificielle (IA) ne cessent de s'améliorer, il vaut mieux laisser à Hollywood l'idée que les machines peuvent atteindre de manière réaliste un état de conscience.

De nombreuses applications courantes de l'IA sont relativement banales, mais font des merveilles pour améliorer notre vie quotidienne. Les exemples peuvent inclure la technologie intégrée dans les assistants virtuels tels que Alexa d'Amazon ou Google Home ; le traitement du langage naturel (PNL) est adopté dans ces plates-formes pour améliorer la qualité de la communication avec les utilisateurs.

Il existe d'innombrables autres utilisations courantes de l'IA, de l'automatisation des tâches bureautiques à l'analyse des mégadonnées.

L'IA dans sa forme actuelle a tellement de potentiel, avec des universitaires et des chercheurs travaillant à concevoir de nouvelles applications et approches dont les entreprises pourront tirer parti.

Cependant, alors que le paysage de l'IA continue de s'étendre et d'évoluer, il est essentiel que les discussions sur l'éthique soient au centre des applications susceptibles de menacer d'enfreindre nos droits essentiels en matière de protection des données et de confidentialité. La reconnaissance faciale en est l'exemple parfait, son utilisation par les forces de l'ordre étant jugée très controversée.

L'un des problèmes les plus médiatisés est le manque de visibilité sur la façon dont les algorithmes arrivent aux conclusions qu'ils font. Il est également difficile de savoir si ces résultats sont faussés par des biais sous-jacents intégrés dans les ensembles de données introduits dans ces systèmes.

Il peut y avoir un effort conscient pour développer une IA qui donne des résultats similaires à ceux de l'homme, mais il reste à voir si ces systèmes peuvent prendre en compte les questions éthiques sur lesquelles nous délibérons lorsque nous prenons nous-mêmes des décisions.

La reconnaissance faciale est considérée comme une application litigieuse de la technologie de l'IA.

C'est à cause de ces questions que nous arrivons à l'idée d'éthique, à savoir les principes moraux qui régissent les actions d'un individu ou d'un groupe, ou, dans ce cas, d'une machine. C'est-à-dire que l'éthique de l'IA ne concerne pas simplement l'application de la technologie - les résultats et les prévisions de l'IA sont tout aussi importants.

Définir un « bon résultat »

Les systèmes d'IA représentent une divergence par rapport aux ordinateurs traditionnels qui fondent leurs résultats sur des principes mathématiques. Si vous entrez 4 + 4 dans un ordinateur, la réponse doit toujours être 8, quelle que soit sa sophistication. Avec le développement d'applications, de nouveaux logiciels peuvent être créés pour répondre à une variété de besoins, mais ils sont toujours basés sur un langage de codage prédéfini. En ce sens, il n'y a aucune ambiguïté sur ce que le résultat devrait ou ne devrait pas être.

Prenons l'exemple d'un système conçu pour établir à quel point une personne est heureuse en fonction de ses caractéristiques faciales. Un système devrait être formé sur une variété de données démographiques pour tenir compte de toutes les combinaisons de race, d'âge et de sexe possibles.

De plus, même si nous supposions que le système pouvait rendre compte de tout cela, comment établir au-delà de tout doute à quoi ressemble le bonheur ?

Le biais est l'un des problèmes majeurs de l'intelligence artificielle, car son développement est toujours basé sur les choix des chercheurs impliqués. Cela rend effectivement impossible de créer un système entièrement neutre, et pourquoi le domaine de l'éthique de l'IA est si important.

Qu'est ce que la robotique ?

La robotique, ou éthique des robots, est le principe de la conception de systèmes artificiellement intelligents utilisant des codes de conduite qui garantissent qu'un système automatisé est capable de répondre aux situations de manière éthique. Autrement dit, assurez-vous qu'un robot se comporte d'une manière qui correspond au cadre éthique de la société dans laquelle il opère.

À l'instar de l'éthique traditionnelle, la robotique consiste à s'assurer que lorsqu'un système capable de prendre ses propres décisions entre en contact avec les humains, il est capable de donner la priorité à la santé et au bien-être de l'humain par-dessus tout, tout en se comportant d'une manière jugée appropriée à la situation.

La robotique occupe souvent une place importante dans les discussions sur l'utilisation de l'intelligence artificielle dans les situations de combat, une école de pensée populaire étant que les robots ne devraient jamais être construits pour nuire ou tuer explicitement des êtres humains.

Alors que la robotique se concentre généralement sur l'action résultante du robot, le domaine ne concerne que les pensées et les actions du développeur humain derrière lui, plutôt que le robot lui-même. Pour cela, nous nous tournons vers l'éthique des machines, qui concerne le processus d'ajout de comportements moraux aux machines à IA.

Arguments contre l'IA éthique

Certains penseurs de l'industrie ont cependant attaqué l'IA éthique, affirmant qu'il n'est pas possible de traiter les robots et l'intelligence artificielle comme leurs homologues humains.

Le célèbre informaticien Joseph Weizenbaum a fait valoir depuis les années 60 que les êtres non humains ne devraient pas être utilisés dans des rôles qui reposent sur l'interaction humaine ou l'établissement de relations.

Il a déclaré que les rôles de responsabilité tels que les services à la clientèle, les thérapeutes, les soignants des personnes âgées, les policiers, les soldats et les juges ne devraient jamais être remplacés par l'intelligence artificielle, qu'il s'agisse de robots physiques ou de tout autre système qui irait à l'encontre de l'intuition humaine.

Dans ces rôles, les humains doivent faire l'expérience de l'empathie et, quelle que soit la nature humaine des interactions avec l'intelligence artificielle, ils ne seront jamais en mesure de remplacer les émotions ressenties dans les scénarios où ces rôles de travail existent.

Réaction politique à l'IA éthique

Le Royaume-Uni joue un rôle central dans l'évolution de l'IA éthique. L'ancienne Première ministre Theresa May s'est engagée à développer un centre pour l'éthique et l'innovation des données qui s'assure que la société est préparée pour les technologies basées sur les données.

« De nous aider à résoudre les nouveaux problèmes éthiques soulevés par des technologies en développement rapide telles que l'intelligence artificielle, à convenir des meilleures pratiques concernant l'utilisation des données jusqu'à l'identification de nouvelles réglementations potentielles, le Centre définira les mesures nécessaires pour instaurer la confiance et permettre l'innovation dans les données, les technologies axées sur les technologies », a déclaré May.

"La confiance sous-tend une économie forte et la confiance dans les données sous-tend une économie numérique forte."

En avril, la Commission européenne a publié un ensemble de lignes directrices pour le développement éthique de l'intelligence artificielle, la principale étant la nécessité d'une surveillance humaine cohérente.

Réaction des entreprises à l'IA éthique

Google a été l'une des premières entreprises à promettre que son IA ne sera jamais utilisée que de manière éthique, c'est-à-dire qu'elle ne sera jamais conçue pour devenir une arme. Les huées de la société, Sundar Pichai, a déclaré que Google ne participerait pas non plus à la surveillance alimentée par l'IA.

Google a publié son propre code de déontologie en juin 2018 en réponse aux critiques généralisées sur sa relation avec le programme d'armes du gouvernement américain. La société a depuis déclaré qu'elle ne coopérerait plus avec le gouvernement américain sur des projets visant à militariser les algorithmes.

Amazon, Google, Facebook, IBM et Microsoft ont uni leurs forces pour développer les meilleures pratiques pour l'IA, avec une grande partie de l'examen de la façon dont l'IA devrait être et peut être utilisée de manière éthique ainsi que pour partager des idées sur l'éducation du public sur les utilisations de IA et autres problèmes liés à la technologie.

Le consortium a expliqué : "Ce partenariat sur l'IA mènera des recherches, organisera des discussions, fournira un leadership éclairé, consultera les tiers concernés, répondra aux questions du public et des médias et créera du matériel éducatif qui fera progresser la compréhension des technologies d'IA, y compris la perception des machines, apprentissage et raisonnement automatisé. "

Après un essai désastreux avec son chatbot en ligne Tay en mars 2016, Microsoft a depuis pris des mesures pour refondre ses politiques internes concernant le développement de l'IA, en particulier lorsqu'il s'agit de cas d'utilisation sensibles.

Cela comprend la création du Bureau pour une IA responsable, qui est chargé de recommander et de mettre en œuvre la politique d'IA dans l'ensemble de l'entreprise, et le comité dit « Aether » (IA, éthique et effets en ingénierie et recherche), un comité non contraignant, organe consultatif composé des principales parties prenantes.

Microsoft avait également coopéré avec l'Union européenne à l'élaboration d'un cadre réglementaire sur l'IA, dont un projet de version a finalement été publié le 21 avril 2021. En vertu des règlements proposés, les citoyens de l'UE seront protégés de l'utilisation de l'IA pour la surveillance de masse par la loi.

L'application de la loi, qui a été déclarée illégale au Royaume-Uni l'année dernière. L'utilisation de l'IA dans le recrutement, l'évaluation des points de crédit, ainsi que la gestion du contrôle aux frontières sera également classée comme « à haut risque » en raison de problèmes de discrimination, tandis que les systèmes qui permettent une « notation sociale » par les gouvernements seront interdits.

Les entreprises qui enfreignent les règles s'exposeraient à des amendes pouvant atteindre 6% de leur chiffre d'affaires mondial ou 30 millions d'euros, selon le chiffre le plus élevé - légèrement plus élevé que les amendes déjà élevées imposées par le RGPD.

La Commission européenne devra à présent examiner les détails des règlements proposés avec les gouvernements nationaux de l'UE et le Parlement européen avant que les règles puissent entrer en vigueur, un processus qui peut prendre plusieurs années.

Pendant ce temps, au Royaume-Uni, le Trades Union Congress (TUC) appelle à une protection juridique accrue pour les travailleurs, car l'utilisation de l'IA pour la prise de décision liée aux employés, comme l'embauche et le licenciement, devient plus courante sur le lieu de travail.

Des exemples récents de cette action incluent des allégations d'anciens employés d'Uber Eats, qui ont accusé le service de livraison de nourriture de licenciement abusif après que le logiciel d'identification faciale utilisé par l'entreprise était incapable de reconnaître leurs visages.

Le système, connu sous le nom d'outil de « comparaison de photos », demande aux coursiers et chauffeurs Uber de prendre une photo de leur visage, qui est ensuite authentifiée à l'aide de l'IA en la comparant à une photo de la base de données de l'entreprise. Par conséquent, selon le TUC, les employeurs qui cherchent à utiliser l'IA « à haut risque » devraient être légalement tenus de consulter les syndicats.

reaction:

Commentaires