IA

Éthique de l'IA: avantages et risques des systèmes d'intelligence artificielle

Éthique de l'IA: avantages et risques des systèmes d'intelligence artificielle

La convergence de la disponibilité d'une grande quantité de mégadonnées, la vitesse et l'étendue des plates-formes de cloud computing, et l'avancement d'algorithmes sophistiqués d'apprentissage automatique ont donné naissance à un éventail d'innovations en intelligence artificielle (IA).

En théorie, l'impact bénéfique des systèmes d'IA sur le gouvernement se traduit par une amélioration des services de santé, de l'éducation et des transports dans les villes intelligentes. D'autres applications qui bénéficient de la mise en œuvre de systèmes d'IA dans le secteur public comprennent la chaîne d'approvisionnement alimentaire, l'énergie et la gestion de l'environnement.

En effet, les avantages que les systèmes d'IA apportent à la société sont considérables, tout comme les défis et les inquiétudes. L'évolution de la courbe d'apprentissage des technologies implique des erreurs de calcul et des erreurs, entraînant des effets néfastes imprévus.

Nous vivons à une époque où il est primordial que la possibilité de dommages dans les systèmes d'IA soit reconnue et traitée rapidement. Ainsi, identifier les risques potentiels causés par les systèmes d'IA signifie qu'un plan de mesures pour les contrecarrer doit être adopté dès que possible.

Les organisations du secteur public peuvent donc anticiper et prévenir les futurs dommages potentiels en créant une culture d'innovation responsable pour développer et mettre en œuvre des systèmes d'IA éthiques, équitables et sûrs.

Cela dit, toutes les personnes impliquées dans la conception, la production et le déploiement de projets d'IA, y compris les scientifiques des données, les ingénieurs de données, les experts du domaine, les responsables de la livraison et les chefs de service, devraient considérer l'éthique et la sécurité de l'IA comme une priorité.

Éthique et roboéthique de l'intelligence artificielle

L'éthique de l'intelligence artificielle, ou éthique de l'IA, comprend un ensemble de valeurs, de principes et de techniques qui utilisent des normes largement acceptées du bien et du mal pour guider la conduite morale dans le développement et le déploiement des technologies d'intelligence artificielle.

L'éthique des robots, également connue sous le nom d'éthique de la robotique ou éthique des machines, concerne les règles à appliquer pour garantir le comportement éthique des robots ainsi que la manière de concevoir des robots éthiques. La roboéthique traite des préoccupations et des dilemmes moraux tels que la question de savoir si les robots constitueront une menace pour les humains à long terme ou si l'utilisation de certains robots, tels que les robots tueurs dans les guerres, peut devenir problématique pour l'humanité.

Les roboticiens doivent garantir que les systèmes autonomes peuvent présenter un comportement éthiquement acceptable dans des situations où des robots, des systèmes d'IA et d'autres systèmes autonomes tels que les véhicules autonomes interagissent avec les humains.

Intelligence artificielle, automatisation et éthique de l'IA

L'intelligence artificielle (IA) et l'automatisation changent radicalement et influencent notre société. L'application des principes d'éthique de l'IA à la conception et à la mise en œuvre de systèmes algorithmiques ou intelligents et de projets d'IA dans le secteur public est primordiale. L'éthique de l'IA garantira que le développement et le déploiement de l'intelligence artificielle sont éthiques, sûrs et les plus responsables.

Le nouveau monde numérique interconnecté alimenté par la technologie 5G offre un grand potentiel et des gains rapides en matière de puissance de l'intelligence artificielle pour une société meilleure. L'innovation et la mise en œuvre de l'IA ont déjà un impact sur l'amélioration des services de santé, d'éducation et de transport à la chaîne d'approvisionnement alimentaire, aux plans de gestion de l'énergie et de l'environnement, pour n'en citer que quelques-uns.

Avec les progrès rapides de la puissance de calcul et de l'accès à de vastes quantités de mégadonnées, les systèmes d'intelligence artificielle et d'apprentissage automatique continueront de s'améliorer et d'évoluer. Dans quelques années à peine, les systèmes d'IA pourront traiter et utiliser les données non seulement à une vitesse encore plus élevée, mais aussi avec plus de précision.

Comme toujours, le pouvoir s'accompagne d'une grande responsabilité. Malgré les avantages et les avantages que les technologies telles que l'intelligence artificielle apportent au monde, elles peuvent potentiellement causer des dommages irréparables aux humains et à la société si elles sont mal utilisées ou mal conçues. Le développement des systèmes d'IA doit toujours être responsable et développé vers une durabilité optimale pour le bien public.

L'éthique de l'intelligence artificielle et les dommages potentiels causés par les systèmes d'IA

L'éthique et la sécurité de l'IA doivent être une priorité dans la conception et la mise en œuvre des systèmes d'IA. L'éthique de l'IA émerge pour éviter les dommages individuels et sociétaux causés par la mauvaise utilisation, l'abus, la mauvaise conception ou les conséquences négatives involontaires des systèmes d'IA.

Selon le Dr David Leslie, responsable du thème de l'éthique au sein du programme de politique publique et chercheur en éthique à l'Institut Alan Turing de Londres, en Angleterre, les dommages potentiels causés par les systèmes d'IA sont les suivants:

  • Systèmes d'IA: biais et discrimination

Les concepteurs de systèmes d'IA choisissent les fonctionnalités, les métriques et les structures d'analyse des modèles qui permettent l'exploration de données. Ainsi, les technologies basées sur les données, telles que l'intelligence artificielle, peuvent potentiellement reproduire les idées préconçues et les préjugés de leur concepteur.

Les échantillons de données forment et testent des systèmes algorithmiques. Pourtant, ils peuvent souvent être insuffisamment représentatifs des populations dont ils tirent des inférences; ainsi, créant des possibilités de résultats biaisés et discriminatoires en raison d'une faille dès le départ lorsque le concepteur introduit les données dans les systèmes.

  • Systèmes d'IA: déni de l'autonomie individuelle, des recours et des droits

Dans le passé, les systèmes d'IA qui automatisent les fonctions cognitives étaient attribuables exclusivement à des agents humains responsables. Aujourd'hui, les systèmes d'IA prennent des décisions, des prédictions et des classifications qui affectent les citoyens.

Certaines situations peuvent survenir lorsque ces personnes sont incapables de tenir responsables les parties responsables des résultats. L'une des réponses les plus courantes des humains pour justifier des résultats négatifs est de blâmer le système d'IA, ajoutant qu'ils ne peuvent rien faire pour changer le résultat. Quelque chose qui n'est pas réel.

Une telle réponse est tout à fait ridicule puisque les systèmes d'IA sont conçus et programmés par un concepteur humain. Par conséquent, un être humain est celui qui peut corriger et changer un résultat qui n'est pas satisfaisant. Prenons comme exemple un cas de blessures, ou une conséquence négative d'un tel manque de responsabilité, qui peut nuire à l'autonomie et violer les droits des personnes concernées.

  • Systèmes d'IA: résultats non transparents, inexplicables ou injustifiables

Dans certains cas, les modèles d'apprentissage automatique peuvent générer leurs résultats en opérant sur des corrélations de grande dimension qui dépassent les capacités d'interprétation du raisonnement humain.

Ce sont des cas dans lesquels la justification des résultats produits par algorithme qui affectent directement les sujets de décision peut rester opaque pour ces sujets. Dans certains cas d'utilisation, ce manque d'explicabilité peut ne pas être une cause de trop de problèmes.

Cependant, dans les applications où les données traitées pourraient porter des traces de discrimination, de partialité, d'iniquité ou d'iniquité, le manque de clarté du modèle peut être profondément problématique.

  • Systèmes d'IA: invasions de la vie privée

Les systèmes d'IA menacent la vie privée de deux manières:

- Du fait de leurs processus de conception et de développement

- Du fait de leur déploiement

Les projets d'IA reposaient sur la structuration et le traitement des mégadonnées. Des quantités massives de données personnelles sont collectées, traitées et utilisées pour développer des technologies d'IA. Le plus souvent, les mégadonnées sont capturées et extraites sans obtenir le consentement approprié du propriétaire des données. Très souvent, une certaine utilisation des mégadonnées révèle - ou des lieux à risque - des informations personnelles, compromettant la vie privée de l'individu.

Le déploiement de systèmes d'IA peut cibler, profiler ou pousser les sujets propriétaires de données à leur insu ou sans leur consentement. Cela signifie que de tels systèmes d'IA empiètent sur la capacité des individus à mener une vie privée. L'atteinte à la vie privée peut par conséquent nuire au droit de poursuivre des objectifs ou des projets de vie sans influence non choisie.

  • Systèmes d'IA: isolement et désintégration du lien social

La capacité des systèmes d'IA à organiser des expériences individuelles et à personnaliser les services numériques a le potentiel d'améliorer la vie des consommateurs et la prestation de services. Ceci, qui est un avantage s'il est bien fait, mais qui comporte des risques potentiels.

Ces risques peuvent ne pas être visibles ou apparaître comme des risques au départ. Cependant, une automatisation excessive peut potentiellement conduire à la réduction de l'interaction interhumaine, et avec elle, la résolution de situations problématiques au niveau individuel ne pourrait plus être possible.

L'hyperpersonnalisation activée par les algorithmes peut améliorer la satisfaction des clients, mais limite notre exposition à des visions du monde différentes de la nôtre, ce qui peut polariser les relations sociales.

Depuis l'époque du philosophe grec Platon, des sociétés bien ordonnées et cohésives se sont construites sur des relations de confiance humaine, d'empathie et de compréhension mutuelle. À mesure que les technologies d'intelligence artificielle deviennent de plus en plus répandues, il est primordial que ces relations de confiance humaine, d'empathie ou de compréhension mutuelle restent intactes.

  • Systèmes d'IA: résultats peu fiables, dangereux ou de mauvaise qualité

La mise en œuvre et la distribution de systèmes d'IA qui produisent des résultats peu fiables, dangereux ou de mauvaise qualité peuvent être le résultat d'une gestion irresponsable des données, de processus de production de conception négligents ou de pratiques de déploiement douteuses. Par conséquent, cela peut conduire directement à nuire au bien-être des individus et au bien-être public.

De tels résultats peuvent également miner la confiance du public dans l'utilisation responsable des technologies d'IA socialement bénéfiques. En outre, ils peuvent créer des inefficacités nuisibles en consacrant des ressources limitées à des technologies d'IA inefficaces, voire néfastes.

Éthique appliquée de l'intelligence artificielle

Dans son guide,Comprendre l'éthique et la sécurité de l'intelligence artificielle: un guide pour la conception et la mise en œuvre responsables des systèmes d'IA dans le secteur public, soutenu exclusivement par le programme de politique publique de l'Institut Alan Turing, le Dr David Leslie écrit:

Lorsque les humains font des choses qui nécessitent de l'intelligence, nous les tenons responsables de l'exactitude, de la fiabilité et du bien-fondé de leurs jugements. De plus, nous exigeons d'eux que leurs actions et décisions soient appuyées par de bonnes raisons, et nous les tenons responsables de leur justice, de leur équité et du caractère raisonnable de la façon dont ils traitent les autres.

Selon Marvin Minsky, qui était un scientifique cognitif américain, co-fondateur du laboratoire d'intelligence artificielle du Massachusetts Institute of Technology et qui était un pionnier de l'IA, l'intelligence artificielle est la science qui permet aux ordinateurs de faire des choses qui nécessitent de l'intelligence lorsqu'elles sont effectuées par des humains.

C'est cette définition standard qui nous donne une idée de la motivation qui a conduit au développement du domaine de l'éthique appliquée de l'intelligence artificielle.

Selon le Dr David Leslie, la nécessité de développer des principes adaptés à la conception et à l'utilisation des systèmes d'IA est que leur émergence et leur pouvoir croissant de faire des choses qui nécessitent de l'intelligence ont annoncé un changement d'un large éventail de fonctions cognitives vers des processus algorithmiques, qui eux-mêmes ne peuvent être tenus ni directement responsables ni immédiatement responsables des conséquences de leur comportement.

Les mécanismes basés sur des programmes, tels que les systèmes d'IA, ne peuvent pas être considérés comme des agents moralement responsables. Cette réalité a donné lieu à la création d'une discipline qui pourrait faire face à la brèche éthique dans le domaine de la science appliquée de l'intelligence artificielle.

C'est précisément ce que les cadres de l'éthique de l'IA tentent désormais de remplir. L'équité, la responsabilité, la durabilité et la transparence sont des principes destinés à combler le fossé entre la nouvelle agence intelligente de machines et leur manque fondamental de responsabilité morale.

D'un autre côté, lorsque les humains font des choses qui nécessitent de l'intelligence, ils sont tenus pour responsables. En d'autres termes, au niveau actuel dans lequel l'intelligence artificielle opère, les humains sont les seuls responsables de leurs créations basées sur des programmes.

La mise en œuvre et la conception des systèmes d'intelligence artificielle doivent être tenues pour responsables. Peut-être qu'à l'avenir, l'IA générale pourrait devenir des agents moraux avec une responsabilité morale attribuée.

Cependant, pour l'instant, les ingénieurs et les concepteurs de systèmes d'IA doivent assumer la responsabilité et être tenus responsables de ce qu'ils créent, conçoivent et programment.


Voir la vidéo: Lintelligence artificielle au service des entreprises (Septembre 2021).