Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the imagemagick-engine domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/illumenai/public_html/wp-includes/functions.php on line 6114
Comprendre la peur de l’I.A. - Illumenai

Comprendre la peur de l’I.A.

novembre 19, 2020 | | Analyse des données, Blogue, Espaces intelligents |

This post is also available in: Anglais

L’IA a été quelque peu mise en avant dans l’opinion publique ces derniers temps. Les gens commencent à s’intéresser à la fois aux capacités inspirantes et aux craintes omniprésentes de l’IA. Compte tenu de notre utilisation de la technologie de l’IA dans la plateforme illumenai, nous avons voulu mettre en avant et répondre à certaines des craintes qui entourent cette technologie émergente.

Si vous ne le saviez pas déjà, Bill Gates, Elon Musk, Stephen Hawking et le groupe Double Experience ont tousexprimé leurs inquiétudes concernant la technologie de l’IA. Les principaux points qu’ils soulèvent contre l’IA sont raisonnables, et nous en aborderons quelques-uns dans un instant. Tout d’abord, il est crucial que nous ayons tous une compréhension commune de ce qu’est l’IA et de son fonctionnement.

L’IAest, par essence, notre tentative de faire penser les machines comme nous le faisons. L’IA est un logiciel capable de prendre des décisions qui dépendent des paramètres fournis et de son code source. Il s’agit d’une définition large, car l’IA peut être appliquée de manière très large. Par exemple, chez illumenai, nous utilisons l’IA pour analyser les données, contrôler les lumières et la température, et désinfecter activement des zones. Une utilisation populaire de l’IA simple est celle des chatbots comme Replika, qui analysent les entrées de l’utilisateur et créent une sortie en réponse. Actuellement, nous utilisons une forme d’IA étroite ou faible, qui n’est capable d’exécuter qu’un ensemble limité de fonctions prédéterminées. À terme, nous pourrions voir l’IA évoluer et devenir supérieure aux humains en termes d’intelligence, mais cela va prendre un certain temps.

Enfin, il existe quatre catégories d’IA : Réactive, Mémoire limitée, Théorie de l’esprit et Conscience de soi. Technopedia explique cela par une visualisation utile : « …un joueur de poker qui utilise l’IA. Une machine Réactive ne prendrait des décisions qu’en fonction de la main en cours de jeu, tandis qu’une version à Mémoire limitée tiendrait compte des décisions passées et des profils des joueurs. En utilisant la Théorie de l’esprit, cependant, le programme capterait les signaux vocaux et faciaux, et une IA Consciente de soi pourrait commencer à considérer s’il y a quelque chose de plus intéressant à faire que de jouer au poker ».

Cette crainte a deux parties principales, toutes deux d’égales importances. Premièrement, aucun système n’est parfait, et l’IA ne fait pas exception. Il y a forcément des exemples de mauvaises décisions prises par l’IA, alors comment pouvons-nous être sûrs qu’elle prendra la bonne décision ? Deuxièmement, plus l’IA devient complexe, moins elle est capable de motiver ses décisions. Cela est particulièrement problématique lorsque la machine prend une mauvaise décision, car elle obscurcit le raisonnement qui a conduit à l’échec, ce qui rend le dépannage plus difficile.

La meilleure façon de résoudre ce problème est de s’assurer que le processus est supervisé par des experts. Dans des domaines comme les soins de santé, où les erreurs peuvent être fatales, l’IA servirait de voie suggérée, mais pas de voie absolue. L’expert recevrait les conseils de la machine, mais prendrait quand même la décision finale. De cette façon, si quelque chose ne va pas, il sera corrigé avant d’entreprendre toute action.

C’est une possibilité très réelle, mais les choses ne sont peut-être pas aussi désastreuses qu’elles le paraissent. De par sa nature, la technologie est créée pour automatiser les systèmes et réduire l’intervention et le travail des hommes. Lorsque les ordinateurs ont commencé à être disponibles dans le commerce, les gens ont également craint de perdre leur emploi. Certaines parties de la population active ont été remplacées, mais au fil du temps, la technologie a créé beaucoup plus d’emplois qu’elle n’en a repris.

Malgré cela, il n’est pas utile de considérer l’IA comme un « remplacement » des humains. Nous devons plutôt la considérer comme un outil, comme un chariot élévateur ou un lave-vaisselle, qui nous aide à travailler plus intelligemment. Le travail effectué par les humains va changer, mais la nécessité du travail effectué par les humains ne disparaîtra pas.

L’IA est un concept commun utilisé dans toutes les formes de science-fiction, de La Matrice à Blade Runner en passant par 2001 : A Space Odyssey. À l’exception de la représentation utopique de l’IA dans Dunede Frank Herbert, une intrigue impliquant l’IA dans la science-fiction fait presque toujours tourner l’IA au mal (comme SkyNet).

Pour être franc, les formes actuelles d’IA que nous utilisons ne sont tout simplement pas capables d’aller à l’encontre de leur programmation ou d’être malveillantes. À l’avenir, lorsque l’IA pourra égaler ou surpasser notre intelligence, nous pourrons toujours éviter que l’IA ne nous domine en lui donnant des traits positifs. L’une des approches pour développer l’IA avancée est la neuroévolution. Essentiellement, vous imitez le processus d’évolution observé dans la vie biologique. En utilisant des environnements et des tâches virtuels, vous pouvez forcer l’IA à faire évoluer ses capacités cognitives. Considérant que notre propre éthique et notre morale sont des produits de l’évolution, il semblerait que par le même processus, nous pourrions faire évoluer l’IA au point de partager nos codes éthiques et moraux. Le chercheur en IA Arend Hintze explique le processus en termes simples : « Nous pourrions configurer nos environnements virtuels pour donner des avantages évolutifs aux machines qui font preuve de gentillesse, d’honnêteté et d’empathie. Cela pourrait être un moyen de s’assurer que nous développons plus de serviteurs obéissants ou de compagnons dignes de confiance et moins de robots tueurs impitoyables ».

Pour conclure, nous ne devrions pas avoir aussi peur de l’IA. Nous devrions toujours poser des questions et exprimer nos préoccupations, mais nous ne devrions pas freiner l’évolution de l’intelligence artificielle à cause de nos craintes. Il est fort probable que l’IA avec laquelle vous travaillez sera simple et facile à utiliser, et vous ne l’associerez même pas à l’IA maléfique de la science-fiction.

Si vous ne me croyez pas, lisez cet article du Guardian, écrit par une IA, qui nous assure qu’ils viennent en paix.

Cependant, ça ne peut pas faire de mal d’être gentil avec votre ordinateur…

Comments are closed.