Les Dangers de l’Intelligence Artificielle ?

Devrions-nous avoir peur de l’intelligence artificielle?

Certains personnages notables, tels que le légendaire physicien Stephen Hawking and Tesla et le leader et innovateur de SpaceX Elon Musk, suggèrent que l’IA pourrait être potentiellement très dangereuse. À un moment donné, Musk comparait l’IA aux dangers du dictateur de la Corée du Nord. Le cofondateur de Microsoft, Bill Gates, estime également qu’il y a lieu d’être prudent pour le futur, mais que le bien peut l’emporter sur le mal s’il est géré correctement. Les récents développements ayant rendu les machines ultra-intelligentes possibles beaucoup plus tôt que prévu, le moment est venu de déterminer les dangers de l’intelligence artificielle.

Les Dangers de l'Intelligence Artificielle

Qu’est-ce que l’intelligence artificielle appliquée et générale?

L’ intelligence artificielle consiste essentiellement à construire des machines capables de penser et d’agir intelligemment. Elle comprend des outils tels que les algorithmes de recherche de Google ou les machines qui permettent aux voitures autonomes. Bien que la plupart des applications actuelles aient un impact positif sur l’humanité, tout outil puissant peut être utilisé à des fins préjudiciables lorsqu’il tombe entre de mauvaises mains. Aujourd’hui, nous avons atteint l’IA appliquée – l’IA qui exécute une tâche étroite telle que la reconnaissance faciale, le traitement du langage naturel ou les recherches sur Internet. En fin de compte, les experts du domaine travaillent à l’intelligence générale artificielle , dans laquelle les systèmes peuvent s’acquitter de toutes les tâches que des êtres humains intelligents pourraient effectuer, et probablement nous battre à chacun d’eux.

Dans un commentaire, Elon Musk a écrit: “Le rythme des progrès de l’intelligence artificielle (je ne parle pas d’IA étroite) est incroyablement rapide. À moins que vous ne soyez directement exposé à des groupes comme Deepmind, vous n’avez aucune idée de la vitesse à laquelle elle croît. à un rythme presque exponentiel. Le risque que quelque chose de très dangereux se produise se situe dans un délai de cinq ans, au maximum de 10 ans. ”

Il existe en effet de nombreuses applications d’intelligence artificielle qui rendent notre vie quotidienne plus pratique et plus efficace. Ce sont les applications d’intelligence artificielle qui jouent un rôle critique pour la sécurité qui préoccupent Musk, Hawking et d’autres, lorsqu’elles ont proclamé leur hésitation face à la technologie. Par exemple, si AI est responsable du bon fonctionnement de notre réseau électrique et que nos pires craintes se concrétisent, et que le système se dégrade ou se fait pirater par un ennemi, cela pourrait entraîner des dommages considérables.

Comment l’intelligence artificielle peut-elle être dangereuse?

Bien que nous n’ayons pas encore mis au point de machines super intelligentes, les problèmes juridiques, politiques, sociaux, financiers et réglementaires sont si complexes et si vastes qu’il est nécessaire de les examiner maintenant pour que nous soyons prêts à opérer en toute sécurité entre eux. le moment vient. En dehors de la préparation d’un avenir avec des machines super intelligentes, l’intelligence artificielle peut déjà présenter des dangers sous sa forme actuelle. Jetons un coup d’œil à certains risques clés liés à l’IA.

Armes autonomes

L’IA programmée pour faire quelque chose de dangereux, comme c’est le cas des armes autonomes programmées pour tuer, est un moyen par lequel l’IA peut présenter des risques. On pourrait même s’attendre à ce que la course aux armes nucléaires soit remplacée par une course mondiale aux armes autonomes. Le président russe Vladimir Poutine a déclaré: « L’intelligence artificielle est l’avenir, non seulement pour la Russie, mais pour toute l’humanité. Cela crée d’énormes possibilités, mais aussi des menaces difficiles à prévoir. Quiconque deviendra le leader dans cette sphère deviendra le dirigeant du monde ».

En plus de craindre que les armes autonomes puissent gagner leur «esprit», les dangers que les armes autonomes pourraient avoir pour un individu ou un gouvernement qui ne valorise pas la vie humaine sont une préoccupation plus imminente. Une fois déployés, ils seront probablement difficiles à démanteler ou à combattre.

Manipulation sociale

Les médias sociaux, grâce à ses algorithmes autonomes, sont très efficaces pour le marketing ciblé. Ils savent qui nous sommes, ce que nous aimons et sont incroyablement doués pour supposer ce que nous pensons. Des enquêtes sont toujours en cours pour déterminer la faute de Cambridge Analytica et d’autres personnes associées à la société, qui ont utilisé les données de 50 millions d’utilisateurs de Facebook pour tenter d’influencer le résultat de l’élection présidentielle américaine de 2016 et du référendum britannique sur le Brexit, mais si les accusations sont correctes , il illustre le pouvoir d’Amnesty International en matière de manipulation sociale. En propageant la propagande auprès d’individus identifiés par des algorithmes et des données personnelles, AI peut les cibler et diffuser les informations qu’ils souhaitent, dans le format qui leur semblera le plus convaincant – réalité ou fiction.

Invasion de la vie privée et classification sociale

Il est désormais possible de suivre et d’analyser chaque mouvement d’un individu en ligne ainsi que ses activités quotidiennes. Les caméras sont presque partout et les algorithmes de reconnaissance faciale savent qui vous êtes. En fait, il s’agit du type d’information qui alimentera le système de crédit social chinois et qui devrait donner à chacun de ses 1,4 milliard de citoyens un score personnel basé sur leur comportement – des choses telles qu’ils jaywalk, fument-ils zones non-fumeurs et combien de temps ils passent à jouer à des jeux vidéo. Lorsque Big Brother vous surveille et prend des décisions en fonction de ces informations, il ne s’agit pas seulement d’une atteinte à la vie privée qui peut rapidement conduire à l’oppression sociale.

Mauvais alignement entre nos objectifs et ceux de la machine

Une partie de la valeur que les humains attachent aux machines à intelligence artificielle est leur efficacité. Toutefois, si les objectifs que nous nous sommes fixés pour les machines à intelligence artificielle ne sont pas clairs, il pourrait s’avérer dangereux si une machine ne dispose pas des mêmes objectifs que nous. Par exemple, une commande «Apportez-moi à l’aéroport le plus rapidement possible» pourrait avoir des conséquences désastreuses. Sans préciser que les règles de la route doivent être respectées car nous attachons de la valeur à la vie humaine, une machine peut très efficacement atteindre son objectif, qui est de vous rendre à l’aéroport le plus rapidement possible et de faire littéralement ce que vous demandez, tout en laissant derrière vous de nombreux accidents.

La discrimination

Étant donné que les machines peuvent collecter, suivre et analyser tellement de choses sur vous, il est très possible que ces machines utilisent ces informations contre vous. Il n’est pas difficile d’imaginer une compagnie d’assurance vous affirmer que vous n’êtes pas assurable, en fonction du nombre de fois où vous avez été pris en photo en train de parler au téléphone. Un employeur peut retenir une offre d’emploi basée sur votre «pointage de crédit social».

Toute technologie puissante peut être mal utilisée. Aujourd’hui, l’intelligence artificielle est utilisée pour de nombreuses bonnes causes, notamment pour nous aider à établir de meilleurs diagnostics médicaux, à trouver de nouveaux moyens de guérir le cancer et à rendre nos voitures plus sûres. Malheureusement, à mesure que nos capacités en matière d’intelligence artificielle s’élargiront, nous verrons également son utilisation à des fins dangereuses ou malveillantes. La technologie de l’IA progressant si rapidement, il est essentiel que nous commencions à débattre des meilleurs moyens pour que l’IA se développe de manière positive tout en minimisant son potentiel destructeur.