Le début de la singularité

En 3 lignes:

La singularité représente le fait que les découvertes technologiques se font de manière exponentielles au fil du temps, il risque d’arriver un moment où le nombre de nouvelles découvertes par unité de temps sera très important. Que se passera t’il alors?

En 30 lignes:

Wikipedia dit: « La singularité technologique (ou simplement la singularité) est l’hypothèse que l’invention de l’intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles sur la société humaine. Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles, ou « supraintelligence » qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement, créant une « explosion d’intelligence » créant finalement une puissante superintelligence qui dépasserait qualitativement de loin l’intelligence humaine. Le risque en serait la perte du pouvoir politique humain sur son destin. »

Les changements imprévisibles issues de la technologie des IA

Je crois que l’on ne peut pas parfaitement prévoir ce qui se passera. En effet les inventions qui ont été crées ces 15 dernières années, quasiment personne ne les a prévu. De la même manière que ces inventions n’ont pas été prévus, les inventions des 15 années à suivre ne peuvent être parfaitement prévue.

Ce qu’on peut deviner c’est que peut être certaines de ces inventions donneront un pouvoir important aux personnes les contrôlant. Si l’on garde le contrôle.

Mieux comprendre le monde → mieux le contrôler.

Lorsqu’on comprend mieux le monde, on peut mieux le contrôler. Ce seront ainsi les personnes les plus aptes à comprendre le monde qui auront certainement le pouvoir. Également les personnes ne s’interdisant rien, ayant une faible morale auront peut être un avantage sur les autres dans certains domaines. Et cela m’inquiète.

Si les IA ne sont pas autonomes, ou qu’on réussisse à les programmer pour qu’elles nous obéissent à jamais, il n’y a pas de danger qu’elles prennent le dessus sur nous.

Cependant comme je le citais sur l’article les intelligences artificielles et leurs dangers, il est délicats de comprendre comment elles fonctionnent, et même si le risque de devenir autonomes parait faible actuellement, il se peut cependant qu’elles fassent déjà des choses immorales dans la limites de leur champ d’action que le programmeur et l’entreprise, l’état leur a donné. Voir cet autre article sur la difficulté de garder les IA sous contrôle.

Le risque est que soit elles utilisent ces connaissances et cette intelligence, ce pouvoir en un mot, pour elle même se propager, soit qu’elles l’utilisent pour le bien du programmeur de l’entreprise ou de l’état qui l’a programmé, ce qui n’est pas forcément dans l’intérêt général.

Pour que les intelligences artificielles représentent un danger (qu’elles soient autonomes ou qu’elles restent dirigées par des humais), il me parait logique que ces IA devraient comprendre quelque chose de plus sur le monde par rapport à nous.

Je vois plusieurs voies pour acquérir une forme de pouvoir:

  • Il faut qu’il existe une autre physique (je pense à d’autres particules élémentaires éventuellement ), ou que l’on arrive à trouver des phénomènes ou à expliquer des phénomènes physiques que l’on n’arrivait pas à expliquer et à simuler auparavant.
  • La compréhension de la psychologies des personnes pourraient les amener à nous manipuler plus facilement par exemple pour qu’on achète un produit, qu’on clique sur une bannière etc..
  • Enfin je pense à la possibilité de trouver les failles de sécurités dans les logiciels ce qui donnerait un pouvoir de piratage important à ceux qui découvriraient cette technologie.

Le soucis en fait avec la singularité c’est la possibilité de peut être pouvoir créer quelque chose de très puissant (un peu à la manière de l’invention de la bombe atomique qui a changé les équilibres), en effet si l’on crée beaucoup d’inventions en très peu de temps et il probable que l’une d’elles soit très dangereuse, mais ça n’est pas sûr non plus.

 

Que fera t’on lorsque l’on sera super puissant?

Ce contenu a été publié dans Articles, Intelligences artificielles, Société, avec comme mot(s)-clé(s) . Vous pouvez le mettre en favoris avec ce permalien.

Laisser un commentaire