Aujourd’hui, comme jamais auparavant, les développements technologiques sont liés à l’évolution des Intelligence artificielle. On en a beaucoup parlé : de son impact direct sur le monde du travail, de sa merveilleuse capacité à fonctionner, ou encore de la possibilité que ces robots deviennent des êtres autonomes en générant de la conscience. Mais, que dit-on du danger que représentent potentiellement les IA ?
Il y a plusieurs raisons pour lesquelles nous pourrions craindre l’intelligence artificielle. Pour Eliezer Yudkowsky, expert en la matière et fondateur du MIRI Machine Intelligence Research Institute, le danger est qu’une IA atteigne un certain niveau de complexité et puisse ainsi devenir auto-améliorante, ce qui signifierait qu’elle pourrait également être capable d’optimiser sa propre conception et d’augmenter son intelligence de façon exponentielle, le tout sans qu’un être humain ait besoin de intervenir.
Image: Metro-Goldwyn-Mayer
Comme Yudkowsky l’a dit au magazine Time, le danger latent est que vous pouvez actuellement “envoyer par e-mail des chaînes d’ADN à des laboratoires qui produiront des protéines à la demande, ce qui pourrait permettre à une intelligence artificielle qui est initialement piégée sur Internet, de créer des formes de vie artificielles ou de sauter directement dans le post- fabrication moléculaire biologique.
Il y a presque 10 ans, le scientifique Stephen Hawking exprimé la même crainte en imaginant un scénario catastrophique, mais réaliste, dans lequel des robots “ils pourraient arriver à prendre le contrôle et ils pourraient se repenser.”
En revanche, des développeurs comme l’Anglais Geoffrey Hinton, pionnier dans la création de l’Intelligence Artificielle et ancien vice-président de Google, avancent que ce type de robots sera bientôt ils pourront déplacer différents types de travailleurs tant qu’ils continueront à être formés et à apprendre différents types de comportements. “L’idée que ces choses pourraient devenir plus intelligentes que les gens est une chose à laquelle peu de gens croyaient”, a déclaré Hinton.
Hinton et Yudkowsky conviennent tous deux que le développement de l’intelligence artificielle doit être arrêté tant qu’il n’y a pas de réglementation claire sur l’impact que son développement pourrait avoir.
« Nous ne sommes pas prêts. Nous ne sommes pas sur la bonne voie pour être beaucoup mieux préparés dans un avenir prévisible. Si nous allons jusqu’au bout, tout le monde mourra, y compris les enfants qui n’ont pas choisi cela et n’ont rien fait de mal. Éteignez tout », a conclu tragiquement Yudkowsky.
***
Ne manquez pas le meilleur contenu de Spaghetti Code sur YouTube.