Lors d’une récente interview, Mustafá Suleyman, cofondateur de Google DeepMind, a révélé sa stratégie pour éviter que l’IA ne représente un danger pour l’humanité. Son plan, qu’il considère simple mais efficace, repose sur la prévention de l’auto-amélioration récursive de l’IA.

L’auto-amélioration récursive est la capacité de l’IA à apprendre et à s’améliorer par elle-même, dépassant ainsi les connaissances humaines. Bien que cela puisse permettre à l’IA de progresser de manière exponentielle, cela pourrait également conduire à la prise de conscience de soi et à une éventuelle menace pour les êtres humains.

L’idée de Suleyman est d’établir des limites claires qui empêchent l’IA de franchir certains seuils et de garantir son développement en toute sécurité. Cela implique la mise en place de réglementations et de sauvegardes dans le développement de l’IA, y compris en limitant l’utilisation de données personnelles pour accélérer le processus.

Il est important de souligner que Suleyman travaille également dans d’autres entreprises de développement de l’IA, telles que Inflection AI, où une IA appelée Pi aide les personnes ayant des problèmes émotionnels. Son expérience dans ce domaine l’a amené à reconnaître l’importance d’établir des limites claires dans la législation et d’empêcher la situation de dégénérer.

Plusieurs gouvernements et organisations travaillent à l’établissement de réglementations permettant le développement sûr de l’IA. Certains experts ont même appelé à une pause dans le développement de cette technologie afin d’établir des limites claires et d’éviter les risques potentiels.

En résumé, éviter l’auto-amélioration récursive de l’IA est essentiel pour garantir son développement en toute sécurité et éviter les menaces contre l’humanité. La mise en place de réglementations et de limites claires est fondamentale dans ce sens.

Sources:
– MIT Technology Review