In un’intervista recente, Mustafá Suleyman, co-fondatore di Google DeepMind, ha rivelato la sua strategia per evitare che l’IA rappresenti una minaccia per l’umanità. Il suo piano, che considera semplice ma efficace, si basa sull’evitare l’autorafforzamento ricorsivo dell’IA.

L’autorafforzamento ricorsivo è la capacità dell’IA di imparare e migliorare da sola, superando la conoscenza umana. Sebbene questo potrebbe consentire all’IA di progredire in modo esponenziale, potrebbe anche portare all’autocoscienza e rappresentare una possibile minaccia per gli esseri umani.

L’idea di Suleyman è stabilire limiti chiari che impediscano all’IA di superare determinati confini e garantire che si sviluppi in modo sicuro. Ciò implica l’istituzione di regolamentazioni e salvaguardie nello sviluppo dell’IA, inclusa la limitazione dell’uso dei dati personali per accelerare il processo.

È importante sottolineare che Suleyman lavora anche in altre aziende che si occupano dello sviluppo dell’IA, come Inflection AI, dove un’IA chiamata Pi aiuta le persone con problemi emotivi. La sua esperienza in questo campo lo ha portato a riconoscere l’importanza di stabilire limiti chiari nella legislazione e di evitare che la situazione sfugga di mano.

Diversi governi e organizzazioni stanno lavorando per stabilire regolamentazioni che consentano uno sviluppo sicuro dell’IA. Alcuni esperti hanno addirittura chiesto una pausa nello sviluppo di questa tecnologia per stabilire limiti chiari ed evitare possibili rischi.

In conclusione, evitare l’autorafforzamento ricorsivo dell’IA è fondamentale per garantire uno sviluppo sicuro e prevenire minacce all’umanità. L’implementazione di regolamentazioni e limiti chiari è fondamentale in tal senso.

Fonti:
– MIT Technology Review