En una entrevista reciente, Mustafá Suleyman, co-fundador de Google DeepMind, reveló su estrategia para evitar que la IA represente un peligro para la humanidad. Su plan, que él considera simple pero efectivo, se basa en evitar la automejora recursiva de la IA.
La automejora recursiva es la capacidad de la IA para aprender y mejorar por sí misma, superando el conocimiento humano. Aunque esto podría permitir que la IA avance de manera exponencial, también podría llevar a la autoconciencia y a una posible amenaza contra los seres humanos.
La idea de Suleyman es establecer límites claros que eviten que la IA traspase ciertos límites y garantizar que se desarrolle de manera segura. Esto implica establecer regulaciones y salvaguardias en el desarrollo de la IA, incluso limitando el uso de datos personales para acelerar el proceso.
Es importante destacar que Suleyman también trabaja en otras empresas de desarrollo de IA, como Inflection AI, donde una IA llamada Pi ayuda a personas con problemas emocionales. Su experiencia en el campo lo ha llevado a reconocer la importancia de establecer límites claros en la legislación y evitar que la situación se descontrole.
Varios gobiernos y organizaciones están trabajando en establecer regulaciones que permitan el desarrollo seguro de la IA. Algunos expertos incluso han pedido una pausa en el desarrollo de esta tecnología para establecer límites claros y evitar posibles riesgos.
En resumen, evitar la automejora recursiva de la IA es clave para garantizar su desarrollo seguro y evitar amenazas contra la humanidad. La implementación de regulaciones y límites claros es fundamental en este sentido.
Fuentes:
– MIT Technology Review