En wywiadzie niedawno Mustafá Suleyman, współzałożyciel Google DeepMind, ujawnił swoją strategię mającą na celu zapobieżenie zagrożeniu ze strony sztucznej inteligencji (SI) dla ludzkości. Jego plan, który uważa za prosty, ale skuteczny, polega na unikaniu rekurencyjnego samodoskonalenia SI.

Rekurencyjne samodoskonalenie to zdolność SI do samodzielnego uczenia się i poprawiania siebie, przewyższając wiedzę człowieka. Chociaż może to umożliwić SI eksponencjalne postępy, może również doprowadzić do samoświadomości i potencjalnego zagrożenia dla istot ludzkich.

Pomysł Suleymana polega na ustaleniu jasnych granic, które nie pozwolą SI przekroczyć określonych ograniczeń i zapewnią jej bezpieczny rozwój. Obejmuje to tworzenie regulacji i zabezpieczeń w ramach rozwoju SI, nawet poprzez ograniczenie korzystania z danych osobowych w celu przyspieszenia procesu.

Warto zauważyć, że Suleyman pracuje również w innych firmach zajmujących się rozwojem SI, takich jak Inflection AI, gdzie SI o nazwie Pi pomaga osobom z problemami emocjonalnymi. Jego doświadczenie w tej dziedzinie skłoniło go do uznania znaczenia wyznaczania jasnych granic w prawodawstwie i zapobieżenia ewentualnemu chaosowi.

Wiele rządów i organizacji pracuje nad ustanowieniem regulacji umożliwiających bezpieczny rozwój SI. Niektórzy eksperci nawet wzywają do czasowego wstrzymania rozwoju tej technologii w celu ustalenia jasnych granic i uniknięcia potencjalnych zagrożeń.

Podsumowując, unikanie rekurencyjnego samodoskonalenia SI jest kluczem do zapewnienia jej bezpiecznego rozwoju i uniknięcia zagrożeń dla ludzkości. Istotne znaczenie w tym zakresie ma wdrożenie konkretnych regulacji i jasnych ograniczeń.

Źródła:
– MIT Technology Review