Тема безпеки розробок штучного інтелекту турбує Елона Маска, Стівена Хокінга та інших відомих особистостей, який заявляють про потенційну загрозу людству з боку машин.
Щоб уникнути потенційної небезпеки, дослідницька компанія Google DeepMind об’єдналася з вченими Оксфордського університету для розробки системи аварійного відключення ШІ, повідомляє Business Insider з посиланням на роботу, яка опублікована на сайті Інституту вивчення машинного інтелекту (MIRI).
«Якщо такий агент [штучний інтелект] працює в реальному часі під наглядом людини, зараз і надалі у оператора може виникнути необхідність натиснути на велику червону кнопку, щоб запобігти виконанню агентом небезпечних для нього або оточення дій», – йдеться в роботі вчених.
Дослідники стверджують, що їм вдалося розробити «фреймворк», який дозволяє оператору багаторазово і безпечно переривати роботу ШІ. У той же час мета роботи вчених – також упевнитися, що ШІ не зможе знайти способів обійти і запобігти власному аварійному відключенню.
Метою компанії DeepMind, купленої Google в 2014 році за суму близько $580 млн, є створення сильного штучного інтелекту (здатного виконувати будь-які завдання, з якими справляється людина).
Однією з умов покупки компанії корпорацією було створення ради з етики штучного інтелекту, так як його створення може потенційно нести небезпеку для людства.
Дослідженням саме таких небезпек і займається Інститут вивчення машинного інтелекту. Його очолює відомий фахівець в області ШІ філософ Нік Бострем, який стверджує, що машини перевершать людину в найближчі 100 років.