Бутерин предлагает «мягкую паузу» в отношении ИИ

Бутерин предлагает приостановить работу над ИИ ради безопасности

Виталик Бутерин, соучредитель Ethereum, заявил, что временная приостановка глобально доступных вычислительных ресурсов может стать способом «выиграть больше времени для человечества» перед лицом потенциально опасной формы сверхразума ИИ.

В сообщении в блоге от 5 января, последовавшем за его постом от ноября 2023 года, в котором он отстаивал идею защитного акселерационизма (d/acc), Бутерин сказал, что сверхразумный ИИ может появиться всего через пять лет, и пока неизвестно, будет ли результат положительным.

Бутерин заявил, что «мягкая пауза» в области промышленного компьютерного оборудования может стать вариантом замедления разработки ИИ, если это произойдет, сократив доступную глобальную вычислительную мощность на 99% на один-два года, чтобы выиграть больше времени для подготовки человечества.

Сверхинтеллект ИИ — это теоретическая модель ИИ, которая обычно определяется как нечто гораздо более разумное, чем самые выдающиеся люди во всех областях знаний.

Многие руководители и исследователи в сфере технологий выразили обеспокоенность по поводу ИИ. Более 2600 человек в открытом письме от марта 2023 года призвали остановить разработку ИИ из-за серьезных рисков для общества и человечества.

Бутерин отметил, что его пост, посвященный d/acc, содержал лишь расплывчатые призывы не создавать рискованные формы сверхинтеллекта, и он хотел поделиться своими мыслями о том, как поступить в случае, где риск ИИ высок.

Тем не менее, Бутерин заявил, что будет настаивать на «мягкой паузе» в отношении оборудования только в том случае, если он будет убежден, что нам нужно что-то более «мускулистое», чем правила ответственности, что будет означать, что те, кто использует, внедряет или разрабатывает ИИ, могут быть привлечены к ответственности за ущерб, причиненный этой моделью.

Он отметил, что предложения по аппаратной паузе включают поиск местонахождения чипов ИИ и требование их регистрации. Бутерин предложил, чтобы аппаратное обеспечение ИИ промышленного масштаба могло быть оснащено чипом, который позволит ему продолжать работу только в том случае, если оно будет получать три подписи от основных международных органов раз в неделю.

«Подписи будут независимы от устройств (при желании мы могли бы даже потребовать доказательства с нулевым разглашением того, что они были опубликованы в блокчейне), поэтому это будет все или ничего», — написал Бутерин. «Не будет никакого практического способа разрешить одному устройству продолжать работу без разрешения всех остальных устройств».

Идея d/acc, поддерживаемая Бутериным, пропагандирует осторожный подход к разработке технологий, в отличие от эффективного акселерационизма, или e/acc, который настаивает на неограниченных и необузданных технологических изменениях.

Читайте также: