Более тысячи экспертов, в том числе Возняк и Маск, призвали приостановить обучение ИИ более мощному, чем GPT-4.
Зарегистрировано более тысячи человек, включая учителей и разработчиков ИИ. Открой письмо, адресованное всем лабораториям, занимающимся разработкой искусственного интеллекта. В сообщении, опубликованном некоммерческой организацией Future of Life, эксперты призывают к немедленной приостановке разработки и обучения ИИ более мощного, чем GPT-4, как минимум на шесть месяцев.
Письмо подписали несколько известных людей, занимающихся разработкой и технологиями ИИ, в том числе: соучредитель OpenAI Илон Маск, математик, кибернетик и ученый-компьютерщик, наиболее известный своими работами в области искусственного интеллекта, а также Мила. основатель Джошуа Бенджио, соучредитель Apple Стив Возняк, глава Stability AI Эмад Мострак, пионер исследований ИИ Стюарт Рассел и основатель Geometric Intelligence Гэри Маркус.
В открытом письме упоминаются потенциальные риски для общества и человечества, возникающие в результате быстрого развития передовых систем искусственного интеллекта при отсутствии общих протоколов безопасности. Подписанты считают, что потенциальные риски этой «революции» необходимо оценивать и устранять через интегрированную систему управления, при этом положительный эффект от этих технологий не гарантирован.
«Усовершенствованный ИИ может внести существенные изменения в историю жизни на Земле, и его необходимо планировать и управлять им с осторожностью и с соответствующими ресурсами», — говорится в сообщении. «К сожалению, такого планирования и управления нет, несмотря на то, что в последние месяцы лаборатории искусственного интеллекта вовлечены в неконтролируемую гонку по разработке и внедрению все более мощного цифрового интеллекта, который никто (включая его создателей) не может понять, предсказать или заслуживающий доверия. контроль.”
В письме также предупреждается, что современные системы ИИ уже напрямую конкурируют с людьми при выполнении общих задач, что поднимает ряд экзистенциальных и этических вопросов, которые человечеству еще предстоит рассмотреть, обсудить и решить.
Некоторые из этих вопросов касаются потока информации, генерируемого ИИ, неконтролируемой автоматизации рабочих мест, разработки систем, которые превосходят людей и могут сделать людей «устаревшими», и контроля над цивилизацией в целом.
Эксперты считают, что мы подошли к тому моменту, когда обучать более совершенные системы ИИ следует только под пристальным наблюдением и только с уверенностью в том, что риски, связанные с их внедрением, управляемы.
«Поэтому мы призываем все лаборатории искусственного интеллекта немедленно приостановить обучение систем искусственного интеллекта, более мощных, чем ГПТ-4, не менее чем на шесть месяцев», — говорится в письме. «Этот перерыв должен быть публичным и поддающимся проверке, и в нем должны участвовать все ключевые игроки. Если такой перерыв не может быть сделан быстро, правительства должны вмешаться и ввести мораторий».
Во время этого перерыва разработчикам ИИ предлагается встретиться и договориться о создании единых протоколов безопасности, которые можно использовать для проверок, проводимых внешними независимыми экспертами.
Кроме того, подписавшиеся считают, что политики должны принимать защитные меры и регулировать эту сферу. В частности, предлагается создать систему «водяных знаков», позволяющую эффективно отличать подлинный контент от подделки, проработать возможность возложения ответственности за ущерб, причиненный материалами, созданными ИИ, и выделить общественное финансирование для изучения рисков. связанные с ИИ.
В письме нет призывов полностью остановить разработку ИИ. Наоборот, он подчеркивает потенциальные опасности, связанные с растущей конкуренцией среди разработчиков ИИ, пытающихся занять нишу на быстрорастущем рынке.
«С ИИ человечество может наслаждаться прекрасным будущим. Добившись успеха в создании мощных систем ИИ, мы сможем насладиться «пиком ИИ» и пожинать плоды, разрабатывая эти системы для величайших и давая обществу возможность адаптироваться. Общество приостановил разработку других технологий с потенциально катастрофическими последствиями. Мы можем сделать то же самое и здесь», — заключают эксперты.