В письме авторы призывают все лаборатории изучающие и разрабатывающие искусственный интеллект, а также независимых экспертов незамедлительно остановить обучение систем искусственного интеллекта, которые мощнее GPT-4 от компании OpenAI, как минимум на полгода. Если,подобную остановку работы невозможно осуществить в кратчайшие сроки,то в ситуацию должны вмешаться правительственные структуры и ввести мораторий.
Это не свидетельствует об остановке развития искусственного интеллекта в целом, а лишь шаг назад от опасной гонки к неопределимым моделям с чрезвычайными возможностями. Они также отмечают, что лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу, чтобы совместно разработать и внедрить общие протоколы безопасности для улучшения проектирования и разработки искусственного интеллекта.
Подписанты утверждают, что за последние месяцы лаборатории искусственного интеллекта потеряли контроль над разработкой и развертыванием все более мощных цифровых умов, которых никто, даже их создатели, не может понять, прогнозировать или надежно контролировать.
Авторы письма задают вопросы: должны ли мы доверять машинам, чтобы они заполняли наши информационные каналы пропагандой и ложью? Стоит ли автоматизировать всю работу, включая ту, которая доставляет удовольствие?
Рекомендация авторов письма - быть осторожными с автоматизацией работы и использования искусственного интеллекта. Вопрос заключается в том, следует ли автоматизировать всю работу, включая ту, которая приносит удовольствие. Кроме того, авторы задают вопрос о том, нужно ли развивать нечеловеческие умы, которые могут в конечном итоге заменить нас. Также вызывает беспокойство момент потери контроля над нашей цивилизацией, если мы допустим, что искусственный интеллект может стать слишком мощным. В их мнении, мощные системы искусственного интеллекта следует создавать только тогда, когда мы уверены, что они не представляют рисков и способны принести только пользу.