Время остановиться и подумать

Более 1 400 ученых и технических экспертов в области искусственного интеллекта, включая Илона Маска, генеральный директор Twitter и Tesla, Стива Возняка, соучредителя Apple и Эвана Шарпа, соучредителя Pinterest, подписали открытое письмо, призывающее разработчиков искусственного интеллекта приостановить обучение некоторым из их более сложных экспериментов с искусственным интеллектом, сославшись на риски, которые, по их утверждению, могут привести к «потере контроля над нашей цивилизацией».

Письмо, опубликованное 29 марта 2023 года Коалицией «Будущее Жизни» (Future of Life Coalition), призвано привлечь внимание к беспрецедентному развитию искусственного интеллекта (ИИ), к которому привлечено значительное внимание в последние месяцы благодаря чат-ботам, таким как ChatGPT, генераторам изображений, таким как Dalle-2 и Midjourney, и программному обеспечению для клонирования голоса. В письме высказывается предположение, что нынешняя гонка в развитии ИИ может оказаться безрассудной и не учитывать непредсказуемые последствия для общества, такие как распространение дезинформации, или бесконтрольное закрытие рабочих мест. В письме содержится просьба к разработчикам приостановить тестирование любой технологии, более мощной, чем недавно выпущенный ChatGPT-4, по крайней мере на 6 месяцев, а также создать более надежные протоколы безопасности, которые обеспечат «тщательный аудит и надзор за их разработками в области ИИ со стороны независимых внешних экспертов». Согласно журналу Fortune, мощность ИИ, как правило, коррелирует с размером модели и количеством специализированных компьютерных чипов, необходимых для ее обучения.

«Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества», — говорится в письме.

Илон Маск, открыто выражающий озабоченность по поводу неограниченной угрозы ИИ для человечества и был в 2015 году одним из первых соучредителей некоммерческой исследовательской лаборатории OpenAI, которая в середине марта выпустила GPT-4, отмечая, что ее чат-бот значительно умнее, чем предыдущие версии. Маск в 2018 году порвал с этой компанией и с тех пор критикует принятие компанией миллиардов долларов инвестиций от компании Майкрософт.

Текст обращения:

Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо

Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4.

Системы искусственного интеллекта, обладающие интеллектом, способным конкурировать с человеком, могут представлять серьезную опасность для общества и человечества, как показали обширные исследования и, как признано ведущими лабораториями искусственного интеллекта. Как указано во всеобще принятых на Асиломарской конференции Принципах искусственного интеллекта, продвинутый искусственный интеллект может представлять собой драматические изменение в истории жизни на Земле, и к его планированию и управлению следует подходить с соразмерной тщательностью и обладая всеми необходимыми ресурсами. К сожалению, такого уровня планирования и управления на данный момент не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели не могут понять, спрогнозировать или проконтролировать надлежащим образом.

Современные системы искусственного интеллекта в настоящее время уже демонстрируют свою конкурентоспособность с людьми при решении общих задач, и мы должны спросить себя: должны ли мы позволить машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе и те, работа на которых приносит удовольствие? Должны ли мы развивать мозг неразумных существ, которые в конечном итоге могут превзойти нас численностью, перехитрить, посчитать нас устаревшими и вознамериться заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что эффект от них будут положительными, а риски — управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с увеличением потенциальной эффективности системы. В недавнем заявлении компании OpenAI относительно общего искусственного интеллекта говорится, что «в какой-то момент может оказаться важным сначала получить независимую оценку, прежде чем приступать к обучению будущих систем, а в отношении самых передовых, согласиться ограничить скорость роста вычислений, используемых для создания новых моделей». Мы согласны. Этот момент настал уже сейчас.

Поэтому мы призываем все лаборатории, занятые развитием искусственного интеллекта, должны незамедлительно приостановить, как минимум на 6 месяцев, обучение систем искусственного интеллекта более мощных, чем GPT-4. Эта пауза должна быть всеобщей и доступной для контроля, и в ней должны участвовать все ключевые участники. Если такую ​​паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.

Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования, разработки искусственного интеллекта, которые должны тщательно проверятся и контролироваться независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это не означает паузу в развитии искусственного интеллекта в целом, а просто шаг назад от опасной гонки моделей все более крупных непредсказуемых черных ящиков, возрастающих неконтролируемых возможностей.

Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать современные мощные современные системы более точными, безопасными, предсказуемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными.

Параллельно разработчики искусственного интеллекта должны работать с политиками, чтобы значительно ускорить разработку надежных систем управления искусственным интеллектом. Они должны, как минимум включать: новые, дееспособные регулирующие органы, занимающиеся вопросами искусственного интеллекта; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших массивов вычислительных мощностей; системы происхождения и водяных знаков, помогающих отличить настоящее от искусственного и отслеживать утечки моделей; надежная экосистема аудита и сертификации; ответственность за вред, причиненный искусственным интеллектом; надежное государственное финансирование технических исследований безопасности искусственного интеллекта; и хорошо обеспеченные ресурсами институтов по преодолению серьезных экономических и политических потрясений (особенно демократии), которые вызовет искусственный интеллект.

Человечество может наслаждаться процветающим будущим, которое дает искусственный интеллект. Добившись успеха в создании мощных систем искусственного интеллекта, мы теперь можем наслаждаться «летом ИИ», во время которого мы пожинаем плоды, разрабатываем эти системы на благо всех и даем обществу возможность адаптироваться к ним. Общество в свое время взяло паузу в развитии других технологий с потенциально катастрофическими последствиями для общества. Мы можем сделать это и сейчас. Насладимся долгим периодом лета с искусственным интеллектом, и не будем бросаться в осень неподготовленными.

По состоянию на 11 апреля 2023 года собрано 20 467 подписей под петицией.