Разработчики искусственного интеллекта, включая представителей компаний OpenAI и Google DeepMind, высказали апокалиптические предсказания относительно его влияния на будущее человечества.

Согласно заявлению, опубликованному на сайте некоммерческой организации Центр безопасности ИИ из Сан-Франциско, сокращение риска исчезновения человечества в результате развития искусственного интеллекта должно стать глобальным приоритетом, подобно другим угрозам, таким как пандемии и ядерная война.

Заявление, которое авторы специально сделали кратким, уже получило подписи более 350 руководителей, исследователей и инженеров в области искусственного интеллекта. Среди подписавшихся на документ находятся такие выдающиеся личности, как Сэм Альтман из OpenAI, Демис Хассабис из Google DeepMind и Дарио Амодей из Anthropic.

Кроме того, свои подписи под заявлением также оставили Джеффри Хинтон и Йошуа Бенджио, лауреаты премии Тьюринга за свою работу над нейронными сетями, которых часто называют крестными отцами искусственного интеллекта. Недавно Хинтон даже покинул свою должность в Google, чтобы иметь возможность свободно обсуждать потенциальные угрозы, связанные с технологиями, не ограничиваясь профессиональной этикой.

По правилам одной из нестандартных разновидностей футбола, после забитого гола игрок должен выполнить некое действие, которое обычно просят выполнить полицейские. Если результат этого действия окажется заниженным, судья отменяет гол. Назовите это действие тремя словами.

Эти апокалиптические предсказания отражают серьезные опасения относительно возможных последствий развития искусственного интеллекта. Хотя конкретные сценарии и масштаб влияния ИИ на будущее человечества пока еще подлежат обсуждению, руководители и ученые призывают принимать меры для минимизации рисков и обеспечения безопасного развития этой технологии.

Действительно, не все эксперты по искусственному интеллекту разделяют алармистические настроения относительно его последствий. Некоторые из них утверждают, что эти опасения сильно преувеличены. Например, Ян Лекун, вице-президент и ведущий исследователь искусственного интеллекта в Meta, считает, что масштаб проблемы сравнения ИИ с человеческим интеллектом является преувеличенным, а наши возможности ее решить сильно недооценены.

Другие эксперты также разделяют эту точку зрения, считая страхи перед искусственным интеллектом, во-первых, нереалистичными, а во-вторых, отвлекающими внимание от реальных проблем. Профессор Принстонского университета Арвинд Нараянан заявил, что существующий в настоящее время искусственный интеллект не настолько развит, чтобы вызывать подобные опасения.

Стоит отметить, что обсуждения о том, как искусственный интеллект может радикально изменить общество в лучшую сторону или полностью уничтожить его, существуют в научной фантастике уже более 80 лет. Однако только в последнее время технологии достигли нового уровня, и теперь искусственный интеллект способен создавать музыку, генерировать реалистичные изображения, писать код и сценарии для фильмов, и многое другое. В настоящее время основные проблемы, связанные с искусственным интеллектом, касаются нарушения авторских прав и конфиденциальности.

Элизабет Реньерис, старший научный сотрудник Оксфордского института этики в области искусственного интеллекта, выразила свою озабоченность тем, что развитие искусственного интеллекта может привести к расширению автоматизированного принятия решений и распространению дезинформации. Такие аспекты вызывают больше тревоги, чем катастрофические сцен

Заявление, опубликованное на сайте Центра безопасности ИИ, не является первым предупреждением такого рода. В марте ранее выдающиеся личности в области разработки искусственного интеллекта, включая Илона Маска и Стива Возняка, призвали замедлить исследования в этой сфере до тех пор, пока не будут разработаны и внедрены надежные протоколы безопасности.

Они выразили свои опасения в открытом письме, где подробно описали потенциальные риски, связанные с развитием искусственного интеллекта. Среди этих рисков были упомянуты распространение дезинформации, утрата рабочих мест, включая сферы, связанные с творчеством, а также возможность полной потери контроля над развитием человеческой цивилизации.

Законодатели Европейского союза уже активно работают над разработкой европейского закона об искусственном интеллекте, аналогичные ограничения также рассматриваются в США.

Европейские законодатели стремятся создать нормативные акты, которые предотвратят дискриминацию в использовании искусственного интеллекта, например, при принятии решений о приеме на работу, а также защитят здоровье и безопасность граждан от потенциальных рисков.

Однако некоторые скептики полагают, что любые ограничения будут бесполезными, пока они не будут приняты в масштабе всего мирового сообщества. Учитывая, что интернет сам по себе не знает границ, опасные проявления искусственного интеллекта, разработанные, например, в России или Китае, могут оказать негативное влияние на граждан Европы или США.

Одним из примеров более конкретных проблем вызывает чатбот ChatGPT, который способен писать тексты и предоставлять точные ответы на вопросы. Этот инструмент нашел применение среди студентов и школьников, хотя преподаватели тоже научились распознавать работы, созданные искусственным интеллектом.

Американский юрист Тайлер Майклз указывает, что "реальной угрозой не являются роботы-убийцы, а те, кто забирает рабочие места. Особой уязвимостью становятся люди, работающие в колл-центрах, продавцы и все, кто занимается клиентским обслуживанием".

Однако эта эволюция уже давно идет, и ее трудно остановить, в то время как авторы заявления обеспокоены более серьезными проблемами. С другой стороны, полное прекращение научных исследований в области искусственного интеллекта также не является успешным решением. Вероятно, самым разумным подходом будет законодательное регулирование для решения возникающих проблем.