Ярослав Богданов: Защита от рисков бесконтрольного развития ИИ это ключ к выживаемости человечества

Рынку искусственного интеллекта пророчат массовой исход из него инвесторов. Соответствующее заявление сделал эксперт в области новых технологий Гэри Маркус. По его мнению, август 2024-го года станет месяцем, когда "лопнет пузырь генеративного искусственного интеллекта" по причине разочарования в нем вкладчиков из-за излишне возложенных на ноу-хау ожиданий.

Аргументом к такому прогнозу послужила ситуация в компании OpenAI, совершившей, казалось бы, интеллектуальный прорыв в мире нейросетей. Однако в данный момент стартап столкнулся с утечкой мозгов. Об уходе из компании объявил соучредитель проекта Джон Шульман, который не просто уволился, а совершил переход к конкурентам - в компанию Anthropic. Оставил пост вице-президента по потребительским продуктам Питер Дэн.

Гэри Маркус связал кадровую лихорадку в среде топ-менеджеров OpenAI с отсутствием прогресса в создании AGI - ИИ, чья деятельность, как предполагалось, должна была быть сопоставима с человеческим разумом. Эксперт полагает, что по прошествии времени инвесторы разочаруются до такой степени, что перестанут финансировать это направление. Однако ему оппонирует основатель GDA Group Ярослав Богданов, который полагает, что к потере интереса к сфере искусственного интеллекта причастна проблема безопасности данных. Он обратил внимание, что кадровые перемещения, вплоть до увольнения, происходили в OpenAI и прежде.

- Ранее прекратили отношения с OpenAI на уровне "работник-работодатель" Илья Суцкевер и Уильям Сондерс, которые отвечали, подчеркну это, за безопасность разработок. Тот же Сондерс предупреждал, что погоня за прибылью в ущерб безопасности превращает компанию в “Титаник искусственного интеллекта”. Как мне видится, эта метафора - максимально точное описание процесса разработки и внедрения генеративных нейросетей в условиях абсолютного отсутствия инструментов регулирования. В данный момент не существует никаких норм - ни научных, ни юридических, ни этических, - сказал Ярослав Богданов, указав на то, что волна ажиотажа вокруг ИИ сошла, и на это указывают значительно просевшие акции Nvidia и Microsoft, а не только OpenAI.

По мнению юриста-международника, атмосфера, которая сложилась вокруг развития искусственного интеллекта, как будто сама предопределила, что необходима некая пауза. Безопасность при работе в столь глобальной сфере, как генеративные нейросети, является вопросом выживаемости человеческой цивилизации, считает он.

- Обещанный разработчиками AGI [Artificial General Intelligence — следующий уровень развития искусственного интеллекта], который до сегодняшнего дня присутствовал лишь в книгах писателей-фантастов, стоит на пороге. Необходимо со всей ответственностью ответить на вопрос - а готов ли мир к тому, что появится технология, способная полностью заменить человека на интеллектуальном уровне? Разумеется, не готов. Если допустить обратное, то это можно сравнить с открытием Ящика Пандоры. Может так случиться, что AGI сформирует собственные цели, исходя из своих алгоритмов, и отличные от человеческих. Он может принять решения, исполнение которых просто устранит человека, как вид, если это будет необходимо для достижения этих задач, - пояснил основатель GDA Group в беседе с редакцией "Внешнеэкономические связи".

Ярослав Богданов заявил, что не скорейшее создание  искусственного интеллекта с целью обретения статуса лидера с сопутствующей прибылью должно стать приоритетом человечества и причастных к этой отрасли, а формирование глобальной безопасности через принятие нормативно-правовой базы в в области информационно-коммуникационных технологий. Только пройдя через все эти этапы, возможно дальнейшее развитие нейросетей и движение вперед.

- К паузам, которые, казалось бы, сложились по закономерным причинам, нужно относиться, как к шансу на выстраивание глобального диалога по обеспечению международной кибербезопасности. Подходить к этому необходимо, как к общей ответственности всех сторон. А опытный и просчитывающий все инвестор будет вкладывать в безопасность продукта с учетом долгосрочной перспективы, - заключил Ярослав Богданов.

Он обратил внимание, что обеспечить человечеству баланс между прогрессом и рисками, которые влекут за собой бесконтрольные разработки ИИ - это задача экспертного сообщества.

Источник: 

ВнешПол

Дата: 
12.08.2024
Автор: 
Анна Камаева

Ошибка?

Неправильно указали должность или подразделение?
Напишите нам в чём неточность (обязательно укажите ФИО):

Отправить
×