Паньшин: Беларусь могла бы инициировать международный форум по рискам и угрозам искусственного интеллекта

Искусственный интеллект, несомненно, является качественным революционным скачком в цифровой эволюции. Однако непредсказуемость его развития требует всеобщих превентивных мер. Уверенность в этом высказал порталу sb.by профессор экономического факультета БГУ Борис Паньшин, комментируя итоги официального визита в Австрию Президента Беларуси.

Напомним, в Вене после участия в Белорусско-Австрийском экономическом форуме Александр Лукашенко высказал суждение, что цифровизация является процессом уходящим, а умы людей все больше захватывает сфера искусственного интеллекта. С этой тематикой белорусский Президент в том числе имел возможность ознакомиться во время недавнего визита в ОАЭ. Эта страна, поделился он, инвестирует колоссальные средства в данное направление, собирает у себя лучших ученых. Вместе с тем Главу белорусского государства насторожил тот факт, что даже сами разработчики не знают, к чему может в перспективе привести развитие сферы искусственного интеллекта.

Эту озабоченность вполне разделяет Борис Паньшин. Он отмечает, что поначалу ситуация была под контролем:

— Искусственный интеллект (ИИ) стал полностью работающей технологией, которую сегодня применяют во многих отраслях, в первую очередь в банковской — для обоснования кредитов, в страховой деятельности  для расчета рисков, в маркетинге  для определения объемов продаж массовых потребительских товаров и услуг. И здесь в основном использовались методы машинного обучения, известные и типичные алгоритмы расчетов, то есть конкретная система ИИ обучалась, как ученик в школе, на примерах. И до недавнего времени ИИ рассматривался как помощник человека, как усилитель наших возможностей в поиске информации, распознавании речи и изображений, переводе текстов, решении сложных задач для экономики, предсказании погоды, возможных землетрясений и т. д.

Однако все начало меняться, когда в искусственном разуме начали использоваться модели нейронных сетей, которые сами воспринимают информацию и сами ее интерпретируют. Причем по алгоритмам, которые зачастую непонятны самим создателям интеллектуальных систем, подчеркивает эксперт:

— В результате системы искусственного интеллекта превращаются в «черный ящик», от которого можно ожидать какого угодно сюрприза. Мы видим, что на входе системы и что на выходе, но не понимаем, что происходит внутри. Естественно, если такие системы будут все больше встраиваться в традиционные системы управления объектами и системами, то это вкупе с современными коммуникации со скоростью света создает новые угрозы безопасности практически во всех сферах деятельности, причем риски общепланетарного масштаба. Не случайно в военном деле ИИ рассматривается как третья революционная инновация после изобретения пороха и ядерного оружия.

Резюме Бориса Паньшина таково:

— «Черный квадрат» компьютерного монитора может вполне явиться предупреждением гениального Казимира Малевича, чтобы мир не упал в бездну цифрового хаоса. Во всех разработках высоких технологий нам нужно оставаться людьми и думать о том, чего мы хотим достичь, к чему и призывает Президент. Поэтому для предотвращения бесконтрольной разработки и применения систем ИИ нужно что-то подобное глобальному договору о нераспространении ядерного оружия, борьбе с наркотрафиком или противодействии глобальному потеплению. Беларусь могла бы выступить с инициативой проведения международного форума по рискам и угрозам искусственного интеллекта.

Заметили ошибку? Пожалуйста, выделите её и нажмите Ctrl+Enter