Паньшин: Беларусь могла бы инициировать международный форум по рискам и угрозам искусственного интеллекта
13.11.2019 17:50:30
Максим ОСИПОВ
Искусственный интеллект, несомненно, является качественным революционным скачком в цифровой эволюции. Однако непредсказуемость его развития требует всеобщих превентивных мер. Уверенность в этом высказал порталу sb.by профессор экономического факультета БГУ Борис Паньшин, комментируя итоги официального визита в Австрию Президента Беларуси.
Напомним, в Вене после участия в Белорусско-Австрийском экономическом форуме Александр Лукашенко высказал суждение, что цифровизация является процессом уходящим, а умы людей все больше захватывает сфера искусственного интеллекта. С этой тематикой белорусский Президент в том числе имел возможность ознакомиться во время недавнего визита в ОАЭ. Эта страна, поделился он, инвестирует колоссальные средства в данное направление, собирает у себя лучших ученых. Вместе с тем Главу белорусского государства насторожил тот факт, что даже сами разработчики не знают, к чему может в перспективе привести развитие сферы искусственного интеллекта.
Эту озабоченность вполне разделяет Борис Паньшин. Он отмечает, что поначалу ситуация была под контролем:
— Искусственный интеллект (ИИ) стал полностью работающей технологией, которую сегодня применяют во многих отраслях, в первую очередь в банковской — для обоснования кредитов, в страховой деятельности — для расчета рисков, в маркетинге — для определения объемов продаж массовых потребительских товаров и услуг. И здесь в основном использовались методы машинного обучения, известные и типичные алгоритмы расчетов, то есть конкретная система ИИ обучалась, как ученик в школе, на примерах. И до недавнего времени ИИ рассматривался как помощник человека, как усилитель наших возможностей в поиске информации, распознавании речи и изображений, переводе текстов, решении сложных задач для экономики, предсказании погоды, возможных землетрясений и т. д.
Однако все начало меняться, когда в искусственном разуме начали использоваться модели нейронных сетей, которые сами воспринимают информацию и сами ее интерпретируют. Причем по алгоритмам, которые зачастую непонятны самим создателям интеллектуальных систем, подчеркивает эксперт:
— В результате системы искусственного интеллекта превращаются в «черный ящик», от которого можно ожидать какого угодно сюрприза. Мы видим, что на входе системы и что на выходе, но не понимаем, что происходит внутри. Естественно, если такие системы будут все больше встраиваться в традиционные системы управления объектами и системами, то это вкупе с современными коммуникации со скоростью света создает новые угрозы безопасности практически во всех сферах деятельности, причем риски общепланетарного масштаба. Не случайно в военном деле ИИ рассматривается как третья революционная инновация после изобретения пороха и ядерного оружия.
Резюме Бориса Паньшина таково:
— «Черный квадрат» компьютерного монитора может вполне явиться предупреждением гениального Казимира Малевича, чтобы мир не упал в бездну цифрового хаоса. Во всех разработках высоких технологий нам нужно оставаться людьми и думать о том, чего мы хотим достичь, к чему и призывает Президент. Поэтому для предотвращения бесконтрольной разработки и применения систем ИИ нужно что-то подобное глобальному договору о нераспространении ядерного оружия, борьбе с наркотрафиком или противодействии глобальному потеплению. Беларусь могла бы выступить с инициативой проведения международного форума по рискам и угрозам искусственного интеллекта.