По мере развития искусственного интеллекта возникает все больше вопросов, касающихся его регулирования. Насколько это необходимо на данном этапе в Кыргызстане? Что об этом думают эксперты и депутаты? Что уже сделано?
Эти и другие вопросы обсудили на Центральноазиатском киберюридическом форуме.
Мнение экспертов и депутатов
Разработчики из Кыргызстана рассматривают искусственный интеллект как инструмент для выхода на глобальный рынок IT, считает директор Парка высоких технологий Азис Абакиров.
Нам не нужно губить технологию, вводить излишнее регулирование. У нас сохранилась более-менее свобода в интернете.
«Конечно, нужно учитывать этические и другие угрозы, которые несет ИИ. Но разработчики видят в ИИ выход на глобальный рынок. В этом году президент США выделил $500 млрд на развитие ИИ, а потом в Китае появился DeepSeek. А у нас небольшое количество ребят пытаются с ними конкурировать», — уточнил он.
Таким образом, представители IT-сообщества рассматривают ИИ прежде всего как экономическую возможность, а не угрозу, которая требует срочных ограничений. Схожую позицию озвучивают и парламентарии. Депутат Жогорку Кенеша Дастан Бекешев отметил, что к вопросу регулирования искусственного интеллекта в Кыргызстане нужно подходить крайне осторожно.
«Когда мы говорим о регулировании, я опасаюсь других вещей, особенно в Центральной Азии, на постсоветском пространстве. Что у нас обычно понимают под регулированием? Какой-нибудь запрет», — сказал Бекешев.
Бекешев добавил, что в Кыргызстане развиваются свои проекты в области ИИ, например, Akyl AI или AiRun.
Но это все можно загубить. И очень легко. Просто зарегулировать это все.
«Я считаю, что в Центрально-Азиатском регионе нужно обратить внимание на то, что происходит в Европе и других странах», — уточнил он.
Бекешев добавил, что Европа может ввести резкое регулирование искусственного интеллекта и влиять на такие крупные компании, как OpenAI, Google, Meta и другие.
«Можем ли мы? Нет, им будет от этого только смешно. Почему? Потому что рынок потребления очень маленький. И вот у нас музыку создают с помощью ИИ, но уже начали думать, как это запретить. Видеогенерацию — то же самое. Чтобы не было дипфейков. Я боюсь, что такого рода запреты навредят нам и не дадут раскрыться тем талантам, которые у нас есть. Но пока мы можем сказать, что у нас имеются наработки в сфере искусственного интеллекта», — добавил Бекешев.
Фактически речь идет о страхе повторения привычной для региона практики — использования ограничений, а не комплексного развития с учетом имеющихся рисков.
Некоторые эксперты в области защиты данных предлагают отделять технологию и злоупотребления, которые могут быть связаны с ее использованием.
«Когда говорят о необходимости регулирования, в разных опять же юрисдикциях упоминается о том, что мошенники могут использовать технологию. Но важно понимать, что мошенники могут использовать все что угодно», — сказал руководитель отдела по защите данных Yango Group Денис Садовников и добавил, что «регулирование искусственного интеллекта не должно восприниматься как запрет».
В качестве возможного ориентира для региона часто рассматривается пример других стран. Пока что в мире имеется несколько концептуальных подходов к регулированию искусственного интеллекта — европейский, базирующийся на правах человека, англосаксонский — на саморегулировании и сингапурский — учитывающий как права человека, так и саморегулирование, рассказала депутат Мажилиса Казахстана Екатерина Смышляева.
«В Казахстане выбрали модель, в которую собрали лучшее из подходов. Противоправные действия действительно должны быть в фокусе, и часть запретительных механизмов регулирования должны быть, конечно, привязаны исключительно к противоправным действиям», — сказала она.
При этом Смышляева отметила, что многие алгоритмические решения ИИ могут быть не противоправными, но наносить вред обществу. Депутат Мажилиса уточнила: в Казахстане был разработан и принят закон об искусственном интеллекте, в нем предусмотрены меры по поддержке развития технологий, позиции регулятора в отношении выбора модели регулирования, использования авторских прав.
В данной ситуации у соседей предусмотрен равный доступ разработчиков к большим данным и вычислительным ресурсам, который регулируется законодательными актами. В вопросах позиции регулятора учитываются этические вопросы и внимание к высокорисковым технологиям. «Если говорить точнее — системам высокой степени автономности. Подход дифференцированный — остальные участники рынка могут развиваться в формате саморегулирования», — добавила она.
В вопросе соблюдения авторских прав при использовании искусственного интеллекта в Казахстане разрешили обучение крупных моделей на открытых авторских произведениях, если автор заранее не установил машиночитаемый запрет. «То есть мы пошли от обратного принципа: по умолчанию использование допускается, а защита действует только в том случае, если автор явно выразил несогласие с применением его контента», — объяснила Смышляева. Такой подход позволяет снижать риски и не ограничивать развитие рынка на этапе зарождения.
ИИ в Цифровом кодексе
Нормы о регулировании искусственного интеллекта уже заложены в Цифровом кодексе Кыргызстана, рассказал депутат Дастан Бекешев. Развитие технологии в данном случае рассматривается согласно принципу «технологической нейтральности».
«Это значит, что мы регулируем не сам алгоритм, а сферу его применения. Если ИИ используется, например, в финтехе для скоринга кредитов — там действуют правила финансового регулятора. Если в медицине для диагностики — правила Минздрава. Мы не стали создавать какого-то «цифрового монстра», который будет надзирать за каждой строчкой кода», — сказал депутат.
Ведущий партнер консорциума по разработке цифрового законодательства Татту Мамбеталиева разъяснила, что главная задача Цифрового кодекса — отказаться от административного регулирования. Взамен предлагается взаимодействие с государством на четырех уровнях. Первый — телеком-секторы, поскольку это фундамент технологий. Второй — на уровне систем, третий — сервисов, четвертый — данных (основного элемента, который объединяет все уровни).
Цифровой кодекс относит системы искусственного интеллекта, используемые для обеспечения цифрового благополучия, к категории повышенного риска. Владельцы и пользователи ИИ, независимо от уровня опасности таких систем, обязаны принимать разумные меры для снижения возможного вреда и несут ответственность за его причинение по законодательству Кыргызстана.
При этом конкретные правила и стандарты разработки и применения ИИ государство фактически передает профессиональному сообществу. Их могут устанавливать объединения владельцев ИИ-систем. Такие регламенты должны охватывать вопросы профессиональной этики, оценки рисков, управления данными, качества разработки и эксплуатации систем и не противоречить положениям кодекса.
Отдельное внимание уделяется прозрачности. Если ИИ используется для взаимодействия с потребителями, пользователи обязаны прямо уведомлять об этом, за исключением случаев, когда присутствие алгоритма очевидно. Информация о применении ИИ в цифровых правоотношениях считается общедоступной и должна размещаться в понятной форме на сайтах компаний и отраслевого регулятора национальной экосистемы.
Дополнительные требования вводятся для чувствительных технологий. Пользователи систем распознавания эмоций и классификации людей по биометрическим признакам обязаны отдельно информировать о применении таких решений. Аналогичное правило действует и для дипфейков: использование ИИ для создания или изменения контента должно сопровождаться раскрытием его искусственного происхождения.
На данном этапе Кыргызстан делает ставку на осторожное регулирование искусственного интеллекта без жестких запретов — с акцентом на саморегулирование, ответственность за вред и прозрачность использования технологий. Такой подход должен сохранить пространство для развития локальных ИИ-проектов, не отсекая рынок на старте, но при этом обозначить «красные линии» для высокорисковых и чувствительных решений. Главным вопросом остается: удастся ли удержать этот баланс на практике.
