Сможет ли ИИ победить коррупцию и заменить тех, кто создает законы? Интервью с депутатом Смышляевой

Алина Шашкина
Алина Шашкина Корреспондент
viewings icon comments icon

ПОДЕЛИТЬСЯ

whatsapp button telegram button facebook button
Изображение сгенерировано при помощи нейросети Изображение сгенерировано при помощи нейросети

В среду депутаты Мажилиса в первом чтении рассмотрят законопроект по вопросам искусственного интеллекта, а также сопутствующие поправки к нему. Для чего Казахстану закон об ИИ, как он будет работать и стоит ли казахстанцам опасаться развития нейросетей? Об этом в интервью корреспонденту Tengrinews.kz рассказала депутат Мажилиса, руководитель рабочей группы по законопроекту Екатерина Смышляева.

whatsapp button telegram button facebook button
Иконка комментария блок соц сети

В среду депутаты Мажилиса в первом чтении рассмотрят законопроект по вопросам искусственного интеллекта, а также сопутствующие поправки к нему. Для чего Казахстану закон об ИИ, как он будет работать и стоит ли казахстанцам опасаться развития нейросетей? Об этом в интервью корреспонденту Tengrinews.kz рассказала депутат Мажилиса, руководитель рабочей группы по законопроекту Екатерина Смышляева.

- Екатерина Васильевна, расскажите, почему в нашей стране возникла необходимость разработки отдельного закона, регулирующего использование искусственного интеллекта? Может ли Казахстан стать мировым центром ИИ?

- Мы должны соответствовать быстро меняющимся реалиям. Сегодня они таковы, что технологии искусственного интеллекта быстро и прочно входят в наш быт, а правового поля для их регулирования еще нет. И здесь Казахстан вовсе не отстает – это глобальная ситуация. Когда закон примут, мы станем, по сути, второй юрисдикцией в мире, после Евросоюза, где ИИ регулируется отдельным законодательным актом. Причем необходимость создания такой правовой базы у нас признали на самом высоком уровне. В ходе недавнего заседания Национального курултая в Бурабае наш Президент посвятил целый блок выступления цифровизации и развитию искусственного интеллекта, и там он еще раз подчеркнул необходимость создания условий для развития ИИ в стране.

Екатерина Смышляева. Фото: пресс-служба Мажилиса

Чтобы понять, насколько реально Казахстану стать хабом для ИИ, важно разобраться в природе цифрового развития. Дата-центрам нужен холодный климат, доступная бесперебойная электроэнергия и связь. В Казахстане климат действительно благоприятен для таких объектов, что позволяет снизить затраты на охлаждение серверов. Кроме того, географическое положение страны удобно для создания международных хранилищ данных. Проблема остается с ценами на электроэнергию и разбалансированностью системы в часы пик. Однако в этом направлении уже принимаются меры: от повышения эффективности действующих генераций до строительства новых, в том числе - атомных.

Для состоявшихся разработчиков, занимающихся созданием программных решений на основе ИИ, ключевое значение имеют экономические условия, налоговые льготы и правила экспорта. Последний имеет ключевое значение. Для этого сейчас расширяется наш цифровой технопарк AstanaHub.

Для начинающих важнейшим элементом станет Национальная платформа искусственного интеллекта. Она позволит создавать и тестировать ИИ-продукты в защищенной и контролируемой среде, обеспечивая доступ к вычислительным мощностям и, самое главное, к данным для обучения. Такая платформа станет инкубатором для новых идей и продуктов, поддерживая стартапы на этапе их развития, причем стартапы с высоким казахстанским содержанием.

Наше общество можно смело отнести к цифровым оптимистам, это помогает внутреннему спросу. При этом движение идет как сверху, так и от самого общества. Президент лично на постоянной основе уделяет особое внимание процессам внедрения технологий ИИ в систему госуправления и разные отрасли экономики. Это часть государственной политики.

- Технологии развиваются очень быстро. Нельзя исключать, что в будущем фейков и дипфейков*, созданных при помощи ИИ, будет еще больше. Как в рамках закона можно будет бороться с этим явлением или сдерживать его?

- Законопроект об искусственном интеллекте обеспечивает защиту наших граждан от фейков и дипфейков на трех уровнях. Первое – прозрачность и обязательная маркировка синтетического контента: пользователи должны знать, что контент создан ИИ. Второе – запрет на создание систем, которые могут манипулировать пользователями. Он включает запрет на автоматическую генерацию дипфейков. И третье – ответственность операторов ИИ за распространение недостоверного контента. В случае нарушения установленных требований ответственность несут владельцы систем ИИ.

Также есть нормы, косвенно защищающие от дипфейков. Сегодня в рабочей группе обсуждаются предложения по криминализации использования дипфейков. Но, если разобраться, это один из инструментов, который использует преступник для совершения обычного "неинновационного" преступления. Как отягчающее обстоятельство использование информационных технологий уже есть в Уголовном кодексе. Думаю, с учетом всех этих моментов и с учетом роста числа таких нарушений ко второму чтению мы выработаем взвешенную рабочую позицию.

При этом мы понимаем, что мошенники все равно будут нарушать законы. Кроме того, цифровая среда - экстерриториальная, и в ней очень сложно администрировать любые ограничения. Поэтому крайне важно критически относиться к сетевому контенту, проверять информацию.

- Какие страны вы изучали при разработке этого законопроекта? Что взяли в качестве примера?

- В качестве примеров изучались подходы Европейского союза, США, Китая, Сингапура, Канады и Японии, поскольку эти страны демонстрируют разнообразие моделей регулирования - от жесткого контроля до гибкой поддержки инноваций. При этом они выступают в разных ролях: есть страны-разработчики и есть страны-пользователи.

В ЕС принят закон об искусственном интеллекте (AI Act). Оттуда, например, был заимствован принцип классификации систем ИИ по уровню риска: минимального, среднего и высокого. Это позволяет выделить системы, которые требуют особого контроля. Также за основу взята европейская модель прозрачности и объяснимости ИИ, согласно которой пользователи имеют право знать, как работает система и на чем основаны ее решения.

Опыт США хорош в части поддержки инноваций.

Китай активно внедряет ИИ в систему госуправления, эффективно работает с данными. Интересен китайский опыт в части ограничения на использование ИИ в социальной сфере, особенно в части цифрового профилирования и слежения.

Сингапур успешно использует маркировку контента, созданного ИИ.

Япония достигла определенных успехов в подготовке кадров в области ИИ. В казахстанском законопроекте также предусмотрена поддержка образовательных программ, направленных на развитие компетенций в сфере искусственного интеллекта.

Сейчас, обсуждая проект закона, мы продолжаем следить за международными тенденциями регулирования ИИ. Также в центре нашего внимания пока немногочисленные международные акты и соглашения в этой сфере.

- Предусматривается ли введение авторских прав на контент, созданный ИИ? Если да, кому он будет принадлежать?

- Это один из самых сложных вопросов для законодателей всего мира. Сегодня в ряде стран уже идут судебные разбирательства, где истцы требуют защитить произведения, созданные с помощью генеративных моделей ИИ.

По большей части такие продукты не признают объектами авторских прав. И это логично: объектом авторских прав является результат творческого труда человека. В том случае, если человек работал с алгоритмом, вложил в это творчество душу, а ИИ использовал просто как инструмент (кисть и холст художника, так сказать), нужно понимать, как определить степень этого участия.

Мы придерживаемся варианта, когда правом на продукты, созданные ИИ, обладает все-таки владелец системы. И он должен учесть этот момент в пользовательском соглашении с творческими пользователями, чтобы не возникало споров.

Изображение сгенерировано с помощью нейросети Midjourney

- Депутаты неоднократно критиковали использование нейросетей детьми. Как система образования будет реагировать на появление ИИ в Казахстане, учитывая, что дети перестали писать рефераты, студенты – дипломные работы и так далее?

- Буквально недавно прошло обсуждение, на котором Министерство просвещения представило план по подготовке так называемого Этического кодекса использования ИИ в системе образования. Этот документ разрабатывается совместно с международными экспертами. Конечно, вызывает сомнение тот факт, что международных экспертов представляют крупные корпорации, которые явно не заинтересованы в любых ограничениях, связанных с использованием технологий. Тем не менее, такая работа ведется.

Что касается вопросов специфического регулирования, то в перспективе они, вероятно, будут отражены в отраслевом законе - об образовании. На сегодняшний день таких четких регуляторных решений пока нет. Конечно, можно запретить использование ИИ в образовании, ограничить детей и студентов, но цифровая среда такова, что запреты работают и администрируются очень слабо. Чем больше мы запрещаем, тем больший интерес у детей вызывают подобного рода технологии, потому что запретный плод сладок.

Сегодня использование технологий искусственного интеллекта вызывает не только у детей, но и у взрослых своеобразную "эйфорию". Они пользуются ассистентами и нейросетями для написания рефератов, дипломных и других работ. Чтобы это не разрушило систему образования и не привело к деградации детского интеллекта, необходимо перестроить сами подходы к образованию. Требования к компетенциям, которые мы хотим видеть у детей, должны измениться.

Если механическую работу по поиску информации выполняет нейросеть, то ребенок должен уметь самостоятельно критически оценить полученные данные, проверить их достоверность, проанализировать дополнительные источники и правильно сформулировать задачу. Эти навыки становятся ключевыми, хотя ранее они не были столь востребованы и слабо формировались в текущей системе образования.

- А вы сами пользуетесь нейросетями? Если да, то какими и для чего?

- Пользуюсь. Но пока это просто любопытство, поскольку серьезных профессиональных задач в моей работе текущие модели решать не могут. Интересно сравнивать сразу несколько моделей.

При этом уже вполне годным можно назвать поиск с нейросетями, правда, нужно попотеть над его критериями. Примитивно поставленная задача даст такое же примитивное решение. Плюс для серьезных поисков нужно быть глубоко в теме, потому что современные модели иногда ведут поиск без оценки достоверности источников и актуальности материала.

Современные системы неплохо справляются с кратким пересказом больших текстов. В условиях дефицита времени такая возможность позволяет быстро получать обзорные материалы и делать первичный анализ. Но важно, чтобы материалы, которые используются для обработки, были проверены и имели четкий источник, иначе есть риск получить недостоверные или искаженные данные. Вот, пожалуй, пока все варианты в профессиональной сфере.

А в быту мы все пользователи уже давно, начиная с мобильных приложений заказа такси, заканчивая смарт-городами.

- Как закон повлияет на государственные системы, использующие ИИ, например камеры наблюдения и системы анализа данных?

- Так же, как и на частные.

Во-первых, регулирование биометрической информации и подходы к системе анализа данных будут распространяться как на государственные, так и на частные системы. Это означает, что все государственные системы, использующие ИИ для сбора и обработки данных, должны будут соблюдать единые стандарты безопасности и конфиденциальности.

Во-вторых, закон закрепляет базовые принципы, в том числе право человека оспорить автоматизированные решения, принятые в отношении него. Это правило будет действовать и для государственных систем, что гарантирует гражданам возможность защищать свои права, если автоматизированное решение окажется неверным или нарушит их интересы.

В-третьих, на государственные системы также распространятся ограничения на использование поведенческого скоринга** и других методов анализа данных, которые могут затрагивать права граждан. Для использования таких технологий будет необходимо четкое правовое основание, закрепленное в законодательстве.

Что касается данных в целом, то уже сегодня их оборот регулируется правилами управления данными, которые утверждает правительство.

Наконец, использование биометрических данных в госсистемах по-прежнему будет требовать получения согласия пользователей. Госорганы будут обязаны гарантировать, чтобы сбор и обработка таких данных происходили в соответствии с законом и с соблюдением прав граждан.

- Будет ли закон регулировать использование ИИ в медицине?

- Здесь будут работать общие правила и общее законодательство в части искусственного интеллекта. При этом система здравоохранения предполагает работу с достаточно чувствительными системами ИИ, а также большие масштабы их применения. Например, очень много медицинской техники уже сегодня приходит со встроенными алгоритмами искусственного интеллекта, которые помогают докторам анализировать те или иные ситуации, в том числе и диагностическое оборудование, томографы, УЗИ-аппараты.

Очень большую ценность представляют медицинские данные, даже обезличенные, для обучения систем искусственного интеллекта. Есть вопросы к последствиям применения консультантов и помощников в работе врачей. Поэтому в медицине понадобятся внутренние регуляторные акты, которые помогут просчитать экономику вопросов внедрения системы ИИ и прочие моменты.

В проекте закона для этого предусмотрены только общие нормы и отнесение систем ИИ, используемых в медицине, к системам высокого риска, которые подлежат регулированию как критически важные объекты информационно-коммуникационной инфраструктуры.

Изображение сгенерировано с помощью нейросети Midjourney

- Когда ИИ допустит ошибку, кто понесет ответственность: разработчик, государство или алгоритм?

- Точно не алгоритм. Потому что на сегодняшний день искусственный интеллект не является субъектом права и, вероятно, не станет им в ближайшем будущем. ИИ – это инструмент, а не лицо, которое может нести юридическую ответственность. Только в фантастических триллерах можно представить ИИ на скамье подсудимых.

Что касается государства, то да, если владельцем и оператором системы искусственного интеллекта, является, например, государственный орган. Тогда в случае ошибки именно он несет ответственность за последствия. К примеру, если система ИИ используется в рамках государственного сервиса и приводит к ущербу, ответственность лежит на государственном органе, который ее внедрил и использует.

Что касается разработчика, то, если он сохраняет контроль над системой, участвует в ее эксплуатации или заключает договор с владельцем, где его роль четко прописана, он также может нести ответственность. Однако, если разработчик передал систему владельцу и она была должным образом протестирована и задокументирована, дальнейшая ответственность переходит к владельцу системы.

Искусственный интеллект не создает новых принципов распределения ответственности. Он подчиняется общим принципам ответственности за сложные технические системы. Например, лифтов или автомобилей.

В случае аварии сначала проверяется, правильно ли человек использовал лифт. Если он не нарушал правил, тогда возникает вопрос к владельцу и обслуживающей компании: были ли соблюдены все правила обслуживания? И только если выяснится, что проблема связана с конструктивным дефектом, ответственность переходит к разработчику или производителю. Все эти обязательства и распределение описаны в проекте закона.

- Как вы относитесь к идее, что через 10-15 лет половина вашего рабочего места может быть заменена ИИ?

- Часть рабочего места заменить нельзя, но можно автоматизировать некоторые функции. К этому отношусь крайне положительно. Объем работы огромный, если механику будет качественно делать ИИ, значит, у меня освободится время для интеллектуальных, творческих процессов - в ближайшем будущем ИИ их не заменит. ИИ не заменит меня на встречах с избирателями, общественниками, экспертами. Даже самые продвинутые модели ИИ не способны обеспечить полноценное человеческое общение, поскольку им не хватает эмоционального интеллекта и способности понимать контекст на уровне межличностного взаимодействия.

Хотя нужно признать, что для полноценного участия ИИ в процессах законотворчества, даже на уровне решения механических задач, предстоит большая работа. Сегодня Минюст и Минцифры тестируют и обучают модели на нашей базе данных нормативно-правовых актов (НПА). Думаю, выйдет отличный умный поисковик; возможно он также будет решать некоторые задачи по работе со стандартизированными актами.

Однако для полноценного смыслового участия ИИ должен работать с машиночитаемыми НПА. Машиночитаемые нормативные правовые акты - это документы, которые структурированы таким образом, что могут быть интерпретированы и обработаны ИИ. Чем мы пока похвастать не можем. Алгоритмичных законов у нас практически нет.

В Казахстане и многих других странах такие документы пока не являются стандартом. Поэтому понадобится время, но задача решаемая. Например, проект закона об ИИ сейчас проходит тест на машиночитаемость. Будет крайне несправедливо, если ИИ не сможет прочитать закон "о себе любимом".

Изображение сгенерировано с помощью нейросети Midjourney

- По вашему мнению, сможет ли ИИ в будущем искоренить коррупцию? Каким образом?

- Можно сказать, что ИИ может существенно снизить уровень коррупции. Прежде всего, ИИ может обеспечить прозрачность государственных процедур за счет автоматизации процессов. Например, алгоритмы могут проверять тендерные заявки на нарушения, анализировать финансовые транзакции и выявлять аномалии, указывающие на возможные коррупционные схемы. Благодаря этому исключается человеческий фактор и снижается риск подделки документов или манипуляций.

Кроме того, ИИ способен анализировать большие массивы данных, выявлять подозрительные связи и предсказывать риски коррупции. Это означает, что системы на основе искусственного интеллекта могут автоматически фиксировать случаи конфликтов интересов, следить за финансовыми потоками и выявлять чиновников с подозрительно высоким уровнем доходов. Автоматизированные системы контроля и аудита становятся более точными и оперативными, что повышает эффективность антикоррупционной борьбы.

Однако важно понимать, что ИИ сам по себе не является решением. Для эффективной борьбы с коррупцией необходимо, чтобы алгоритмы были прозрачными, защищенными от манипуляций и использовались на основе четких правовых норм. Кроме того, данные, на которых обучаются ИИ-системы, должны быть достоверными и актуальными. В противном случае даже самые современные системы будут принимать ошибочные решения.

- Какие самые неожиданные профессии могут появиться в Казахстане с развитием ИИ?

- На самом деле их довольно много, причем они вытекают из особенностей внедрения ИИ. Например, мы сейчас прописали в законе ограничения, связанные с функциями ИИ-систем и этические принципы его использования. А кто будет следить за соблюдением? Наверное, должны появиться уполномоченные по этике ИИ.

В целом будет развиваться пул аудиторов, которые будут проверять алгоритмы ИИ на предмет дискриминации, предвзятости или неправильной работы. Они будут оценивать справедливость и объяснимость алгоритмических решений.

Мы видим огромные возможности по созданию цифровых двойников людей. Кто-то это будет делать, кто-то вроде дизайнера цифровых личностей. Такие же специалисты понадобятся для неодушевленных объектов, например, городов.

ИИ всегда учится, разработчик создал алгоритм – это как ребенок, дальше с ним кто-то должен заниматься. Думаю, появятся специалисты по обучению моделей ИИ с учетом персонализации и прочих моментов.

Много работы будет у цифровых юристов, поскольку все больше отношений уходит в цифровую среду, а там они очень отличаются от реальных. Еще, вероятно, много работы будет у психологов и психотерапевтов. Цифровая зависимость, цифровой аутизм – это новая реальность человеческого общества.

Но это пока догадки, хотя небезосновательные. В целом же ИИ будет интегрироваться в старые профессии, избавляя нас от рутины и освобождая время для творчества. Все будущие врачи, педагоги, бухгалтера и менеджеры должны будут знать и уметь использовать эту технологию в своей работе.

Отметим: законопроект по вопросам искусственного интеллекта еще не принят в Казахстане. Документ только планируют рассмотреть в Мажилисе. Если его одобрят в первом чтении, законопроект начнут готовить ко второму чтению с учетом всех предложений и замечаний, данных на первом пленарном заседании палаты. Если закон примут во втором чтении, он поступит на рассмотрение в Сенат, а уже оттуда - на подпись Президенту.

*Дипфейк (deepfake) - это видео, фото или аудиозапись, которые были сделаны с помощью искусственного интеллекта, чтобы выглядеть как настоящие, но на самом деле подделаны. Создатели дипфейков заменяют лицо или голос человека на лицо или голос другого так, что кажется, будто это реальность. Могут быть использованы как для развлечения, так и для обмана.

**Поведенческий скоринг - способ оценки человека на основе его поведения. Чаще всего используется в банках, онлайн-сервисах и страховых компаниях. Проще говоря, это система, которая наблюдает за действиями человека (например, как он тратит деньги, вовремя ли платит, как ведет себя онлайн) и выставляет балл, насколько ему можно доверять.

Читайте также: Когда ИИ - главное оружие. Казахстан включается в мировую гонку

Нажмите сюда, чтобы получать самые важные новости в вашем WhatsApp

Tengrinews
Читайте также
Join Telegram Последние новости
Лого TengriNews мобильная Лого TengriLife мобильная Лого TengriSport мобильная Лого TengriAuto мобильная Иконка меню мобильная
Иконка закрытия мобильного меню
Открыть TengriNews Открыть TengriLife Открыть TengriSport Открыть TengriAuto Открыть TengriTravel Открыть TengriEdu Открыть TengriGuide

Курс валют

 510.51  course up  572.36  course up  6.34  course up

 

Погода

location-current
Алматы
А
Алматы 28
Астана 30
Актау 24
Актобе 19
Атырау 23
Б
Балхаш 36
Ж
Жезказган 30
К
Караганда 28
Кокшетау 22
Костанай 38
Кызылорда 23
П
Павлодар 24
Петропавловск 23
С
Семей 31
Т
Талдыкорган 31
Тараз 36
Туркестан 19
У
Уральск 21
Усть-Каменогорск 33
Ш
Шымкент 32

 

Редакция Реклама
Социальные сети
Иконка Instagram footer Иконка Telegram footer Иконка Vkontakte footer Иконка Facebook footer Иконка Twitter footer Иконка Youtube footer Иконка TikTok footer Иконка WhatsApp footer
OSZAR »