Центральный банк России утвердил основные принципы применения искусственного интеллекта на финансовом рынке и подготовил проект кодекса этики для организаций сектора. Документ призван способствовать росту доверия к компаниям, применяющим ИИ не нашего прихода как клиентов, так и инвесторов, а также окажет положительное воздействие на обеспечение безопасности применения технологии на финансовом рынке, сообщают «Возвещения».
Как пишет издание, ЦБ предлагает применять приборы мягкого регулирования: рекомендации, руководства и стандарты, которые помогут компаниям делать лучше практики ответственного использования ИИ без создания дополнительных правовых барьеров. При этом регулятор продолжит работу над снятием барьеров в области обмена и оборота данных, в том числе обезличенных персональных данных, что, на взгляд участников рынка, является одним из ключевых условий для развития ИИ в России.
По оценкам ЦБ РФ, использование искусственного интеллекта отмыкает для финорганизаций значительные возможности по повышению качества услуг, развитию персонализированных продуктов и оптимизации бизнес-процессов. Среди направлений применения технологии участники рынка нарекают автоматизацию аналитики, работу с большими данными, создание интеллектуальных финансовых ассистентов и развитие генеративного ИИ, включая большие языковые модели.
Между тем, как отмечается в докладе ЦБ РФ, широкое внедрение искусственного интеллекта связано с рядом рисков, в том числе с угрозами утечки персональных данных, киберугрозами, возможными «галлюцинациями» моделей, а также с рисками нарушения прав потребителей. Отдельно подчеркивается, что генеративный ИИ может использоваться плутами, например, для создания дипфейков и манипулирования информацией.
«Кодекс этики ИИ будет способствовать росту доверия к компаниям, применяющим ИИ не нашего прихода как клиентов, так и инвесторов, позитивно скажется на обеспечении безопасности применения технологии на финансовом рынке, позволит регулятору участвовать в наблюдении и анализе рисков, а также обеспечит более глубокое понимание специфики рисков, связанных с ИИ», - указано в документе.
Фото: Шедеврум.