Государственное регулирование искусственного интеллекта: эксперт РЭУ — участник Круглого стола в Госдуме
Директор Центра перспективных исследований в искусственном интеллекте РЭУ им. Г.В. Плеханова Сергей Ярушев — участник заседания круглого стола в Государственной Думе Российской Федерации на тему «Искусственный интеллект. Меры государственного регулирования и поддержки перспективных стартапов». В рамках заседания представители органов государственной власти, научного, профессионального и образовательного сообщества обсудили порядок создания инновационной цифровой системы управления, развития и поддержки искусственного интеллекта.
Круглый стол организован депутатом Государственной Думы, Первым заместителем Председателя Комитета по науке и высшему образованию Владимиром Сипягиным совместно с Ассоциацией лабораторий по развитию искусственного интеллекта (АЛРИИ).
Сергей Ярушев представил доклад на тему «Объяснимость работы искусственного интеллекта», в котором рассказал о проблемах искусственного интеллекта и важности разработки объяснительного искусственного интеллекта для повышения уровня доверия к системам данного типа. Автор отмечает:
«Непонимание того, каким образом нейронная сеть принимает решения, влечёт за собой существенные риски как с точки зрения доверия общества к таким алгоритмам, так и с точки зрения возможных последствий. Например, в такой чувствительной области, как медицина, даже одна единственная ошибка, которая повлекла за собой неправильную постановку диагноза, может фатально сказаться на отрасли. И сейчас крайне необходимо разрабатывать объяснимые модели ИИ, которые позволят увидеть, в чём именно заключалась ошибка нейронной сети, чтобы в дальнейшем её не допустить».
Риски отсутствия объяснимости работы искусственного интеллекта отмечены в одном из основных положений Национальной стратегии развития искусственного интеллекта на период до 2030 года, которое гласит: «Алгоритмы работы нейронных сетей крайне сложны для интерпретации, следовательно результаты их работы могут быть подвергнуты сомнению и отменены человеком. Отсутствие понимания того, как искусственный интеллект достигает результатов, является одной из причин низкого уровня доверия к современным технологиям искусственного интеллекта и может стать препятствием для их развития».
По прогнозам компании Next Move Strategy Consulting, объём рынка объяснимого искусственного интеллекта (XAI) к 2030 году вырастет на 200% и составит более 20 млрд.долл.
Завершая доклад, Сергей Ярушев отметил: «Крайне важно осуществлять поддержку собственных научных исследований и разработок искусственного интеллекта, уделять особое внимание поддержке молодых учёных и молодёжных центров. Чтобы стать лидерами в области ИИ, мы должны не искать способы внедрения готовых решений западных коллег, а разрабатывать собственные».
По итогам круглого стола будет подготовлен проект рекомендаций Правительству Российской Федерации по дальнейшему устойчивому развитию сферы технологий искусственного интеллекта и мерам государственной поддержки.
Круглый стол организован депутатом Государственной Думы, Первым заместителем Председателя Комитета по науке и высшему образованию Владимиром Сипягиным совместно с Ассоциацией лабораторий по развитию искусственного интеллекта (АЛРИИ).
Сергей Ярушев представил доклад на тему «Объяснимость работы искусственного интеллекта», в котором рассказал о проблемах искусственного интеллекта и важности разработки объяснительного искусственного интеллекта для повышения уровня доверия к системам данного типа. Автор отмечает:
«Непонимание того, каким образом нейронная сеть принимает решения, влечёт за собой существенные риски как с точки зрения доверия общества к таким алгоритмам, так и с точки зрения возможных последствий. Например, в такой чувствительной области, как медицина, даже одна единственная ошибка, которая повлекла за собой неправильную постановку диагноза, может фатально сказаться на отрасли. И сейчас крайне необходимо разрабатывать объяснимые модели ИИ, которые позволят увидеть, в чём именно заключалась ошибка нейронной сети, чтобы в дальнейшем её не допустить».
Риски отсутствия объяснимости работы искусственного интеллекта отмечены в одном из основных положений Национальной стратегии развития искусственного интеллекта на период до 2030 года, которое гласит: «Алгоритмы работы нейронных сетей крайне сложны для интерпретации, следовательно результаты их работы могут быть подвергнуты сомнению и отменены человеком. Отсутствие понимания того, как искусственный интеллект достигает результатов, является одной из причин низкого уровня доверия к современным технологиям искусственного интеллекта и может стать препятствием для их развития».
По прогнозам компании Next Move Strategy Consulting, объём рынка объяснимого искусственного интеллекта (XAI) к 2030 году вырастет на 200% и составит более 20 млрд.долл.
Завершая доклад, Сергей Ярушев отметил: «Крайне важно осуществлять поддержку собственных научных исследований и разработок искусственного интеллекта, уделять особое внимание поддержке молодых учёных и молодёжных центров. Чтобы стать лидерами в области ИИ, мы должны не искать способы внедрения готовых решений западных коллег, а разрабатывать собственные».
По итогам круглого стола будет подготовлен проект рекомендаций Правительству Российской Федерации по дальнейшему устойчивому развитию сферы технологий искусственного интеллекта и мерам государственной поддержки.
Государственное регулирование искусственного интеллекта: эксперт РЭУ — участник Круглого стола в Госдуме