Одним из ключевых аспектов обсуждения является различие между запретом всех технологий искусственного интеллекта и контролем за конкретными высокорисковыми системами. Законопроект, который пока не внесен в Госдуму, стал предметом обсуждений, так как предполагается, что он будет направлен на ограничение использования искусственного интеллекта в областях, которые могут представлять значительную опасность для общества и государства.
Рабочая группа, созданная для изучения вопросов регулирования искусственного интеллекта, возглавляемая депутатом Александром Бабаковым, подтверждает серьёзность подхода к этой теме. Учитывая потенциальные угрозы, связанные с использованием искусственного интеллекта в неправомерных целях, а также важность обеспечения национальной безопасности, законопроект может включать меры, касающиеся разработки стандартов и этических норм.
Критики такого регулирования могут утверждать, что чрезмерное вмешательство государства может замедлить инновации и развитие технологий в стране. Сторонники же утверждают, что необходим контроль для предотвращения злоупотреблений и обеспечения безопасности граждан.
«В целом, регулирование искусственного интеллекта — это сложный процесс, требующий сбалансированного подхода, чтобы не накладывать чрезмерных ограничений на технологии, но в то же время предотвращать потенциальные риски. Важно, чтобы национальное законодательство отражало современные тенденции в развитии искусственного интеллекта и обеспечивало необходимые условия для его безопасного и этичного применения. Ключевой вопрос — как будут определены „системы высокого риска“. Это может включать системы, используемые в критической инфраструктуре. Чёткое определение позволит понять, какие сферы будут затронуты регулированием», — отмечает Берсей Диана, доцент Ставропольского филиала Президентской академии.







