1 августа в ЕС вступил в силу первый всеобъемлющий закон, регулирующий ИИ, и вместе с другими нормами ЕС, направленными на крупные технологические компании. Вполне вероятно, что этот Закон окажет влияние на весь рынок ИИ.
ИИ — это широкий всеобъемлющий термин, который может включать в себя как алгоритмы машинного обучения, которым уже десятки лет, так и современные языковые модели, которые можно использовать во многих приложениях. Законодательство ЕС классифицирует системы ИИ, используя шкалу рисков для людей, которую несет технология.
1. Технология, классифицируемая как «Неприемлемый риск» — категорически запрещена законом. Она включает в себя системы, которые уже были замечены в причинении реального вреда людям. Некоторые из них:
- «нецелевые» базы данных распознавания лиц, которые отслеживают людей в Интернете или через общественные камеры видеонаблюдения;
- социальный скоринг – классификация людей на основе их социального поведения или личных качеств;
- манипулятивные или обманные приемы, также известные как «темные паттерны», которые могут обманом заставить людей подписаться на нежелательную подписку или помешать им отменить ее;
- системы оценки риска, которые прогнозируют вероятность совершения человеком преступления.
2. «Высокий риск» — это наиболее регулируемые технологии. Страховые компании, банки и инструменты ИИ, используемые государственными учреждениями, правоохранительными органами и здравоохранением, вероятно, попадут в эту категорию. Компании, разрабатывающие или использующие эти «высокорисковые» системы ИИ, будут иметь повышенные требования к прозрачности и обязаны применять человеческий надзор. В эту группу входят:
Биометрические системы идентификации;
Критически важная инфраструктура, такая как магистральные интернет-сети, электросети, системы водоснабжения и другая энергетическая инфраструктура;
Образовательная подготовка, например, оценка успеваемости, прогнозирование отсева, прием или распределение учащихся и мониторинг поведения учащихся;
Cистематическая фильтрация резюме или заявлений о приеме на работу, а также мониторинг сотрудников;
Государственные и финансовые услуги, такие как системы оценки кредитоспособности, право на государственную помощь и системы реагирования на чрезвычайные ситуации;
Системы обеспечения соблюдения закона, такие как предиктивная полиция, полиграфы, ДНК-тесты в судебных процессах и криминальное профилирование;
Обработка иммиграционных заявлений, оценка рисков или профилирование;
Участие в выборных процессах и/или судебных решениях.
3. «Ограниченный риск» — инструменты генеративного ИИ, (чат-боты, генераторы изображений, и видео). К ним требования в основном маркировочного и информационного характера:
Раскрытие информации. Когда люди используют эти инструменты, им необходимо сообщить, что они действительно общаются с чат-ботом, работающим на основе искусственного интеллекта.
Маркировка контента, созданного ИИ, чтобы другие компьютеры (и люди) могли определить, была ли работа создана с помощью ИИ.
4.Четвертая категория, «Минимальный риск» — эти системы остаются нерегулируемыми. В эту категорию можно отнести спам-фильтры или программный код ИИ в видеоиграх.
Еще одной ключевой концепцией в регламенте является определение систем «ИИ общего назначения». Под это определение попадают модели ИИ, которые были обучены на широком спектре контента, и которые должны быть полезны для широкого спектра приложений. GPT-4 от OpenAI или Gemini от Google попадают в эту категорию.
Любой из этих разработчиков моделей обязан соблюдать законы ЕС об авторских правах, предоставлять сводку контента, который использовался для обучения модели, публиковать техническую документацию о том, как модель обучалась и оценивалась, а также предоставлять документацию всем, кто включает эти модели в свои продукты.