В Евросоюзе собираются ограничить использование искусственного интеллекта (ИИ) в сферах, где технология может причинить серьезный вред обществу.
Предлагается запретить алгоритмы «социальных рейтингов» и существенно ограничить применение технологий распознавания лиц.
Планируется применить подход, основанный на градации рисков:
- неприемлемый
- высокий
- ограниченный
- минимальный
К «высокорисковым» способам применения ИИ отнесли:
- кредитный скоринг
- автоматизированную оценку тестов в сфере образования
- программное обеспечение для найма сотрудников
- роботизированную хирургию
- использование алгоритмов в сферах юриспруденции и охраны правопорядка
Для выхода на рынок такие решения должны будут соответствовать строгим критериям точности, безопасности, качества данных и открытости для пользователей и регуляторов.
Также предложено запретить использовать распознавание лиц в общественных местах.
Исключение — для поиска пропавших детей или преступников и предотвращения терактов.
Неприемлемым будет и использование ИИ в приложениях, которые манипулируют поведением человека для обхода его воли, а также в системах социального рейтинга.
В категорию «минимального риска» вошли решения на основе ИИ в играх или спам-фильтры, так как таких технологий большинство и их не стоит никак регулировать.
При нарушении правил компании будут штрафовать на сумму в размере до 6% от их глобального дохода или на €30 млн ($36 млн), в зависимости от того, какая сумма будет больше.
Однако эксперты отмечают, что нововведения, могут серьезно сказаться на конкурентоспособности бизнеса. А определение ИИ слишком обширно, поэтому новые требования поставят под удар многие социально полезные приложения.
Источник: incrussia.ru