В Евросоюзе собираются ограничить использование искусственного интеллекта (ИИ) в сферах, где технология может причинить серьезный вред обществу.

Предлагается запретить алгоритмы «социальных рейтингов» и существенно ограничить применение технологий распознавания лиц.

 

Планируется применить подход, основанный на градации рисков:

  • неприемлемый
  • высокий
  • ограниченный
  • минимальный

 

К «высокорисковым» способам применения ИИ отнесли:

  • кредитный скоринг
  • автоматизированную оценку тестов в сфере образования
  • программное обеспечение для найма сотрудников
  • роботизированную хирургию
  • использование алгоритмов в сферах юриспруденции и охраны правопорядка

 

Для выхода на рынок такие решения должны будут соответствовать строгим критериям точности, безопасности, качества данных и открытости для пользователей и регуляторов.

 

Также предложено запретить использовать распознавание лиц в общественных местах.

Исключение — для поиска пропавших детей или преступников и предотвращения терактов.

 

Неприемлемым будет и использование ИИ в приложениях, которые манипулируют поведением человека для обхода его воли, а также в системах социального рейтинга.

 

В категорию «минимального риска» вошли решения на основе ИИ в играх или спам-фильтры, так как таких технологий большинство и их не стоит никак регулировать.

При нарушении правил компании будут штрафовать на сумму в размере до 6% от их глобального дохода или на €30 млн ($36 млн), в зависимости от того, какая сумма будет больше.

Однако эксперты отмечают, что нововведения, могут серьезно сказаться на конкурентоспособности бизнеса. А  определение ИИ слишком обширно, поэтому новые требования поставят под удар многие социально полезные приложения.

Источник: incrussia.ru