Европейская комиссия объявила о старте экспериментального проекта по практической реализации ряда принципов, которые должны будут соблюдаться компаниями и правительствами при разработке и использовании искусственного интеллекта. Эти принципы не предлагают правила поведения для роботов, а вместо этого затрагивают важные юридические и этические проблемы, которые могут возникнуть в обществе, поскольку человечество интегрирует ИИ в такие сферы, как здравоохранение, образование и потребительские технологии.

Для этих целей в 2018 году была сформирована группа из 52 независимых экспертов, определивших семь ключевых требований, которым, по их мнению, должны соответствовать будущие системы искусственного интеллекта.

Человеческое содействие и надзор: ИИ не должен рушить автономию человечества, манипулировать людьми или принуждать их к чему-либо, а люди, в свою очередь, должны иметь возможность вмешиваться и контролировать каждое решение, принимаемое программным обеспечением.

Техническая надёжность и безопасность: системы ИИ должны быть устойчивыми к внешним атакам.

Конфиденциальность и управление данными: персональные данные, используемые ИИ-системами, должны оставаться конфиденциальными.

Прозрачность: решения, принимаемые программным обеспечением, должны «пониматься и отслеживаться людьми».

Разнообразие, недискриминация и справедливость: предоставляемые ИИ-системами услуги, должны быть доступны всем, независимо от возраста, пола, расы или других факторов.

Экологическое и социальное благополучие: системы искусственного интеллекта должны быть экологически ответственными и способствовать позитивным социальным изменениям.

Подотчетность: ИИ-системы должны быть защищены существующими средствами защиты корпоративной информации. О негативных воздействиях систем необходимо сообщать заранее.

Источник

Контакты

Вы можете задать нам вопрос через эту форму

Sending

©2019 Школа Искусственного Интеллекта

Введите данные:

Forgot your details?