ЕС: системы искусственного интеллекта должны создаваться и внедряться прозрачным и ответственным образом

ЕС: системы искусственного интеллекта должны создаваться и внедряться прозрачным и ответственным образом

Сегодня Европейский Союз официально выпустил набор руководящих документов о том, как предприятиям и правительствам следует следовать при разработке и внедрении своих проектов искусственного интеллекта, чтобы они были по-настоящему прозрачными, справедливыми и «этичными».

ЕС: системы искусственного интеллекта должны создаваться и внедряться прозрачным и ответственным образом

Это внезапно напоминает мне закон под названием «Три закона робототехники», упомянутый русским писателем Айзеком Азимовым в сборнике рассказов «Обход», который он составил в 1942 году, что-то вроде первого: роботу не разрешается причинять вред людям или игнорировать опасности, которые лица людей. Статья 2: Робот должен полностью подчиняться приказам, отдаваемым людьми, если только эти приказы не противоречат первому закону. И третье: Робот должен защищать себя при условии, что такая защита не противоречит первому и второму законам. Хотя это всего лишь набор «вымышленных» правил, появившийся почти 80 лет назад, он по-прежнему особенно актуален, когда люди постепенно вступают в современную эпоху искусственного интеллекта. Конечно, новый свод правил, изданный ЕС, по своей сути не будет таким же, как закон Айзека Азимова «Три закона робототехники». Европейские законодатели не могут обеспечить гибкую этическую основу, которая помогла бы нам решать такие важные задачи, как остановка роботов-убийц. Вместо этого руководящие документы ЕС помогают решать «темные и широко распространенные» проблемы, которые оказывают негативное влияние на общество, поскольку мы интегрируем ИИ во многие важные сферы нашей жизни, такие как здравоохранение, образование и потребительские технологии.

ЕС: системы искусственного интеллекта должны создаваться и внедряться прозрачным и ответственным образом

В качестве простого примера: если медицинская система искусственного интеллекта диагностирует человека с высоким риском развития рака в будущем, рекомендации ЕС помогут гарантировать, что необходимо выполнить некоторые из следующих действий: расы или пола и в то же время предоставлять максимально четкую и прозрачную информацию о своем состоянии здоровья и особенно не должны вмешиваться или препятствовать решениям врача.

Так что да, эти рекомендации в основном сосредоточены на ограничении и контроле над правильной работой моделей ИИ, но только на административном и бюрократическом уровне, а не на предотвращении убийств, согласно воображению писателя Азимова.

ЕС: системы искусственного интеллекта должны создаваться и внедряться прозрачным и ответственным образом

Чтобы подготовить этот набор руководящих документов, ЕС пришлось созвать группу из 52 экспертов, попросив их обсудить, согласовать и выдвинуть 7 требований, которым, по их мнению, должны соответствовать будущие системы ИИ. Эти требования заключаются в следующем:

  1. Окончательная способность контролировать и принимать решения по-прежнему должна находиться в руках людей: ИИ не должен, или, скорее, ему не должно быть позволено «попирать» человеческую автономию и самоопределение. И наоборот, системы ИИ не должны манипулировать или принуждать людей. В конце концов, люди должны иметь возможность вмешиваться или контролировать каждое решение, которое программное обеспечение ИИ принимает в необходимых ситуациях.
  2. Точные, безопасные и безопасные методы развертывания. Каждая модель ИИ при развертывании, будь то в лабораторном масштабе или в реальности, должна обеспечивать два фактора: безопасность и точность, а именно: Предварительные условия. Другими словами, программное обеспечение ИИ не должно быть легко скомпрометировано и захвачено внешними атаками, и каждое принимаемое им решение должно быть абсолютно надежным и наиболее разумным.
  3. Обеспечение конфиденциальности и управления данными. Персональные данные, собираемые системами искусственного интеллекта, должны быть надежно защищены и полностью конфиденциальны. Эти данные не могут быть раскрыты или доступны каким-либо субъектам, и их нельзя легко украсть или потерять.
  4. Обеспечение прозрачности: данные и алгоритмы, используемые для создания системы искусственного интеллекта, должны быть доступны, а решения, принимаемые программным обеспечением, также должны быть четко представлены и объяснены. Другими словами, операторы должны иметь возможность объяснять решения, принимаемые их системами искусственного интеллекта, конкретным и логичным образом.
  5. Обеспечьте разнообразие, недискриминацию и справедливость: услуги на базе искусственного интеллекта должны быть доступны каждому, независимо от возраста, пола, расы или других характеристик. В то же время решения, которые принимает ИИ, не должны быть предвзятыми в отношении каких-либо характеристик или объектов.
  6. Положительное экологическое и социальное воздействие: системы искусственного интеллекта должны внедряться и развиваться устойчиво (т. е. они должны быть экологически ответственными) и способствовать позитивным социальным изменениям.
  7. Ответственность: системы искусственного интеллекта должны подвергаться аудиту и защищаться с помощью существующих мер безопасности. Другими словами, негативное влияние системы (если таковое имеется) должно быть откровенно признано, а операторы должны нести ответственность за негативное влияние, которое оказывают их системы искусственного интеллекта.

Вы, вероятно, заметите, что некоторые из приведенных выше утверждений довольно абстрактны и их трудно оценить в объективном смысле (например, определение позитивных социальных изменений, которые приносит ИИ, будет сильно различаться от человека к человеку и, в более широком смысле, между странами. ). Однако большинство остальных пунктов, как правило, проще и могут быть проверены и гарантированы надзором органов власти. Например, обмен данными, используемыми для обучения правительственных систем искусственного интеллекта, может стать хорошим способом борьбы с предвзятыми и непрозрачными алгоритмами.

ЕС: системы искусственного интеллекта должны создаваться и внедряться прозрачным и ответственным образом

Положения этих руководящих документов ЕС явно не являются юридически обязательными, но они могут быть использованы для формирования любого будущего законодательства, разрабатываемого Европейским Союзом и касающегося области ИИ. В прошлом ЕС неоднократно заявлял, что хочет сделать Европу пионером в мире по внедрению «этических» моделей ИИ и запуску набора руководящих документов. Это ясно показывает, что они готовы разработать далеко идущие законы. регулирование и защита цифровых прав.

ЕС хочет сформировать индустрию искусственного интеллекта, в основе которой лежат этические стандарты

В рамках усилий по созданию «этичной» индустрии ИИ руководящий документ ЕС можно рассматривать как ступеньку к созданию «списка доверенных оценок ИИ» — списка терминов, которые могут помочь экспертам найти любые слабые места или потенциальные опасности в ИИ. программное обеспечение, даже если оно было широко развернуто. Этот список может включать такие вопросы, как: «Можете ли вы продемонстрировать, как ваша система ИИ работает в сложных ситуациях и средах?» или «Можете ли вы оценить тип и объем данных в вашем наборе данных?» ...

Конечно, этот оценочный список является лишь предварительным, Евросоюзу еще предстоит собрать отзывы от компаний и экспертов по искусственному интеллекту в ближайшем будущем. Уже в 2020 году ЕС опубликует сводный доклад по этому вопросу.

ЕС: системы искусственного интеллекта должны создаваться и внедряться прозрачным и ответственным образом

Анни Хидвеги, политический менеджер группы по цифровым правам Access Now и один из 52 экспертов, ответственных за разработку руководящих документов ЕС, сказала, что оценочный список является ключевой частью. , дальновидный взгляд на то, как предотвратить и минимизировать потенциальный вред от ИИ».

«На наш взгляд, у ЕС достаточно потенциала и ответственности, чтобы стать ведущей организацией в этой работе. Но кроме этого, мы также считаем, что Европейский Союз не должен останавливаться на моральных принципах. Им следует подумать о том, чтобы потребовать от компаний, занимающихся добычей искусственного интеллекта, соблюдать закон в будущем», — добавил г-н Хидвеги.

Другие скептически относятся к тому, что попытка ЕС определить, как будет развиваться глобальный ИИ посредством этических исследований, будет иметь большой эффект.

«Мы скептически относимся к подходу ведущей организации Европы. Идея о том, что, создав золотой стандарт для этических систем ИИ, ЕС сможет занять свое место в развитии глобальной индустрии ИИ, является относительно надуманной. Чтобы стать лидером в формировании этических правил ИИ, ЕС должен сначала стать лидером в области ИИ в целом», — поделилась Элин Ч. Пивот, старший политический аналитик Европейского центра инноваций в области данных.

Что вы думаете по этому поводу? Пожалуйста, оставьте свои комментарии в разделе комментариев ниже!


Рабочая группа ChatGPT будет создана Европой

Рабочая группа ChatGPT будет создана Европой

Орган, объединяющий европейских национальных наблюдателей за конфиденциальностью, заявил в четверг, что создал целевую группу, посвященную ChatGPT.

ИИ предсказывает время смерти человека с точностью 78%

ИИ предсказывает время смерти человека с точностью 78%

Датские и американские учёные совместно разработали систему искусственного интеллекта под названием life2vec, способную с высокой точностью предсказывать время смерти человека.

ИИ предсказывает заболевания мочевыводящих путей только по звуку мочи

ИИ предсказывает заболевания мочевыводящих путей только по звуку мочи

Алгоритм искусственного интеллекта под названием Audioflow может прослушивать звук мочеиспускания, чтобы эффективно и успешно идентифицировать аномальные выделения и соответствующие проблемы со здоровьем пациента.

Бармены, будьте осторожны: этот робот может приготовить коктейль всего за 1 минуту.

Бармены, будьте осторожны: этот робот может приготовить коктейль всего за 1 минуту.

Старение и сокращение населения Японии привело к тому, что в стране не хватает значительного числа молодых работников, особенно в сфере услуг.

Сотни людей разочаровались, когда узнали, что девушка, которую они любили, была продуктом искусственного интеллекта.

Сотни людей разочаровались, когда узнали, что девушка, которую они любили, была продуктом искусственного интеллекта.

Пользователь Reddit под ником u/LegalBeagle1966 — один из многих пользователей, влюбленных в Клаудию, девушку, похожую на кинозвезду, которая часто делится на этой платформе соблазнительными селфи, даже обнаженными.

Еще 12 потенциальных компаний присоединяются к «ИИ-альянсу» Microsoft.

Еще 12 потенциальных компаний присоединяются к «ИИ-альянсу» Microsoft.

Microsoft только что объявила, что еще 12 технологических компаний примут участие в ее программе AI for Good.

ИИ воссоздает персонажей Dragon Ball из плоти и крови

ИИ воссоздает персонажей Dragon Ball из плоти и крови

Пользователь @mortecouille92 применил возможности инструмента графического дизайна Midjourney и создал уникальные реалистичные версии знаменитых персонажей Dragon Ball, таких как Гоку, Вегета, Булма и старший Каме.

7 методов улучшения ответов ChatGPT

7 методов улучшения ответов ChatGPT

Просто добавив некоторые условия или настроив несколько сценариев, ChatGPT может дать более релевантные ответы на ваши запросы. Давайте посмотрим, как можно улучшить качество ответов ChatGPT.

Полюбуйтесь прекрасными картинами, нарисованными искусственным интеллектом.

Полюбуйтесь прекрасными картинами, нарисованными искусственным интеллектом.

Midjourney — это система искусственного интеллекта, которая в последнее время вызвала «лихорадку» в онлайн-сообществе и мире художников из-за своих чрезвычайно красивых картин, не уступающих работам настоящих художников.

Эта модель ИИ была одним из первых «экспертов», обнаруживших новости о вспышке уханьской пневмонии.

Эта модель ИИ была одним из первых «экспертов», обнаруживших новости о вспышке уханьской пневмонии.

Через несколько дней после того, как Китай объявил о вспышке, имея доступ к глобальным данным о продажах авиабилетов, система искусственного интеллекта BlueDot продолжала точно предсказывать распространение вируса уханьской короны в Бангкоке, Сеуле, Тайбэе и Токио.