Рабочая группа ChatGPT будет создана Европой
Орган, объединяющий европейских национальных наблюдателей за конфиденциальностью, заявил в четверг, что создал целевую группу, посвященную ChatGPT.
Сегодня Европейский Союз официально выпустил набор руководящих документов о том, как предприятиям и правительствам следует следовать при разработке и внедрении своих проектов искусственного интеллекта, чтобы они были по-настоящему прозрачными, справедливыми и «этичными».
Это внезапно напоминает мне закон под названием «Три закона робототехники», упомянутый русским писателем Айзеком Азимовым в сборнике рассказов «Обход», который он составил в 1942 году, что-то вроде первого: роботу не разрешается причинять вред людям или игнорировать опасности, которые лица людей. Статья 2: Робот должен полностью подчиняться приказам, отдаваемым людьми, если только эти приказы не противоречат первому закону. И третье: Робот должен защищать себя при условии, что такая защита не противоречит первому и второму законам. Хотя это всего лишь набор «вымышленных» правил, появившийся почти 80 лет назад, он по-прежнему особенно актуален, когда люди постепенно вступают в современную эпоху искусственного интеллекта. Конечно, новый свод правил, изданный ЕС, по своей сути не будет таким же, как закон Айзека Азимова «Три закона робототехники». Европейские законодатели не могут обеспечить гибкую этическую основу, которая помогла бы нам решать такие важные задачи, как остановка роботов-убийц. Вместо этого руководящие документы ЕС помогают решать «темные и широко распространенные» проблемы, которые оказывают негативное влияние на общество, поскольку мы интегрируем ИИ во многие важные сферы нашей жизни, такие как здравоохранение, образование и потребительские технологии.
В качестве простого примера: если медицинская система искусственного интеллекта диагностирует человека с высоким риском развития рака в будущем, рекомендации ЕС помогут гарантировать, что необходимо выполнить некоторые из следующих действий: расы или пола и в то же время предоставлять максимально четкую и прозрачную информацию о своем состоянии здоровья и особенно не должны вмешиваться или препятствовать решениям врача.
Так что да, эти рекомендации в основном сосредоточены на ограничении и контроле над правильной работой моделей ИИ, но только на административном и бюрократическом уровне, а не на предотвращении убийств, согласно воображению писателя Азимова.
Чтобы подготовить этот набор руководящих документов, ЕС пришлось созвать группу из 52 экспертов, попросив их обсудить, согласовать и выдвинуть 7 требований, которым, по их мнению, должны соответствовать будущие системы ИИ. Эти требования заключаются в следующем:
Вы, вероятно, заметите, что некоторые из приведенных выше утверждений довольно абстрактны и их трудно оценить в объективном смысле (например, определение позитивных социальных изменений, которые приносит ИИ, будет сильно различаться от человека к человеку и, в более широком смысле, между странами. ). Однако большинство остальных пунктов, как правило, проще и могут быть проверены и гарантированы надзором органов власти. Например, обмен данными, используемыми для обучения правительственных систем искусственного интеллекта, может стать хорошим способом борьбы с предвзятыми и непрозрачными алгоритмами.
Положения этих руководящих документов ЕС явно не являются юридически обязательными, но они могут быть использованы для формирования любого будущего законодательства, разрабатываемого Европейским Союзом и касающегося области ИИ. В прошлом ЕС неоднократно заявлял, что хочет сделать Европу пионером в мире по внедрению «этических» моделей ИИ и запуску набора руководящих документов. Это ясно показывает, что они готовы разработать далеко идущие законы. регулирование и защита цифровых прав.
ЕС хочет сформировать индустрию искусственного интеллекта, в основе которой лежат этические стандарты
В рамках усилий по созданию «этичной» индустрии ИИ руководящий документ ЕС можно рассматривать как ступеньку к созданию «списка доверенных оценок ИИ» — списка терминов, которые могут помочь экспертам найти любые слабые места или потенциальные опасности в ИИ. программное обеспечение, даже если оно было широко развернуто. Этот список может включать такие вопросы, как: «Можете ли вы продемонстрировать, как ваша система ИИ работает в сложных ситуациях и средах?» или «Можете ли вы оценить тип и объем данных в вашем наборе данных?» ...
Конечно, этот оценочный список является лишь предварительным, Евросоюзу еще предстоит собрать отзывы от компаний и экспертов по искусственному интеллекту в ближайшем будущем. Уже в 2020 году ЕС опубликует сводный доклад по этому вопросу.
Анни Хидвеги, политический менеджер группы по цифровым правам Access Now и один из 52 экспертов, ответственных за разработку руководящих документов ЕС, сказала, что оценочный список является ключевой частью. , дальновидный взгляд на то, как предотвратить и минимизировать потенциальный вред от ИИ».
«На наш взгляд, у ЕС достаточно потенциала и ответственности, чтобы стать ведущей организацией в этой работе. Но кроме этого, мы также считаем, что Европейский Союз не должен останавливаться на моральных принципах. Им следует подумать о том, чтобы потребовать от компаний, занимающихся добычей искусственного интеллекта, соблюдать закон в будущем», — добавил г-н Хидвеги.
Другие скептически относятся к тому, что попытка ЕС определить, как будет развиваться глобальный ИИ посредством этических исследований, будет иметь большой эффект.
«Мы скептически относимся к подходу ведущей организации Европы. Идея о том, что, создав золотой стандарт для этических систем ИИ, ЕС сможет занять свое место в развитии глобальной индустрии ИИ, является относительно надуманной. Чтобы стать лидером в формировании этических правил ИИ, ЕС должен сначала стать лидером в области ИИ в целом», — поделилась Элин Ч. Пивот, старший политический аналитик Европейского центра инноваций в области данных.
Что вы думаете по этому поводу? Пожалуйста, оставьте свои комментарии в разделе комментариев ниже!
Орган, объединяющий европейских национальных наблюдателей за конфиденциальностью, заявил в четверг, что создал целевую группу, посвященную ChatGPT.
Датские и американские учёные совместно разработали систему искусственного интеллекта под названием life2vec, способную с высокой точностью предсказывать время смерти человека.
Алгоритм искусственного интеллекта под названием Audioflow может прослушивать звук мочеиспускания, чтобы эффективно и успешно идентифицировать аномальные выделения и соответствующие проблемы со здоровьем пациента.
Старение и сокращение населения Японии привело к тому, что в стране не хватает значительного числа молодых работников, особенно в сфере услуг.
Пользователь Reddit под ником u/LegalBeagle1966 — один из многих пользователей, влюбленных в Клаудию, девушку, похожую на кинозвезду, которая часто делится на этой платформе соблазнительными селфи, даже обнаженными.
Microsoft только что объявила, что еще 12 технологических компаний примут участие в ее программе AI for Good.
Пользователь @mortecouille92 применил возможности инструмента графического дизайна Midjourney и создал уникальные реалистичные версии знаменитых персонажей Dragon Ball, таких как Гоку, Вегета, Булма и старший Каме.
Просто добавив некоторые условия или настроив несколько сценариев, ChatGPT может дать более релевантные ответы на ваши запросы. Давайте посмотрим, как можно улучшить качество ответов ChatGPT.
Midjourney — это система искусственного интеллекта, которая в последнее время вызвала «лихорадку» в онлайн-сообществе и мире художников из-за своих чрезвычайно красивых картин, не уступающих работам настоящих художников.
Через несколько дней после того, как Китай объявил о вспышке, имея доступ к глобальным данным о продажах авиабилетов, система искусственного интеллекта BlueDot продолжала точно предсказывать распространение вируса уханьской короны в Бангкоке, Сеуле, Тайбэе и Токио.