Рабочая группа ChatGPT будет создана Европой
Орган, объединяющий европейских национальных наблюдателей за конфиденциальностью, заявил в четверг, что создал целевую группу, посвященную ChatGPT.
"Сто услышанных слов не стоят того, чтобы увидеть", эта пословица может уже не быть точной, когда речь идет о кибербезопасности перед лицом "угрозы" от дипфейков в будущем, вы уже не сможете ничему верить. Я видел это Своими глазами!
Напоминая концепцию, deepfake — это программа, использующая искусственный интеллект , позволяющая пользователям заменять чье-то лицо в видео лицом другого человека. Фактически, оно помогает пользователям создавать фейковый контент, вставляя в видео лица известных людей с целью клеветы или незаконной прибыли. Это также причина, по которой дипфейк стал главной угрозой для развлекательных компаний, знаменитостей и, прежде всего, кибербезопасности.
Стив Гробман, технический директор компании по кибербезопасности McAfee, и Селеста Фралик, один из ведущих мировых специалистов по обработке данных, выступили с предупреждением в программной речи на конференции по безопасности. и это действительно серьезная угроза в будущем. Чтобы доказать это, эти два учёных показали видео, на котором видно, что слова Селесты Фралик были произнесены с изображения, напоминающего лицо Стива Гробмана, хотя Гробман ещё не упоминал об этом и никогда не произносил эти слова. Итак, видно, что нас легко обмануть с помощью дипфейков, поэтому в эту эпоху то, что мы видим и слышим, не обязательно является точным!
«Я использовал ваши публичные комментарии, чтобы создать и обучить модель машинного обучения, которая позволила мне создать дипфейковое видео, в котором мои слова исходили из чужих уст. Это лишь один из бесчисленных способов использования ИИ и машинного обучения в гнусных целях. Это заставляет меня задуматься о наихудшем сценарии, когда злоумышленники могут использовать ИИ, такие вещи, как социальная инженерия и фишинг, где наши злоумышленники теперь могут создавать автоматический таргетинг», — сказала Селеста Фралик.
Фактически, именно дипфейки и искусственный интеллект стали мощными помощниками, которые помогают хакерам создавать персонализированные, целевые онлайн-фишинговые атаки с более высокими показателями успеха и могут проводиться в масштабах автоматических атак.
«Справедливо сказать, что большинство людей не осознают, насколько опасными могут быть ИИ и машинное обучение, и грань между их использованием во благо и во зло очень тонка. Моя команда занимается технической областью, которая называется состязательным машинным обучением. Там мы проводим исследования о том, как злоумышленники могут вторгнуться или отравить иерархию машинного обучения», — добавил г-н Селеста Фралик.
В интервью в понедельник, 4 марта, Стив Гробман рассказал, что он и Селеста Фралик смогли создать дипфейковые видеоролики всего за один уик-энд, не прилагая особых усилий, чтобы сделать их идеальными. Это показывает, что как только квалифицированный злоумышленник, занимающийся дипфейками, определил цель, создать сложные сфабрикованные видеоролики на основе ИИ совсем не сложно.
Один из наиболее распространенных способов обмана между реальным человеком и моделью, созданной ИИ, — это сделать почти реальную фотографию, а затем изменить очень небольшую часть деталей так, чтобы их увидел обычный человек. . Фралик привел пример, в котором фотография пингвина может быть интерпретирована и интерпретирована ИИ как сковорода, благодаря всего лишь нескольким небольшим операциям.
Что интересует Селесту Фралик, так это то, могут ли те же методы, которые используются для запутывания классификаторов изображений, по-прежнему использоваться для того, чтобы запутать их сетевые модели, нас или нет, в частности, здесь есть False Positive (ложная ошибка проверки).
Существует несколько типов ложных срабатываний, например, некоторые небрежные антишпионские программы заставляют пользователей ошибочно думать, что их компьютер атакован шпионским ПО, хотя на самом деле проблем вообще нет. Термин «ложное срабатывание» также можно использовать, когда законные антишпионские приложения ошибочно идентифицируются как угрозы. Говоря подробнее об этой проблеме, профессор Стив Гробман сказал, что ложные срабатывания могут иметь катастрофические последствия. Ярким примером этого стали ужасающие 23 минуты 26 сентября 1983 года – в разгар напряженности холодной войны. Несколько международных центров предупреждения, в том числе США и Советский Союз, выпустили на большой высоте предупреждения о молниеносной атаке, которая потрясла мир, но в конечном итоге это была просто ошибка. В частности, советская сторона обнаружила 5 запущенных и направлявшихся в сторону своей территории американских ядерных ракет и немедленно дала указание привести все вооруженные силы в состояние боевой готовности. Но под вой сирен и мигание экранов подполковник Станислав Петров наконец решил, что инцидент был всего лишь сбоем в компьютерной системе. В частности, Петров утверждал, что США не смогут начать мировую войну, запустив всего пять ракет. Он проигнорировал инструкции, которым его обучали, и благодаря своей интуиции подполковник точно оценил ситуацию, помогая предотвратить ядерную войну.
«Оказалось, что основной причиной инцидента было редкое расположение солнечного света на высоких облаках, создающее эффект, похожий на ракетный. Итак, мы видим, насколько опасными могут быть последствия путаницы в компьютерных системах и даже спровоцировать ядерную войну. Что, если бы Советский Союз в ответ немедленно запустил ракеты? И важно, чтобы мы осознавали истинную силу ИИ в решении проблем, но он также будет палкой о двух концах, если окажется в руках плохих парней, которых полно в сети», — поделился Стив Гробман.
Кроме того, Гробман также заявил, что всегда считал, что технологии – это, по сути, всего лишь неодушевленный инструмент, и их можно применять как в хороших, так и в плохих целях. Например, карта преступности с данными о том, где произошло преступление и где был арестован преступник, может быть использована, чтобы помочь полиции раскрыть преступление, или же она может быть использована самими преступниками для уклонения от полицейского преследования. В другом примере самолет использовался для бомбардировки мирных жителей, что привело к 2 миллионам жертв во время Второй мировой войны. Когда его спросили, сожалеет ли он о изобретении самолета, Орвилл Райт в 1948 году ответил, что, по его мнению, он использует огонь, который может нанести огромный ущерб в случае возникновения пожара, но все же используется для тысяч важных целей. И ИИ тоже.
«Понимание Орвилла показывает нам, что технология по своей сути не имеет морального значения, о ней можно сказать только как о полезной или вредной в зависимости от того, как она используется. И именно с этим постоянно борется наша индустрия кибербезопасности!»
Орган, объединяющий европейских национальных наблюдателей за конфиденциальностью, заявил в четверг, что создал целевую группу, посвященную ChatGPT.
Датские и американские учёные совместно разработали систему искусственного интеллекта под названием life2vec, способную с высокой точностью предсказывать время смерти человека.
Алгоритм искусственного интеллекта под названием Audioflow может прослушивать звук мочеиспускания, чтобы эффективно и успешно идентифицировать аномальные выделения и соответствующие проблемы со здоровьем пациента.
Старение и сокращение населения Японии привело к тому, что в стране не хватает значительного числа молодых работников, особенно в сфере услуг.
Пользователь Reddit под ником u/LegalBeagle1966 — один из многих пользователей, влюбленных в Клаудию, девушку, похожую на кинозвезду, которая часто делится на этой платформе соблазнительными селфи, даже обнаженными.
Microsoft только что объявила, что еще 12 технологических компаний примут участие в ее программе AI for Good.
Пользователь @mortecouille92 применил возможности инструмента графического дизайна Midjourney и создал уникальные реалистичные версии знаменитых персонажей Dragon Ball, таких как Гоку, Вегета, Булма и старший Каме.
Просто добавив некоторые условия или настроив несколько сценариев, ChatGPT может дать более релевантные ответы на ваши запросы. Давайте посмотрим, как можно улучшить качество ответов ChatGPT.
Midjourney — это система искусственного интеллекта, которая в последнее время вызвала «лихорадку» в онлайн-сообществе и мире художников из-за своих чрезвычайно красивых картин, не уступающих работам настоящих художников.
Через несколько дней после того, как Китай объявил о вспышке, имея доступ к глобальным данным о продажах авиабилетов, система искусственного интеллекта BlueDot продолжала точно предсказывать распространение вируса уханьской короны в Бангкоке, Сеуле, Тайбэе и Токио.