Эксперт McAfee объясняет, как дипфейк и искусственный интеллект преодолевают стены кибербезопасности

Эксперт McAfee объясняет, как дипфейк и искусственный интеллект преодолевают стены кибербезопасности

"Сто услышанных слов не стоят того, чтобы увидеть", эта пословица может уже не быть точной, когда речь идет о кибербезопасности перед лицом "угрозы" от дипфейков в будущем, вы уже не сможете ничему верить. Я видел это Своими глазами!

Напоминая концепцию, deepfake — это программа, использующая искусственный интеллект , позволяющая пользователям заменять чье-то лицо в видео лицом другого человека. Фактически, оно помогает пользователям создавать фейковый контент, вставляя в видео лица известных людей с целью клеветы или незаконной прибыли. Это также причина, по которой дипфейк стал главной угрозой для развлекательных компаний, знаменитостей и, прежде всего, кибербезопасности.

Эксперт McAfee объясняет, как дипфейк и искусственный интеллект преодолевают стены кибербезопасности

Стив Гробман, технический директор компании по кибербезопасности McAfee, и Селеста Фралик, один из ведущих мировых специалистов по обработке данных, выступили с предупреждением в программной речи на конференции по безопасности. и это действительно серьезная угроза в будущем. Чтобы доказать это, эти два учёных показали видео, на котором видно, что слова Селесты Фралик были произнесены с изображения, напоминающего лицо Стива Гробмана, хотя Гробман ещё не упоминал об этом и никогда не произносил эти слова. Итак, видно, что нас легко обмануть с помощью дипфейков, поэтому в эту эпоху то, что мы видим и слышим, не обязательно является точным!

«Я использовал ваши публичные комментарии, чтобы создать и обучить модель машинного обучения, которая позволила мне создать дипфейковое видео, в котором мои слова исходили из чужих уст. Это лишь один из бесчисленных способов использования ИИ и машинного обучения в гнусных целях. Это заставляет меня задуматься о наихудшем сценарии, когда злоумышленники могут использовать ИИ, такие вещи, как социальная инженерия и фишинг, где наши злоумышленники теперь могут создавать автоматический таргетинг», — сказала Селеста Фралик.

Эксперт McAfee объясняет, как дипфейк и искусственный интеллект преодолевают стены кибербезопасности

Фактически, именно дипфейки и искусственный интеллект стали мощными помощниками, которые помогают хакерам создавать персонализированные, целевые онлайн-фишинговые атаки с более высокими показателями успеха и могут проводиться в масштабах автоматических атак.

«Справедливо сказать, что большинство людей не осознают, насколько опасными могут быть ИИ и машинное обучение, и грань между их использованием во благо и во зло очень тонка. Моя команда занимается технической областью, которая называется состязательным машинным обучением. Там мы проводим исследования о том, как злоумышленники могут вторгнуться или отравить иерархию машинного обучения», — добавил г-н Селеста Фралик.

В интервью в понедельник, 4 марта, Стив Гробман рассказал, что он и Селеста Фралик смогли создать дипфейковые видеоролики всего за один уик-энд, не прилагая особых усилий, чтобы сделать их идеальными. Это показывает, что как только квалифицированный злоумышленник, занимающийся дипфейками, определил цель, создать сложные сфабрикованные видеоролики на основе ИИ совсем не сложно.

Один из наиболее распространенных способов обмана между реальным человеком и моделью, созданной ИИ, — это сделать почти реальную фотографию, а затем изменить очень небольшую часть деталей так, чтобы их увидел обычный человек. . Фралик привел пример, в котором фотография пингвина может быть интерпретирована и интерпретирована ИИ как сковорода, благодаря всего лишь нескольким небольшим операциям.

Что интересует Селесту Фралик, так это то, могут ли те же методы, которые используются для запутывания классификаторов изображений, по-прежнему использоваться для того, чтобы запутать их сетевые модели, нас или нет, в частности, здесь есть False Positive (ложная ошибка проверки).

Эксперт McAfee объясняет, как дипфейк и искусственный интеллект преодолевают стены кибербезопасности

Существует несколько типов ложных срабатываний, например, некоторые небрежные антишпионские программы заставляют пользователей ошибочно думать, что их компьютер атакован шпионским ПО, хотя на самом деле проблем вообще нет. Термин «ложное срабатывание» также можно использовать, когда законные антишпионские приложения ошибочно идентифицируются как угрозы. Говоря подробнее об этой проблеме, профессор Стив Гробман сказал, что ложные срабатывания могут иметь катастрофические последствия. Ярким примером этого стали ужасающие 23 минуты 26 сентября 1983 года – в разгар напряженности холодной войны. Несколько международных центров предупреждения, в том числе США и Советский Союз, выпустили на большой высоте предупреждения о молниеносной атаке, которая потрясла мир, но в конечном итоге это была просто ошибка. В частности, советская сторона обнаружила 5 запущенных и направлявшихся в сторону своей территории американских ядерных ракет и немедленно дала указание привести все вооруженные силы в состояние боевой готовности. Но под вой сирен и мигание экранов подполковник Станислав Петров наконец решил, что инцидент был всего лишь сбоем в компьютерной системе. В частности, Петров утверждал, что США не смогут начать мировую войну, запустив всего пять ракет. Он проигнорировал инструкции, которым его обучали, и благодаря своей интуиции подполковник точно оценил ситуацию, помогая предотвратить ядерную войну.

«Оказалось, что основной причиной инцидента было редкое расположение солнечного света на высоких облаках, создающее эффект, похожий на ракетный. Итак, мы видим, насколько опасными могут быть последствия путаницы в компьютерных системах и даже спровоцировать ядерную войну. Что, если бы Советский Союз в ответ немедленно запустил ракеты? И важно, чтобы мы осознавали истинную силу ИИ в решении проблем, но он также будет палкой о двух концах, если окажется в руках плохих парней, которых полно в сети», — поделился Стив Гробман.

Эксперт McAfee объясняет, как дипфейк и искусственный интеллект преодолевают стены кибербезопасности

Кроме того, Гробман также заявил, что всегда считал, что технологии – это, по сути, всего лишь неодушевленный инструмент, и их можно применять как в хороших, так и в плохих целях. Например, карта преступности с данными о том, где произошло преступление и где был арестован преступник, может быть использована, чтобы помочь полиции раскрыть преступление, или же она может быть использована самими преступниками для уклонения от полицейского преследования. В другом примере самолет использовался для бомбардировки мирных жителей, что привело к 2 миллионам жертв во время Второй мировой войны. Когда его спросили, сожалеет ли он о изобретении самолета, Орвилл Райт в 1948 году ответил, что, по его мнению, он использует огонь, который может нанести огромный ущерб в случае возникновения пожара, но все же используется для тысяч важных целей. И ИИ тоже.

«Понимание Орвилла показывает нам, что технология по своей сути не имеет морального значения, о ней можно сказать только как о полезной или вредной в зависимости от того, как она используется. И именно с этим постоянно борется наша индустрия кибербезопасности!»


Рабочая группа ChatGPT будет создана Европой

Рабочая группа ChatGPT будет создана Европой

Орган, объединяющий европейских национальных наблюдателей за конфиденциальностью, заявил в четверг, что создал целевую группу, посвященную ChatGPT.

ИИ предсказывает время смерти человека с точностью 78%

ИИ предсказывает время смерти человека с точностью 78%

Датские и американские учёные совместно разработали систему искусственного интеллекта под названием life2vec, способную с высокой точностью предсказывать время смерти человека.

ИИ предсказывает заболевания мочевыводящих путей только по звуку мочи

ИИ предсказывает заболевания мочевыводящих путей только по звуку мочи

Алгоритм искусственного интеллекта под названием Audioflow может прослушивать звук мочеиспускания, чтобы эффективно и успешно идентифицировать аномальные выделения и соответствующие проблемы со здоровьем пациента.

Бармены, будьте осторожны: этот робот может приготовить коктейль всего за 1 минуту.

Бармены, будьте осторожны: этот робот может приготовить коктейль всего за 1 минуту.

Старение и сокращение населения Японии привело к тому, что в стране не хватает значительного числа молодых работников, особенно в сфере услуг.

Сотни людей разочаровались, когда узнали, что девушка, которую они любили, была продуктом искусственного интеллекта.

Сотни людей разочаровались, когда узнали, что девушка, которую они любили, была продуктом искусственного интеллекта.

Пользователь Reddit под ником u/LegalBeagle1966 — один из многих пользователей, влюбленных в Клаудию, девушку, похожую на кинозвезду, которая часто делится на этой платформе соблазнительными селфи, даже обнаженными.

Еще 12 потенциальных компаний присоединяются к «ИИ-альянсу» Microsoft.

Еще 12 потенциальных компаний присоединяются к «ИИ-альянсу» Microsoft.

Microsoft только что объявила, что еще 12 технологических компаний примут участие в ее программе AI for Good.

ИИ воссоздает персонажей Dragon Ball из плоти и крови

ИИ воссоздает персонажей Dragon Ball из плоти и крови

Пользователь @mortecouille92 применил возможности инструмента графического дизайна Midjourney и создал уникальные реалистичные версии знаменитых персонажей Dragon Ball, таких как Гоку, Вегета, Булма и старший Каме.

7 методов улучшения ответов ChatGPT

7 методов улучшения ответов ChatGPT

Просто добавив некоторые условия или настроив несколько сценариев, ChatGPT может дать более релевантные ответы на ваши запросы. Давайте посмотрим, как можно улучшить качество ответов ChatGPT.

Полюбуйтесь прекрасными картинами, нарисованными искусственным интеллектом.

Полюбуйтесь прекрасными картинами, нарисованными искусственным интеллектом.

Midjourney — это система искусственного интеллекта, которая в последнее время вызвала «лихорадку» в онлайн-сообществе и мире художников из-за своих чрезвычайно красивых картин, не уступающих работам настоящих художников.

Эта модель ИИ была одним из первых «экспертов», обнаруживших новости о вспышке уханьской пневмонии.

Эта модель ИИ была одним из первых «экспертов», обнаруживших новости о вспышке уханьской пневмонии.

Через несколько дней после того, как Китай объявил о вспышке, имея доступ к глобальным данным о продажах авиабилетов, система искусственного интеллекта BlueDot продолжала точно предсказывать распространение вируса уханьской короны в Бангкоке, Сеуле, Тайбэе и Токио.