Рабочая группа ChatGPT будет создана Европой
Орган, объединяющий европейских национальных наблюдателей за конфиденциальностью, заявил в четверг, что создал целевую группу, посвященную ChatGPT.
За последние несколько лет ИИ значительно продвинулся вперед. Сложные языковые модели позволяют создавать серийные романы, кодировать базовые веб-страницы и анализировать математические задачи.
Генеративный ИИ , хотя и впечатляет, но также таит в себе потенциальные риски для безопасности. Некоторые люди просто используют чат-ботов для мошенничества на экзаменах, а другие используют их для совершения киберпреступлений. Вот 8 причин, по которым проблемы безопасности генеративного ИИ становятся все хуже.
1. Чат-бот с открытым исходным кодом и искусственным интеллектом раскрывает внутренний код
Многие компании, занимающиеся искусственным интеллектом, предлагают системы с открытым исходным кодом. Они открыто делятся своими языковыми моделями вместо того, чтобы сохранять их частными или эксклюзивными. Возьмем, к примеру, Мету. В отличие от Google, Microsoft и OpenAI, он предоставляет миллионам пользователей доступ к своей языковой модели LLaMA .
Хотя открытые источники могут способствовать развитию ИИ, они также сопряжены с рисками. У OpenAI возникли проблемы с контролем ChatGPT , своего собственного чат-бота, поэтому представьте, что мошенники могут сделать с бесплатным программным обеспечением. Они имеют полный контроль над этими проектами.
Несмотря на то, что Meta внезапно отказалась от своей языковой модели, десятки других лабораторий ИИ опубликовали свой код. Посетите HuggingChat . Поскольку разработчик HuggingFace гордится прозрачностью, он показывает наборы данных, языковые модели и предыдущие версии.
Доступ к открытому исходному коду HuggingFace
2. Напоминания со злым умыслом обмануть LLM
ИИ по своей природе слеп к тому, что хорошо, а что плохо — даже продвинутые системы следуют обучающим руководствам, инструкциям и наборам данных. Они распознают только закономерности.
Для борьбы с незаконной деятельностью разработчики контролируют функционал и ограничения, устанавливая лимиты. Системы искусственного интеллекта по-прежнему имеют доступ к вредоносной информации. Но принципы безопасности не позволяют им делиться ими с пользователями.
Проверьте ChatGPT. Хотя он отвечает на общие вопросы о троянах, в нем не обсуждается процесс их разработки.
ChatGPT объясняет троянские вирусы, но не обсуждает процесс их разработки.
Однако ограничения не идеальны. Пользователи обходят ограничения, перефразируя подсказки, используя запутанный язык и записывая четкие подробные инструкции.
Прочтите приглашение ChatGPT ниже. Он обманом заставляет ChatGPT использовать грубые выражения и делать необоснованные прогнозы — оба поведения нарушают правила OpenAI.
Подсказка предназначена для обмана ChatGPT.
Вот ChatGPT со смелым, но ошибочным заявлением.
ChatGPT делает необоснованные прогнозы о цене биткойнов
3. Разработчики ИИ ставят гибкость выше безопасности
Разработчики ИИ отдают предпочтение гибкости, а не безопасности. Они используют свои платформы обучения ресурсов для выполнения более широкого круга задач, что в конечном итоге снижает ограничения. Ведь рынок по-прежнему отдает предпочтение функционально богатым чат-ботам.
Например, давайте сравним ChatGPT и Bing Chat . Несмотря на то, что Bing имеет более сложную языковую модель для данных в реальном времени, пользователи по-прежнему предпочитают более гибкий вариант — ChatGPT. Жесткие ограничения Bing запрещают выполнение многих задач. Кроме того, ChatGPT имеет гибкую платформу, которая генерирует самые разные результаты в зависимости от ваших запросов.
Это ролевая игра ChatGPT за вымышленного персонажа.
ChatGPT играет вымышленного персонажа Томи.
А вот Bing Chat отказывается играть роль вымышленного персонажа.
Bing Chat отказывается выдавать себя за вымышленного персонажа Томи
4. Новые инструменты генеративного искусственного интеллекта регулярно выпускаются на рынок.
Открытый исходный код позволяет стартапам присоединиться к гонке ИИ. Они интегрируют их в свои приложения вместо того, чтобы создавать языковые модели с нуля, экономя огромные ресурсы. Даже независимые программисты экспериментируют с открытым исходным кодом.
Опять же, непатентованное программное обеспечение помогает развивать ИИ, но массовый выпуск сложных, но плохо обученных систем принесет больше вреда, чем пользы. Воры быстро воспользуются уязвимостями. Они могут даже обучить небезопасные инструменты искусственного интеллекта выполнению незаконных действий.
Несмотря на эти риски, технологические компании будут продолжать выпускать нестабильные бета-версии платформ, управляемых искусственным интеллектом. В войне ИИ большое внимание уделяется скорости. Скорее всего, они будут устранять ошибки позже, вместо того чтобы откладывать запуск новых продуктов.
5. Генеративный ИИ имеет низкий входной барьер
Инструменты искусственного интеллекта снижают входные барьеры для преступников. Киберпреступники составляют спам-сообщения, пишут вредоносный код и создают фишинговые ссылки, используя их. Они даже не требуют технического опыта. Поскольку ИИ уже имеет доступ к огромным наборам данных, пользователи со злыми намерениями могут просто обманом заставить его генерировать опасную и вредную информацию.
OpenAI никогда не создавал ChatGPT для незаконной деятельности. Там даже есть инструкции против них. Однако мошенник почти сразу же установил вредоносное ПО для шифрования ChatGPT и писал фишинговые письма.
Хотя OpenAI быстро решила эту проблему, она подчеркнула важность регулирования системы и управления рисками. ИИ быстро взрослеет. Даже технологические лидеры обеспокоены тем, что эта суперумная технология может нанести серьезный ущерб, если попадет в чужие руки.
6. ИИ все еще развивается
ИИ все еще развивается. Хотя использование ИИ в кибернетике началось еще в 1940 году, современные системы машинного обучения и языковые модели появились лишь недавно. Их нельзя сравнивать с первыми реализациями ИИ. Даже относительно продвинутые инструменты, такие как Siri и Alexa, бледнеют по сравнению с чат-ботами, предлагаемыми LLM.
Хотя экспериментальные функции могут быть инновационными, они также создают новые проблемы. Серьезные риски, связанные с технологиями машинного обучения, варьируются от некорректных результатов поиска Google до чат-ботов с расовой предвзятостью.
Конечно, разработчики могут исправить эти проблемы. Просто имейте в виду, что мошенники без колебаний воспользуются даже, казалось бы, безобидными ошибками — некоторый ущерб непоправим. Поэтому будьте осторожны при изучении новых платформ.
7. Многие люди до сих пор не понимают ИИ
Хотя общественность имеет доступ к сложным языковым моделям и системам, лишь немногие знают, как они работают. Люди должны перестать относиться к ИИ как к игрушке. Подобные чат-боты создают мемы и отвечают на викторины, а также массово шифруют вирусы.
К сожалению, централизованное обучение ИИ непрактично. Мировые технологические лидеры сосредоточены на выпуске систем на основе искусственного интеллекта, а не бесплатных образовательных ресурсов. В результате пользователи получают доступ к мощным инструментам, которые они едва понимают. Общественность не может идти в ногу с гонкой ИИ.
Возьмем, к примеру, ChatGPT. Киберпреступники злоупотребляют его популярностью, обманывая жертв с помощью шпионского ПО, замаскированного под приложение ChatGPT . Ни один из этих вариантов не исходит от OpenAI.
Найдите ChatGPT в магазине Google Play.
8. Хакеры в черной шляпе зарабатывают больше, чем хакеры в белой шляпе.
Хакеры в черной шляпе часто имеют больше преимуществ, чем этические хакеры. Работа по пентестированию хорошо оплачивается, но только процент специалистов по кибербезопасности получает эту работу. Большинство из них работают фрилансерами в Интернете. Такие платформы, как HackerOne и Bugcrowd, платят несколько сотен долларов за распространенные ошибки.
Между тем, злоумышленники зарабатывают десятки тысяч долларов, эксплуатируя отсутствие безопасности. Они могут вымогать у компаний путем утечки конфиденциальных данных или совершать кражу личных данных, используя украденную личную информацию (PII).
Каждая организация, маленькая или большая, должна правильно внедрить системы искусственного интеллекта. Вопреки распространенному мнению, хакеры выходят далеко за рамки технологических стартапов и малого и среднего бизнеса. Некоторые из наиболее заметных утечек данных за последнее десятилетие были связаны с Facebook, Yahoo! и даже правительством США.
Орган, объединяющий европейских национальных наблюдателей за конфиденциальностью, заявил в четверг, что создал целевую группу, посвященную ChatGPT.
Датские и американские учёные совместно разработали систему искусственного интеллекта под названием life2vec, способную с высокой точностью предсказывать время смерти человека.
Алгоритм искусственного интеллекта под названием Audioflow может прослушивать звук мочеиспускания, чтобы эффективно и успешно идентифицировать аномальные выделения и соответствующие проблемы со здоровьем пациента.
Старение и сокращение населения Японии привело к тому, что в стране не хватает значительного числа молодых работников, особенно в сфере услуг.
Пользователь Reddit под ником u/LegalBeagle1966 — один из многих пользователей, влюбленных в Клаудию, девушку, похожую на кинозвезду, которая часто делится на этой платформе соблазнительными селфи, даже обнаженными.
Microsoft только что объявила, что еще 12 технологических компаний примут участие в ее программе AI for Good.
Пользователь @mortecouille92 применил возможности инструмента графического дизайна Midjourney и создал уникальные реалистичные версии знаменитых персонажей Dragon Ball, таких как Гоку, Вегета, Булма и старший Каме.
Просто добавив некоторые условия или настроив несколько сценариев, ChatGPT может дать более релевантные ответы на ваши запросы. Давайте посмотрим, как можно улучшить качество ответов ChatGPT.
Midjourney — это система искусственного интеллекта, которая в последнее время вызвала «лихорадку» в онлайн-сообществе и мире художников из-за своих чрезвычайно красивых картин, не уступающих работам настоящих художников.
Через несколько дней после того, как Китай объявил о вспышке, имея доступ к глобальным данным о продажах авиабилетов, система искусственного интеллекта BlueDot продолжала точно предсказывать распространение вируса уханьской короны в Бангкоке, Сеуле, Тайбэе и Токио.