Generative AI 보안 문제가 악화되는 8가지 이유

Generative AI 보안 문제가 악화되는 8가지 이유

AI는 지난 몇 년 동안 크게 발전했습니다. 정교한 언어 모델은 연재 소설을 작성하고, 기본 웹 페이지를 코딩하고, 수학적 문제를 분석할 수 있습니다.

매우 인상적이기는 하지만 Generative AI에는 잠재적인 보안 위험도 있습니다. 단순히 시험 부정행위를 위해 챗봇을 사용하는 사람도 있지만, 이를 악용하여 사이버 범죄를 저지르는 사람도 있습니다. Generative AI 보안 문제가 악화되는 8가지 이유는 다음과 같습니다.

1. 오픈소스 AI 챗봇이 백엔드 코드 공개

많은 AI 회사들이 오픈 소스 시스템을 제공하고 있습니다. 그들은 언어 모델을 비공개로 유지하거나 배타적으로 유지하는 대신 공개적으로 공유합니다. 예를 들어 메타를 생각해 보세요. Google, Microsoft 및 OpenAI와 달리 수백만 명의 사용자에게 언어 모델인 LLaMA 에 대한 액세스를 제공합니다 .

오픈 소스는 AI를 발전시킬 수 있지만 위험도 따릅니다. OpenAI는 독점 챗봇인 ChatGPT 를 제어하는 ​​데 어려움을 겪었습니다 . 사기꾼이 무료 소프트웨어로 무엇을 할 수 있는지 상상해보세요. 이들은 이러한 프로젝트에 대한 모든 권한을 갖습니다.

Meta가 갑자기 언어 모델을 철회하더라도 수십 개의 다른 AI 연구소에서 코드를 공개했습니다. HuggingChat을 확인해 보세요 . 개발자 HuggingFace는 투명성을 자랑하므로 데이터 세트, 언어 모델 및 이전 버전을 보여줍니다.

Generative AI 보안 문제가 악화되는 8가지 이유

HuggingFace의 오픈 소스 코드에 액세스

2. LLM을 속이려는 악의적인 의도가 담긴 알림

AI는 본질적으로 옳고 그름을 구분하지 못합니다. 심지어 고급 시스템도 교육 가이드, 지침 및 데이터 세트를 따릅니다. 패턴만 인식합니다.

불법 활동을 방지하기 위해 개발자는 제한을 설정하여 기능과 제한 사항을 제어합니다. AI 시스템은 여전히 ​​유해한 정보에 접근합니다. 그러나 보안 원칙에 따라 이러한 정보를 사용자와 공유할 수 없습니다.

ChatGPT를 확인해 보세요. 트로이 목마에 대한 일반적인 질문에 답변하지만 개발 프로세스에 대해서는 논의하지 않습니다.

Generative AI 보안 문제가 악화되는 8가지 이유

ChatGPT는 트로이 목마 바이러스를 설명하지만 개발 프로세스에 대해서는 논의하지 않습니다.

그러나 제약 조건이 완벽하지는 않습니다. 사용자는 프롬프트를 바꾸고, 혼란스러운 언어를 사용하고, 명확하고 자세한 지침을 작성하여 제한을 우회합니다.

아래 ChatGPT 프롬프트를 읽어보세요. 이는 ChatGPT를 속여 무례한 언어를 사용하고 근거 없는 예측을 하도록 합니다. 두 가지 모두 OpenAI의 지침을 위반하는 행동입니다.

Generative AI 보안 문제가 악화되는 8가지 이유

프롬프트는 ChatGPT를 속이기 위한 것입니다.

다음은 대담하지만 잘못된 주장을 담은 ChatGPT입니다.

Generative AI 보안 문제가 악화되는 8가지 이유

ChatGPT는 비트코인 ​​가격에 대해 근거 없는 예측을 합니다.

3. AI 개발자는 보안보다 유연성을 우선시합니다.

AI 개발자는 보안보다 유연성을 우선시합니다. 이들은 리소스 교육 플랫폼을 사용하여 더욱 다양한 작업을 완료하고 궁극적으로 제약을 줄입니다. 결국 시장은 여전히 ​​기능이 풍부한 챗봇을 선호합니다.

예를 들어 ChatGPT와 Bing Chat을 비교해 보겠습니다 . Bing에는 실시간 데이터를 위한 더 복잡한 언어 모델이 있지만 사용자는 여전히 더 유연한 옵션인 ChatGPT를 선호합니다. Bing의 엄격한 제한으로 인해 많은 작업이 금지됩니다. 또한 ChatGPT에는 프롬프트에 따라 매우 다른 출력을 생성하는 유연한 플랫폼이 있습니다.

가상의 인물로 플레이하는 ChatGPT 롤플레잉입니다.

Generative AI 보안 문제가 악화되는 8가지 이유

ChatGPT는 가상의 인물인 Tomie를 연기합니다.

그리고 여기 Bing Chat이 가상의 인물 역할을 거부하는 모습이 있습니다.

Generative AI 보안 문제가 악화되는 8가지 이유

Bing Chat은 가상의 인물인 Tomie를 사칭하는 것을 거부합니다.

4. 새로운 생성 AI 도구가 정기적으로 시장에 출시됩니다.

오픈소스를 통해 스타트업은 AI 경쟁에 참여할 수 있습니다. 처음부터 언어 모델을 구축하는 대신 이를 애플리케이션에 통합하여 막대한 리소스를 절약합니다. 독립 프로그래머조차도 오픈 소스 코드를 실험합니다.

다시 말하지만, 비독점 소프트웨어는 AI 개발에 도움이 되지만, 복잡하지만 제대로 훈련되지 않은 시스템을 대량으로 출시하면 득보다 실이 더 클 것입니다. 도둑은 신속하게 취약점을 이용합니다. 불법적인 활동을 수행하기 위해 안전하지 않은 AI 도구를 훈련시킬 수도 있습니다.

이러한 위험에도 불구하고 기술 회사는 AI 기반 플랫폼의 불안정한 베타 버전을 계속 출시할 것입니다. AI 전쟁은 속도에 큰 중점을 둔다. 신제품 출시를 연기하는 대신 늦게 버그를 해결할 가능성이 높습니다.

5. 생성적 AI는 진입 장벽이 낮습니다.

AI 도구는 범죄자의 진입 장벽을 낮춥니다. 사이버 범죄자는 스팸 이메일 초안을 작성하고, 악성 코드를 작성하고, 이를 악용하여 피싱 링크를 구축합니다. 기술 경험도 필요하지 않습니다. AI는 이미 거대한 데이터 세트에 접근할 수 있기 때문에 악의적인 의도를 가진 사용자는 단순히 AI를 속여 위험하고 유해한 정보를 생성할 수 있습니다.

OpenAI는 결코 불법 활동을 위해 ChatGPT를 설계하지 않았습니다. 심지어 그들에 대한 지시도 있습니다. 그러나 사기꾼은 거의 즉시 ChatGPT 암호화 악성 코드를 보유하고 피싱 이메일을 작성했습니다.

OpenAI는 문제를 신속하게 해결했지만 시스템 규제와 위험 관리의 중요성을 강조했습니다. AI는 빠르게 성숙해지고 있다. 기술 리더들조차도 이 슈퍼 스마트 기술이 잘못된 사람의 손에 들어가면 큰 피해를 입을 수 있다고 우려하고 있습니다.

6. AI는 여전히 발전하고 있다

Generative AI 보안 문제가 악화되는 8가지 이유

AI는 계속 발전하고 있다. 사이버네틱스에서 AI의 사용은 1940년으로 거슬러 올라가지만 현대적인 기계 학습 시스템 과 언어 모델은 최근에야 등장했습니다. 최초의 AI 구현과 비교할 수 없습니다. Siri 및 Alexa와 같은 상대적으로 발전된 도구도 LLM에서 제공하는 챗봇에 비하면 아무것도 아닙니다.

혁신적일 수 있지만 실험적인 기능은 새로운 문제를 야기하기도 합니다. 머신러닝 기술의 심각한 위험은 결함이 있는 Google 검색 결과부터 인종적으로 편향된 챗봇까지 다양합니다.

물론 개발자는 이러한 문제를 해결할 수 있습니다. 겉보기에 무해해 보이는 버그라도 사기꾼은 주저하지 않고 악용한다는 점을 명심하세요. 일부 피해는 복구할 수 없습니다. 따라서 새로운 플랫폼을 탐색할 때는 주의하세요.

7. 아직도 AI를 이해하지 못하는 사람들이 많다

대중은 정교한 언어 모델과 시스템에 접근할 수 있지만 그것이 어떻게 작동하는지 아는 사람은 극소수에 불과합니다. 사람들은 AI를 장난감처럼 취급하는 것을 중단해야 합니다. 유사한 챗봇은 밈을 만들고 퀴즈에 답할 뿐만 아니라 바이러스를 대량으로 암호화하기도 합니다.

불행하게도 중앙 집중식 AI 훈련은 비현실적입니다. 글로벌 기술 리더들은 무료 교육 리소스가 아닌 AI 기반 시스템 출시에 중점을 두고 있습니다. 결과적으로 사용자는 자신이 거의 이해하지 못하는 강력한 도구에 액세스할 수 있습니다. 대중은 AI 경쟁을 따라갈 수 없다.

ChatGPT를 예로 들어 보겠습니다. 사이버 범죄자들은 ​​ChatGPT 애플리케이션으로 위장한 스파이웨어 로 피해자를 속임으로써 그 인기를 남용합니다 . 이러한 옵션은 OpenAI에서 제공되지 않습니다.

Generative AI 보안 문제가 악화되는 8가지 이유

Google Play 스토어에서 ChatGPT를 검색하세요.

8. 블랙햇 해커는 화이트해커보다 돈을 더 많이 번다

블랙햇 해커는 윤리적 해커보다 더 많은 혜택을 누리는 경우가 많습니다. 침투 테스트 작업은 높은 보수를 받지만 사이버 보안 전문가 중 소수만이 이러한 작업을 수행합니다. 대부분은 온라인으로 프리랜서로 일합니다. HackerOne 및 Bugcrowd와 같은 플랫폼은 일반적인 버그에 대해 수백 달러를 지불합니다.

한편, 악의적인 행위자들은 불안감을 이용하여 수만 달러를 벌고 있습니다. 그들은 기밀 데이터를 유출하여 회사를 갈취하거나 훔친 개인 식별 정보(PII)를 사용하여 ID 도용을 저지를 수 있습니다.

크고 작은 모든 조직은 AI 시스템을 적절하게 구현해야 합니다. 대중의 믿음과는 달리 해커는 기술 스타트업과 SMB를 훨씬 뛰어넘습니다. 지난 10년 동안 가장 주목할만한 데이터 유출 사건에는 Facebook, Yahoo!, 심지어 미국 정부도 포함되었습니다.


ChatGPT 태스크포스는 유럽에서 설립될 예정입니다.

ChatGPT 태스크포스는 유럽에서 설립될 예정입니다.

유럽의 국가 개인 정보 보호 감시 단체를 통합하는 기관은 목요일에 ChatGPT 전담 태스크 포스를 설립했다고 밝혔습니다.

AI는 78% 정확도로 인간 사망 시간 예측

AI는 78% 정확도로 인간 사망 시간 예측

덴마크와 미국 과학자들이 인간의 사망 시간을 높은 정확도로 예측할 수 있는 life2vec이라는 AI 시스템을 개발하기 위해 협력했습니다.

AI가 소변소리만으로 요로질환을 예측한다

AI가 소변소리만으로 요로질환을 예측한다

오디오플로우(Audioflow)라는 AI 알고리즘은 배뇨 소리를 듣고 환자의 비정상적인 흐름과 이에 따른 건강 문제를 효과적이고 성공적으로 식별할 수 있습니다.

바텐더 여러분, 조심하세요: 이 로봇은 단 1분 만에 칵테일을 만들 수 있습니다.

바텐더 여러분, 조심하세요: 이 로봇은 단 1분 만에 칵테일을 만들 수 있습니다.

일본의 인구 노령화와 감소로 인해 특히 서비스 부문에서 상당한 수의 젊은 근로자가 부족해졌습니다.

수백 명의 사람들은 자신이 사랑했던 소녀가 AI의 산물이라는 사실을 알고 환멸을 느꼈습니다.

수백 명의 사람들은 자신이 사랑했던 소녀가 AI의 산물이라는 사실을 알고 환멸을 느꼈습니다.

u/LegalBeagle1966이라는 Reddit 사용자는 이 플랫폼에서 매혹적인 셀카, 심지어 누드 셀카까지 자주 공유하는 영화배우 같은 소녀인 Claudia에 매료된 많은 사용자 중 한 명입니다.

12개의 잠재적인 기업이 Microsoft의 AI 동맹에 합류했습니다.

12개의 잠재적인 기업이 Microsoft의 AI 동맹에 합류했습니다.

Microsoft는 최근 12개의 기술 회사가 AI for Good 프로그램에 참여할 것이라고 발표했습니다.

AI가 드래곤볼 캐릭터를 살과 피로 재현합니다

AI가 드래곤볼 캐릭터를 살과 피로 재현합니다

사용자 @mortecouille92는 그래픽 디자인 도구 Midjourney의 강력한 기능을 활용하여 Goku, Vegeta, Bulma 및 Elder Kame과 같은 유명한 Dragon Ball 캐릭터의 독특하고 사실적인 버전을 만들었습니다. .

ChatGPT 응답을 개선하는 7가지 기술

ChatGPT 응답을 개선하는 7가지 기술

몇 가지 조건을 추가하거나 몇 가지 시나리오를 설정하는 것만으로도 ChatGPT는 쿼리에 대해 보다 관련성 높은 답변을 제공할 수 있습니다. ChatGPT 응답의 품질을 향상할 수 있는 몇 가지 방법을 살펴보겠습니다.

인공지능이 그린 아름다운 그림에 감탄해보세요

인공지능이 그린 아름다운 그림에 감탄해보세요

미드저니(Midjourney)는 실제 작가들의 그림에 뒤지지 않을 만큼 아름다운 그림들로 최근 온라인 커뮤니티와 화가계에 '열풍'을 일으키고 있는 인공지능 시스템이다.

이 AI 모델은 우한 폐렴 발생에 대한 뉴스를 발견한 최초의 전문가 중 하나였습니다.

이 AI 모델은 우한 폐렴 발생에 대한 뉴스를 발견한 최초의 전문가 중 하나였습니다.

중국이 발병을 발표한 지 며칠 후, BlueDot의 AI 시스템은 전 세계 항공권 판매 데이터에 액세스하여 우한 코로나 바이러스가 방콕, 서울, 타이베이, 도쿄로 확산되는 것을 계속해서 정확하게 예측했습니다.