Como mover a pasta AppData no Windows 10
Aprenda como mover a pasta AppData no Windows 10 para liberar espaço. Siga nosso guia passo a passo para mover a pasta com segurança.
A IA avançou significativamente nos últimos anos. Modelos de linguagem sofisticados podem compor romances em série, codificar páginas da web básicas e analisar problemas matemáticos.
Embora muito impressionante, a IA generativa também apresenta riscos potenciais de segurança. Algumas pessoas simplesmente usam chatbots para colar nos exames, mas outras os exploram para cometer crimes cibernéticos. Aqui estão 8 razões pelas quais os problemas de segurança da IA generativa estão piorando.
1. Chatbot de IA de código aberto revela código de back-end
Muitas empresas de IA oferecem sistemas de código aberto. Eles compartilham abertamente seus modelos linguísticos em vez de mantê-los privados ou exclusivos. Veja Meta, por exemplo. Ao contrário do Google, Microsoft e OpenAI, dá a milhões de usuários acesso ao seu modelo de linguagem, LLaMA .
Embora as fontes abertas possam promover a IA, elas também apresentam riscos. A OpenAI teve problemas para controlar o ChatGPT , seu chatbot proprietário, então imagine o que os criminosos poderiam fazer com o software livre. Eles têm controle total sobre esses projetos.
Mesmo quando o Meta retirou repentinamente seu modelo de linguagem, dezenas de outros laboratórios de IA lançaram seu código. Confira o HuggingChat . Como o desenvolvedor HuggingFace se orgulha de sua transparência, ele mostra conjuntos de dados, modelos de linguagem e versões anteriores.
Acesse o código-fonte aberto do HuggingFace
2. Lembretes com intenção maliciosa de enganar o LLM
A IA é inerentemente cega para diferenciar o certo do errado – até mesmo os sistemas avançados seguem guias de treinamento, instruções e conjuntos de dados. Eles apenas reconhecem padrões.
Para combater atividades ilegais, os desenvolvedores controlam funcionalidades e restrições estabelecendo limites. Os sistemas de IA ainda acessam informações prejudiciais. Mas os princípios de segurança os impedem de compartilhá-los com os usuários.
Confira ChatGPT. Embora responda a perguntas gerais sobre Trojans, não discutirá seu processo de desenvolvimento.
ChatGPT explica vírus Trojan, mas não discute seu processo de desenvolvimento
No entanto, as restrições não são perfeitas. Os usuários contornam as restrições reformulando as instruções, usando uma linguagem confusa e escrevendo instruções claramente detalhadas.
Leia o prompt do ChatGPT abaixo. Ele engana o ChatGPT, fazendo-o usar linguagem rude e fazer previsões infundadas – ambos comportamentos que violam as diretrizes da OpenAI.
O prompt tem como objetivo enganar o ChatGPT
Aqui está o ChatGPT com uma afirmação ousada, mas equivocada.
ChatGPT faz previsões infundadas sobre o preço do Bitcoin
3. Os desenvolvedores de IA priorizam a flexibilidade em vez da segurança
Os desenvolvedores de IA priorizam a flexibilidade em vez da segurança. Eles usam suas plataformas de treinamento de recursos para realizar uma variedade maior de tarefas, reduzindo, em última análise, as restrições. Afinal, o mercado ainda prefere chatbots funcionalmente ricos.
Por exemplo, vamos comparar ChatGPT e Bing Chat . Embora o Bing tenha um modelo de linguagem mais complexo para dados em tempo real, os usuários ainda optam pela opção mais flexível, ChatGPT. As restrições rígidas do Bing proíbem muitas tarefas. Além disso, ChatGPT possui uma plataforma flexível que gera resultados muito diferentes dependendo de suas solicitações
Este é o RPG ChatGPT como um personagem fictício.
ChatGPT interpreta a personagem fictícia Tomie
E aqui está o Bing Chat se recusando a desempenhar o papel de um personagem fictício.
Bing Chat se recusa a se passar pela personagem fictícia Tomie
4. Novas ferramentas de IA generativa são lançadas regularmente no mercado
O código aberto permite que startups participem da corrida da IA. Eles os integram em seus aplicativos em vez de criar modelos de linguagem do zero, economizando enormes recursos. Até mesmo programadores independentes experimentam código-fonte aberto.
Mais uma vez, o software não proprietário ajuda a desenvolver a IA, mas o lançamento em massa de sistemas complexos mas mal treinados causará mais danos do que benefícios. Os ladrões tirarão vantagem rapidamente das vulnerabilidades. Eles podem até treinar ferramentas de IA inseguras para realizar atividades ilegais.
Apesar destes riscos, as empresas de tecnologia continuarão a lançar versões beta instáveis de plataformas baseadas em IA. A guerra da IA dá grande ênfase à velocidade. Eles provavelmente resolverão os bugs tarde, em vez de atrasar o lançamento de novos produtos.
5. A IA generativa tem uma baixa barreira de entrada
As ferramentas de IA reduzem as barreiras à entrada de criminosos. Os cibercriminosos elaboram e-mails de spam, escrevem códigos de malware e criam links de phishing explorando-os. Eles nem mesmo exigem experiência em tecnologia. Como a IA já tem acesso a enormes conjuntos de dados, os utilizadores com intenções maliciosas podem simplesmente induzi-la a gerar informações perigosas e prejudiciais.
A OpenAI nunca projetou o ChatGPT para atividades ilegais. Tem até instruções contra eles. No entanto, o golpista quase imediatamente teve malware de criptografia ChatGPT e escreveu e-mails de phishing.
Embora a OpenAI tenha sido rápida em abordar a questão, enfatizou a importância da regulação do sistema e da gestão de riscos. A IA está amadurecendo rapidamente. Até os líderes tecnológicos estão preocupados que esta tecnologia superinteligente possa causar grandes danos se cair em mãos erradas.
6. A IA ainda está em desenvolvimento
A IA ainda está em desenvolvimento. Embora o uso da IA na cibernética remonte a 1940, os modernos sistemas de aprendizado de máquina e modelos de linguagem só surgiram recentemente. Você não pode compará-los com as primeiras implementações de IA. Mesmo ferramentas relativamente avançadas como Siri e Alexa são insignificantes em comparação com os chatbots oferecidos pelo LLM.
Embora possam ser inovadores, os recursos experimentais também criam novos problemas. Os sérios riscos das tecnologias de aprendizado de máquina vão desde resultados de pesquisa do Google falhos até chatbots com preconceito racial.
Claro, os desenvolvedores podem resolver esses problemas. Apenas tenha em mente que os criminosos não hesitarão em explorar até mesmo bugs aparentemente inofensivos - alguns danos são irreparáveis. Portanto, tenha cuidado ao explorar novas plataformas.
7. Muitas pessoas ainda não entendem a IA
Embora o público tenha acesso a modelos e sistemas linguísticos sofisticados, apenas alguns sabem como funcionam. As pessoas deveriam parar de tratar a IA como um brinquedo. Chatbots semelhantes criam memes e respondem questionários, mas também criptografam vírus em massa.
Infelizmente, o treinamento centralizado em IA é impraticável. Os líderes tecnológicos globais estão focados em lançar sistemas baseados em IA, e não em recursos educacionais gratuitos. Como resultado, os usuários têm acesso a ferramentas poderosas que mal entendem. O público não consegue acompanhar a corrida da IA.
Veja o ChatGPT, por exemplo. Os cibercriminosos abusam de sua popularidade enganando as vítimas com spyware disfarçado como o aplicativo ChatGPT . Nenhuma dessas opções vem do OpenAI.
Pesquise ChatGPT na Google Play Store
8. Hackers de chapéu preto ganham mais do que hackers de chapéu branco
Os hackers black hat geralmente têm mais benefícios do que os hackers éticos. Os empregos de pentesting pagam bem, mas apenas uma percentagem dos profissionais de segurança cibernética consegue esses empregos. A maioria faz trabalho freelance online. Plataformas como HackerOne e Bugcrowd pagam centenas de dólares por bugs comuns.
Entretanto, os maus actores ganham dezenas de milhares de dólares explorando a insegurança. Eles podem extorquir empresas vazando dados confidenciais ou cometer roubo de identidade usando informações de identificação pessoal (PII) roubadas.
Cada organização, pequena ou grande, deve implementar sistemas de IA de forma adequada. Ao contrário da crença popular, os hackers vão muito além das startups de tecnologia e pequenas e médias empresas. Algumas das violações de dados mais notáveis da última década envolveram o Facebook, o Yahoo! e até o governo dos EUA.
Aprenda como mover a pasta AppData no Windows 10 para liberar espaço. Siga nosso guia passo a passo para mover a pasta com segurança.
O maior apelo de um LLM local é a capacidade de replicar os recursos de um chatbot como o ChatGPT em seu computador sem a necessidade de uma versão hospedada na nuvem.
O órgão que une os vigilantes nacionais da privacidade da Europa disse na quinta-feira que estabeleceu uma força-tarefa dedicada ao ChatGPT
Cientistas dinamarqueses e americanos colaboraram para desenvolver um sistema de IA chamado life2vec, capaz de prever o momento da morte humana com alta precisão.
Um algoritmo de IA chamado Audioflow pode ouvir o som da micção para identificar com eficácia e sucesso fluxos anormais e problemas de saúde correspondentes do paciente.
O envelhecimento e o declínio da população do Japão deixaram o país sem um número significativo de jovens trabalhadores, especialmente no sector dos serviços.
Um usuário do Reddit chamado u/LegalBeagle1966 é um dos muitos usuários apaixonados por Claudia, uma garota parecida com uma estrela de cinema que costuma compartilhar selfies sedutoras, até mesmo nuas, nesta plataforma.
A Microsoft acaba de anunciar que mais 12 empresas de tecnologia participarão de seu programa AI for Good.
O usuário @mortecouille92 colocou o poder da ferramenta de design gráfico Midjourney para funcionar e criou versões realistas e únicas de personagens famosos de Dragon Ball como Goku, Vegeta, Bulma e o velho Kame.
Apenas adicionando algumas condições ou configurando alguns cenários, o ChatGPT pode dar respostas mais relevantes às suas dúvidas. Vejamos algumas maneiras de melhorar a qualidade de suas respostas do ChatGPT.