A força-tarefa ChatGPT será criada pela Europa
O órgão que une os vigilantes nacionais da privacidade da Europa disse na quinta-feira que estabeleceu uma força-tarefa dedicada ao ChatGPT
A União Europeia emitiu hoje oficialmente um conjunto de documentos de orientação sobre como as empresas e os governos devem seguir no desenvolvimento e implementação dos seus projetos de inteligência artificial para que sejam verdadeiramente transparentes, justos e “éticos”.
De repente, isso me lembra uma lei chamada Três Leis da Robótica, mencionada pelo escritor russo Isaac Asimov na coletânea de contos “Runaround” que ele compôs em 1942, algo como a primeira: Um robô não tem permissão para ferir humanos ou ignorar perigos que os humanos enfrentam. Artigo 2: Um robô deve obedecer absolutamente às ordens dadas pelos humanos, a menos que estas ordens entrem em conflito com a primeira lei. E terceiro: um robô deve proteger-se, desde que tal proteção não entre em conflito com a primeira e a segunda leis. Embora este seja apenas um conjunto de regras de “ficção” que apareceu há quase 80 anos, ainda é especialmente atual quando as pessoas estão gradualmente entrando na era atual da inteligência artificial. É claro que o novo conjunto de regras emitido pela UE não será fundamentalmente igual à lei das “Três Leis da Robótica” de Isaac Asimov. Os legisladores europeus não podem fornecer um quadro ético flexível que nos ajude a navegar em grandes coisas como deter os robôs assassinos. Em vez disso, os documentos de orientação da UE ajudam a resolver problemas “obscuros e generalizados” que têm um impacto negativo na sociedade à medida que integramos a IA em muitas áreas importantes das nossas vidas, como os cuidados de saúde, a educação e a tecnologia de consumo.
A título de exemplo simples, se um sistema de IA médica diagnosticar uma pessoa com elevado risco de desenvolver cancro no futuro, as orientações da UE ajudarão a garantir que algumas das seguintes ações precisam de ser tomadas: O software não é tendencioso ou influenciado pelas opiniões do paciente raça ou sexo e, ao mesmo tempo, fornecer as informações mais claras e transparentes sobre sua condição médica e, principalmente, não interferir ou dificultar as decisões do paciente.
Então, sim, estas directrizes centram-se principalmente em limitar e controlar os modelos de IA para funcionarem correctamente, mas apenas a nível administrativo e burocrático, em vez de prevenir actos de matança de acordo com a imaginação do escritor Asimov.
Para produzir este conjunto de documentos de orientação, a UE teve de reunir um grupo de 52 peritos, pedindo-lhes que discutissem, concordassem e apresentassem 7 requisitos que consideram que os futuros sistemas de IA deveriam ter. Esses requisitos são os seguintes:
Você provavelmente notará que algumas das afirmações acima são bastante abstratas e seriam difíceis de avaliar em um sentido objetivo (por exemplo, a definição de mudança social positiva que a IA traz irá variar muito de pessoa para pessoa e, de forma mais ampla, entre países ). No entanto, a maioria dos restantes itens são geralmente mais simples e podem ser verificados e garantidos através da supervisão das autoridades. Por exemplo, a partilha de dados utilizados para treinar sistemas de IA governamentais pode ser uma boa forma de combater algoritmos tendenciosos e opacos.
As disposições destes documentos de orientação da UE claramente não são juridicamente vinculativas, mas poderiam ser utilizadas para moldar qualquer legislação futura elaborada pela União Europeia que contenha questões relacionadas com o domínio da IA. No passado, a UE afirmou repetidamente que pretende tornar a Europa pioneira no mundo na implantação de modelos “éticos” de IA e no lançamento de um conjunto de documentos de orientação. regulamentar e proteger os direitos digitais.
A UE quer moldar uma indústria de IA com padrões éticos no seu cerne
Como parte dos esforços para criar uma indústria de IA “ética”, o documento de orientação da UE pode ser visto como um trampolim para a criação de uma “lista confiável de avaliação de IA” – uma lista de termos que pode ajudar os especialistas a encontrar quaisquer pontos fracos ou perigos potenciais numa IA. software, mesmo que tenha sido implantado extensivamente. Esta lista pode incluir perguntas como: “Você pode demonstrar o desempenho do seu sistema de IA em situações e ambientes complexos?” ou “Você pode avaliar o tipo e o escopo dos dados em seu conjunto de dados?” ...
É claro que esta lista de avaliação é apenas preliminar, a UE ainda terá de recolher feedback de empresas e especialistas em inteligência artificial num futuro próximo. Já em 2020, a UE publicará um relatório resumido sobre esta questão.
Anny Hidvégi, gestora de políticas do grupo de direitos digitais Access Now e um dos 52 especialistas responsáveis pela elaboração dos documentos de orientação da UE, disse que a lista de avaliação era a parte principal. O ponto mais importante do relatório: "Este conjunto de documentos ajuda a fornecer uma visão prática , perspectiva prospectiva sobre como prevenir e minimizar os danos potenciais da IA."
“Na nossa opinião, a UE tem potencial e responsabilidade suficientes para se tornar uma organização líder neste trabalho. Mas, além disso, pensamos também que a União Europeia não deve limitar-se aos princípios morais. Eles deveriam considerar exigir que as empresas de mineração de IA cumpram a lei no futuro”, acrescentou Hidvégi.
Outros estão céticos de que a tentativa da UE de moldar a forma como a IA global é desenvolvida através da investigação ética terá muito efeito.
“Estamos cépticos quanto à abordagem adoptada pela organização líder da Europa. A ideia de que, ao criar um padrão-ouro para sistemas éticos de IA, a UE será capaz de conquistar o seu lugar no desenvolvimento da indústria global de IA é relativamente absurda. Para se tornar líder na definição de regras éticas de IA, a UE deve primeiro tornar-se líder no campo da IA como um todo”, partilhou Eline Ch Pivot, analista política sénior do Centro Europeu de Inovação de Dados.
O que você pensa sobre esse assunto? Por favor, deixe seus comentários na seção de comentários abaixo!
O órgão que une os vigilantes nacionais da privacidade da Europa disse na quinta-feira que estabeleceu uma força-tarefa dedicada ao ChatGPT
Cientistas dinamarqueses e americanos colaboraram para desenvolver um sistema de IA chamado life2vec, capaz de prever o momento da morte humana com alta precisão.
Um algoritmo de IA chamado Audioflow pode ouvir o som da micção para identificar com eficácia e sucesso fluxos anormais e problemas de saúde correspondentes do paciente.
O envelhecimento e o declínio da população do Japão deixaram o país sem um número significativo de jovens trabalhadores, especialmente no sector dos serviços.
Um usuário do Reddit chamado u/LegalBeagle1966 é um dos muitos usuários apaixonados por Claudia, uma garota parecida com uma estrela de cinema que costuma compartilhar selfies sedutoras, até mesmo nuas, nesta plataforma.
A Microsoft acaba de anunciar que mais 12 empresas de tecnologia participarão de seu programa AI for Good.
O usuário @mortecouille92 colocou o poder da ferramenta de design gráfico Midjourney para funcionar e criou versões realistas e únicas de personagens famosos de Dragon Ball como Goku, Vegeta, Bulma e o velho Kame.
Apenas adicionando algumas condições ou configurando alguns cenários, o ChatGPT pode dar respostas mais relevantes às suas dúvidas. Vejamos algumas maneiras de melhorar a qualidade de suas respostas do ChatGPT.
Midjourney é um sistema de inteligência artificial que recentemente causou “febre” na comunidade online e no mundo dos artistas por causa de suas pinturas extremamente belas e que não são inferiores às de artistas reais.
Dias depois de a China anunciar o surto, com acesso a dados globais de vendas de passagens aéreas, o sistema de IA da BlueDot continuou a prever com precisão a propagação do vírus Wuhan Corona para Bangkok, Seul, Taipei e Tóquio.