Avançar para o conteúdo

17 Pontos para a Regulação da Inteligência Artificial no Mundo

✅ Receba as notícias do tecArtificial no WhatsApp e siga o canal tecArtificial.

O desenvolvimento acelerado da inteligência artificial (IA) tem gerado preocupações em todo o mundo, levando governos e organizações a buscar maneiras de regular seu uso. No entanto, apesar das centenas de propostas apresentadas em diferentes países, há poucas medidas concretas para coibir o mau uso dos sistemas.

Principais Pontos:

  • Preocupações globais com o desenvolvimento acelerado da IA, com poucas medidas concretas para controlar seu mau uso.
  • Um estudo da PUC-RS analisou mais de 200 documentos de 37 países, identificando 17 princípios gerais para regular a IA.
  • Líderes mundiais se reuniram no Reino Unido para a primeira cúpula global sobre IA, resultando na Declaração de Bletchley.
  • Alertas sobre os riscos de IA em armas químicas, biológicas, ataques cibernéticos e abusos, contrastados com seus benefícios em eficiência de serviços públicos.
  • Proposta de um código de conduta pelo G7 e diretrizes dos EUA para prevenir o uso de IA em armas.

Um estudo realizado por pesquisadores da PUC-RS analisou mais de 200 documentos de 37 países, incluindo projetos de lei, propostas de autorregulação e códigos de ética, entre outros tipos de propostas para disciplinar a IA. O estudo identificou 17 princípios gerais citados nos documentos e concluiu que a transparência e a segurança são as principais preocupações, seguidas da privacidade e da responsabilidade. Entretanto, questões como veracidade, propriedade intelectual e proteção à infância são menos mencionadas.

principios citados

Mobilização Global

Recentemente, líderes mundiais reuniram-se na primeira cúpula global sobre os impactos da Inteligência Artificial (IA) no Reino Unido. A Declaração de Bletchley foi assinada por líderes da União Europeia, dos EUA, da China e de cerca de outros 20 países, incluindo o Brasil, para um desenvolvimento “seguro” da IA. A declaração destaca a necessidade urgente de compreender e administrar coletivamente os riscos potenciais da IA.

O governo britânico alertou que sistemas avançados de IA facilitariam a construção de armas químicas e biológicas, ataques cibernéticos, fraudes e abuso sexual de crianças, representando um risco para a própria humanidade. No entanto, o relatório também ressaltou que há benefícios, como tornar serviços públicos mais eficientes e baratos.

1 0e5689b0 4b94 4c6f 9d65 4909c26be16d

O G7 propôs um código de conduta para empresas que desenvolvem IA, enquanto o presidente americano, Joe Biden, lançou a primeira diretriz do país para o setor. A diretriz exige testes para evitar que a tecnologia seja usada para armas biológicas ou nucleares e recomenda a adoção de selos para identificar conteúdo gerado por IA.

Os pesquisadores da PUC-RS publicaram um estudo na revista científica “Patterns“, identificando de onde estão partindo as propostas para regrar o desenvolvimento da IA. Eles constataram que, além de órgãos governamentais, as empresas privadas estão à frente da maioria das iniciativas. Juntos, governo e indústria contribuíram com quase metade das proposições, enquanto grupos acadêmicos e ONGs aparecem em segundo plano.

Em geral, há uma mobilização global para lidar com os riscos potenciais da IA e estabelecer regras para o seu desenvolvimento. A cooperação global é vista como fundamental para lidar com os riscos e maximizar os benefícios da IA.

2 957e273c 4c17 4dcc 99e3 87c497e1a045

4 Ameaças Favorecidas Pela IA:

A inteligência artificial (IA) tem sido usada por hackers para aprimorar suas técnicas e tornar seus ataques mais eficientes. Abaixo estão quatro ameaças favorecidas pela IA:

  • Deepfakes melhores: Com a ajuda de sistemas de inteligência artificial generativa, é possível manipular vídeos, imagens e áudios de forma mais realista, o que pode ser usado para disseminar informações falsas.
  • Hackeamento de senhas: Cibercriminosos usam algoritmos de IA para decifrar senhas com maior rapidez e precisão, o que pode levar a violações de segurança.
  • Engenharia social: Com IA, hackers podem automatizar processos para gerar ataques que buscam induzir usuários de dispositivos ao erro por meio de manipulações, seja com deepfakes ou phishing.
  • Envenenamento de dados: Hackers podem alterar dados de treinamento usados por algoritmos de IA para influenciar as decisões que um sistema toma, o que pode ser difícil de detectar e levar a resultados indesejados.

Em suma, a IA tem sido usada para aumentar a eficiência de ataques cibernéticos, tornando a segurança digital uma preocupação ainda maior.

3 1ac0f2d9 1288 442a 9975 999bd2ad336e

Regulação solicitada

Imagens criadas com ajuda de site de inteligência artificial

Grandes empresas de tecnologia, como Meta, OpenAI, Google e IBM, já possuem suas próprias cartas de princípios para inteligência artificial e estão pedindo a governos que regulem o setor. Elon Musk, um dos principais expoentes da indústria de tecnologia americana e que também investe em IA, foi um dos participantes da conferência que reuniu chefes de Estado no Reino Unido.

Os pesquisadores da PUC-RS ressaltam que leis com muitas exigências de salvaguardas, que requerem investimentos altos, podem prejudicar grupos de pesquisa em universidades e iniciativas pequenas.

A base de dados construída pelo grupo da PUC-RS inclui tudo o que os pesquisadores encontraram em cinco línguas ocidentais (inglês, português, espanhol, francês e alemão) e contém, por exemplo, normas que a União Europeia adota para IA. O projeto de lei que tramita no Brasil sobre o tema, porém, só surgiu quando o estudo já estava concluído, mas o grupo da PUC-RS produziu uma carta separada com recomendações sobre a iniciativa.

Pelo menos 13 dos 17 princípios que os pesquisadores listam aparecem explicitamente no projeto de lei proposto pelo Senado, incluindo a “centralidade da pessoa humana”, o “respeito aos direitos humanos” e a “não discriminação”. No entanto, a proposta brasileira e a maioria das outras não detalham como sair da abstração para soluções reais.

Perguntas Frequentes

Quais são os principais pontos do projeto de lei de regulamentação da inteligência artificial no Brasil?

O projeto de lei de regulamentação da inteligência artificial no Brasil tem como objetivo estabelecer regras para o desenvolvimento e uso da tecnologia no país. Alguns dos principais pontos do projeto incluem a criação de um conselho para regulamentar a inteligência artificial, a definição de requisitos para a transparência e explicabilidade dos sistemas de IA e a garantia de que os sistemas não discriminem grupos sociais ou minorias.

Como a inteligência artificial pode afetar a proteção de dados pessoais?

A inteligência artificial pode afetar a proteção de dados pessoais, uma vez que os sistemas de IA muitas vezes dependem de grandes quantidades de dados para funcionar corretamente. Isso pode levar a preocupações com a privacidade e a segurança dos dados pessoais, especialmente se esses dados forem usados de maneiras não autorizadas ou inesperadas.

Quais são os desafios éticos da utilização da inteligência artificial?

A utilização da inteligência artificial pode apresentar vários desafios éticos, incluindo a possibilidade de discriminação, a falta de transparência e explicabilidade dos sistemas, e a responsabilidade pelos danos causados por sistemas de IA. É importante que esses desafios sejam abordados de forma adequada para garantir que a tecnologia seja usada de maneira ética e responsável.

Como a regulamentação da inteligência artificial pode impactar a indústria?

A regulamentação da inteligência artificial pode ter um impacto significativo na indústria, especialmente em setores que dependem fortemente da tecnologia, como a saúde, finanças e transporte. A regulamentação pode levar a mudanças na forma como as empresas desenvolvem e usam a tecnologia, o que pode afetar sua competitividade e lucratividade.

Quais são as principais preocupações em relação à inteligência artificial na União Europeia?

As principais preocupações em relação à inteligência artificial na União Europeia incluem a privacidade e a segurança dos dados pessoais, a transparência e explicabilidade dos sistemas de IA, e a possibilidade de discriminação. A UE tem adotado uma abordagem cautelosa em relação à regulação da IA, buscando equilibrar os benefícios da tecnologia com a proteção dos direitos dos cidadãos.

Como a inteligência artificial pode ser utilizada no Direito brasileiro?

A inteligência artificial pode ser utilizada no Direito brasileiro de várias maneiras, incluindo a análise de casos e jurisprudência, a automação de tarefas repetitivas, e a identificação de tendências e padrões em grandes conjuntos de dados. No entanto, é importante que os sistemas de IA sejam desenvolvidos e usados de maneira responsável e ética para garantir a justiça e a equidade no sistema jurídico.

5 1 vote
Article Rating
Subscribe
Notify of
1 Comentário
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
trackback

[…] 17 Pontos para a Regulação da Inteligência Artificial no Mundo […]

nv-author-image

Bruno Solano – Artificial Intelligence Advisor; especialista em criação de negócios rentáveis e produtos digitais baseados em Inteligência Artificial (IA); editor do tecArtificial; foi cofundador do Google Developers, programa de iniciativa do Google para estimular comunidades a utilizarem suas plataformas e tecnologias. Atualmente, coordena um dos cursos mais extensos sobre produtividade com Inteligência Artificial voltados para o mundo dos negócios.