✅ Receba as notícias do tecArtificial no WhatsApp e siga o canal tecArtificial.
O desenvolvimento acelerado da inteligência artificial (IA) tem gerado preocupações em todo o mundo, levando governos e organizações a buscar maneiras de regular seu uso. No entanto, apesar das centenas de propostas apresentadas em diferentes países, há poucas medidas concretas para coibir o mau uso dos sistemas.
Principais Pontos:
- Preocupações globais com o desenvolvimento acelerado da IA, com poucas medidas concretas para controlar seu mau uso.
- Um estudo da PUC-RS analisou mais de 200 documentos de 37 países, identificando 17 princípios gerais para regular a IA.
- Líderes mundiais se reuniram no Reino Unido para a primeira cúpula global sobre IA, resultando na Declaração de Bletchley.
- Alertas sobre os riscos de IA em armas químicas, biológicas, ataques cibernéticos e abusos, contrastados com seus benefícios em eficiência de serviços públicos.
- Proposta de um código de conduta pelo G7 e diretrizes dos EUA para prevenir o uso de IA em armas.
Um estudo realizado por pesquisadores da PUC-RS analisou mais de 200 documentos de 37 países, incluindo projetos de lei, propostas de autorregulação e códigos de ética, entre outros tipos de propostas para disciplinar a IA. O estudo identificou 17 princípios gerais citados nos documentos e concluiu que a transparência e a segurança são as principais preocupações, seguidas da privacidade e da responsabilidade. Entretanto, questões como veracidade, propriedade intelectual e proteção à infância são menos mencionadas.
Mobilização Global
Recentemente, líderes mundiais reuniram-se na primeira cúpula global sobre os impactos da Inteligência Artificial (IA) no Reino Unido. A Declaração de Bletchley foi assinada por líderes da União Europeia, dos EUA, da China e de cerca de outros 20 países, incluindo o Brasil, para um desenvolvimento “seguro” da IA. A declaração destaca a necessidade urgente de compreender e administrar coletivamente os riscos potenciais da IA.
O governo britânico alertou que sistemas avançados de IA facilitariam a construção de armas químicas e biológicas, ataques cibernéticos, fraudes e abuso sexual de crianças, representando um risco para a própria humanidade. No entanto, o relatório também ressaltou que há benefícios, como tornar serviços públicos mais eficientes e baratos.
O G7 propôs um código de conduta para empresas que desenvolvem IA, enquanto o presidente americano, Joe Biden, lançou a primeira diretriz do país para o setor. A diretriz exige testes para evitar que a tecnologia seja usada para armas biológicas ou nucleares e recomenda a adoção de selos para identificar conteúdo gerado por IA.
Os pesquisadores da PUC-RS publicaram um estudo na revista científica “Patterns“, identificando de onde estão partindo as propostas para regrar o desenvolvimento da IA. Eles constataram que, além de órgãos governamentais, as empresas privadas estão à frente da maioria das iniciativas. Juntos, governo e indústria contribuíram com quase metade das proposições, enquanto grupos acadêmicos e ONGs aparecem em segundo plano.
Em geral, há uma mobilização global para lidar com os riscos potenciais da IA e estabelecer regras para o seu desenvolvimento. A cooperação global é vista como fundamental para lidar com os riscos e maximizar os benefícios da IA.
4 Ameaças Favorecidas Pela IA:
A inteligência artificial (IA) tem sido usada por hackers para aprimorar suas técnicas e tornar seus ataques mais eficientes. Abaixo estão quatro ameaças favorecidas pela IA:
- Deepfakes melhores: Com a ajuda de sistemas de inteligência artificial generativa, é possível manipular vídeos, imagens e áudios de forma mais realista, o que pode ser usado para disseminar informações falsas.
- Hackeamento de senhas: Cibercriminosos usam algoritmos de IA para decifrar senhas com maior rapidez e precisão, o que pode levar a violações de segurança.
- Engenharia social: Com IA, hackers podem automatizar processos para gerar ataques que buscam induzir usuários de dispositivos ao erro por meio de manipulações, seja com deepfakes ou phishing.
- Envenenamento de dados: Hackers podem alterar dados de treinamento usados por algoritmos de IA para influenciar as decisões que um sistema toma, o que pode ser difícil de detectar e levar a resultados indesejados.
Em suma, a IA tem sido usada para aumentar a eficiência de ataques cibernéticos, tornando a segurança digital uma preocupação ainda maior.
Regulação solicitada
Imagens criadas com ajuda de site de inteligência artificial
Grandes empresas de tecnologia, como Meta, OpenAI, Google e IBM, já possuem suas próprias cartas de princípios para inteligência artificial e estão pedindo a governos que regulem o setor. Elon Musk, um dos principais expoentes da indústria de tecnologia americana e que também investe em IA, foi um dos participantes da conferência que reuniu chefes de Estado no Reino Unido.
Os pesquisadores da PUC-RS ressaltam que leis com muitas exigências de salvaguardas, que requerem investimentos altos, podem prejudicar grupos de pesquisa em universidades e iniciativas pequenas.
A base de dados construída pelo grupo da PUC-RS inclui tudo o que os pesquisadores encontraram em cinco línguas ocidentais (inglês, português, espanhol, francês e alemão) e contém, por exemplo, normas que a União Europeia adota para IA. O projeto de lei que tramita no Brasil sobre o tema, porém, só surgiu quando o estudo já estava concluído, mas o grupo da PUC-RS produziu uma carta separada com recomendações sobre a iniciativa.
Pelo menos 13 dos 17 princípios que os pesquisadores listam aparecem explicitamente no projeto de lei proposto pelo Senado, incluindo a “centralidade da pessoa humana”, o “respeito aos direitos humanos” e a “não discriminação”. No entanto, a proposta brasileira e a maioria das outras não detalham como sair da abstração para soluções reais.
Perguntas Frequentes
Quais são os principais pontos do projeto de lei de regulamentação da inteligência artificial no Brasil?
O projeto de lei de regulamentação da inteligência artificial no Brasil tem como objetivo estabelecer regras para o desenvolvimento e uso da tecnologia no país. Alguns dos principais pontos do projeto incluem a criação de um conselho para regulamentar a inteligência artificial, a definição de requisitos para a transparência e explicabilidade dos sistemas de IA e a garantia de que os sistemas não discriminem grupos sociais ou minorias.
Como a inteligência artificial pode afetar a proteção de dados pessoais?
A inteligência artificial pode afetar a proteção de dados pessoais, uma vez que os sistemas de IA muitas vezes dependem de grandes quantidades de dados para funcionar corretamente. Isso pode levar a preocupações com a privacidade e a segurança dos dados pessoais, especialmente se esses dados forem usados de maneiras não autorizadas ou inesperadas.
Quais são os desafios éticos da utilização da inteligência artificial?
A utilização da inteligência artificial pode apresentar vários desafios éticos, incluindo a possibilidade de discriminação, a falta de transparência e explicabilidade dos sistemas, e a responsabilidade pelos danos causados por sistemas de IA. É importante que esses desafios sejam abordados de forma adequada para garantir que a tecnologia seja usada de maneira ética e responsável.
Como a regulamentação da inteligência artificial pode impactar a indústria?
A regulamentação da inteligência artificial pode ter um impacto significativo na indústria, especialmente em setores que dependem fortemente da tecnologia, como a saúde, finanças e transporte. A regulamentação pode levar a mudanças na forma como as empresas desenvolvem e usam a tecnologia, o que pode afetar sua competitividade e lucratividade.
Quais são as principais preocupações em relação à inteligência artificial na União Europeia?
As principais preocupações em relação à inteligência artificial na União Europeia incluem a privacidade e a segurança dos dados pessoais, a transparência e explicabilidade dos sistemas de IA, e a possibilidade de discriminação. A UE tem adotado uma abordagem cautelosa em relação à regulação da IA, buscando equilibrar os benefícios da tecnologia com a proteção dos direitos dos cidadãos.
Como a inteligência artificial pode ser utilizada no Direito brasileiro?
A inteligência artificial pode ser utilizada no Direito brasileiro de várias maneiras, incluindo a análise de casos e jurisprudência, a automação de tarefas repetitivas, e a identificação de tendências e padrões em grandes conjuntos de dados. No entanto, é importante que os sistemas de IA sejam desenvolvidos e usados de maneira responsável e ética para garantir a justiça e a equidade no sistema jurídico.
[…] 17 Pontos para a Regulação da Inteligência Artificial no Mundo […]