Brasil,

Inovação com segurança: a corrida para regulamentação da IA

  • Crédito de Imagens:Divulgação - Escrito ou enviado por  Press FC
  • SEGS.com.br - Categoria: Seguros
  • Imprimir

Rafaela Cysneiros, Principal Consultant de Privacidade da keeggo Rafaela Cysneiros, Principal Consultant de Privacidade da keeggo

O desenvolvimento e a adoção acelerada de ferramentas de Inteligência Artificial já levantaram sinais de alerta, gerando debates éticos e legais em relação ao uso da tecnologia. A regulação segue sendo um desafio para governos e organizações, mas há uma opinião crescente sobre a criação de regras para a aplicação responsável por parte de empresas fornecedoras e operadoras de sistemas de IA.

Isso porque o uso precisa ser precedido por uma análise ética, como no clássico experimento “Dilema do Trem”. Nesse contexto, a moralmachine.net traz exemplos das implicações de decisões automatizadas em veículos autônomos. A ausência de um arcabouço de pesos e contrapesos pode ter impactos negativos em direitos fundamentais, como privacidade, proteção de dados e igualdade.

A União Europeia tem sido pioneira na criação de um ambiente regulatório robusto para a inteligência artificial. A exemplo do Regulamento Geral sobre a Proteção de Dados (GDPR, em inglês), que abriu caminho para que outros países regulassem o tema da proteção de dados, o debate europeu sobre a IA influencia discussões teóricas e legais no Brasil e no mundo.

A “AI Act” categoriza os sistemas de inteligência artificial em função dos riscos que possam representar aos direitos fundamentais, criando obrigações que chegam a proibir sistemas considerados de “risco inaceitável”. Questões de reconhecimento facial e vigilância biométrica são temas delicados do documento, e a linha traçada entre o “uso em tempo real” e “uso após fato” ainda deve gerar muitos debates entre legisladores e estudiosos.

Nos EUA, embora até o momento não haja uma abordagem regulatória unificada para a IA, entidades reconhecem a necessidade de equilibrar inovação com segurança. Bigtechs como Google, Microsoft, Adobe e IBM já assinaram compromisso voluntário para o uso responsável da tecnologia. Recentemente, o Congresso dos Estados Unidos reuniu diretores de Meta e Tesla para discutir a criação de um “árbitro para a IA” que, na prática, significa uma agência reguladora para supervisionar o uso da mesma.

No Brasil, a Autoridade Nacional de Proteção de Dados (ANPD) é quem pleiteia o papel pelos pontos de conexão entre a LGPD e o marco regulatório da IA. E, nos moldes do AI Act, o PL 2338/23 propõe a criação de níveis de risco da IA, entre excessivo e de alto risco. O texto trata ainda da possibilidade de revisão de decisões automatizadas, que nos leva de volta à questão ética da IA.

Afinal, como garantir que a IA será livre de vieses e quem será responsável pelos danos causados? Supondo que um carro autônomo cause um acidente, quem deve reparar os danos morais e patrimoniais? Se o PL entrar em vigor com os dispositivos atuais, a Tesla pode ter um grande problema financeiro nas mãos.

É fato que as possíveis aplicações da IA são inúmeras e sua adoção terá impactos em todas as esferas. Desde a forma como consumimos informações – daí o risco da desinformação se as bases de aprendizado forem ruins – até o mercado de trabalho, com atividades que passam a ser desempenhadas 100% por máquinas. Ou, como nos filmes de ficção científica, a perda do controle sobre os robôs.

Diante disso, é importante que exista uma regulamentação que impeça abusos, como aconteceu com grandes plataformas online antes de leis como GDPR e LGPD, sem que seja impeditiva de inovação. Também é necessário que seja tecnologicamente neutra, com a participação de profissionais de TI ao lado de advogados e membros do legislativo.

Mais que isso, é necessário pensar nos efeitos extraterritoriais da lei, já que, na maioria dos casos, os grandes players do segmento estão nos EUA. De qualquer forma, a IA já é uma realidade tão presente que leitores nunca saberão se esse texto é de minha autoria ou se foi escrito pelo ChatGPT.


Compartilhe:: Participe do GRUPO SEGS - PORTAL NACIONAL no FACEBOOK...:
 
https://www.facebook.com/groups/portalnacional/

<::::::::::::::::::::>
IMPORTANTE.: Voce pode replicar este artigo. desde que respeite a Autoria integralmente e a Fonte...  www.segs.com.br
<::::::::::::::::::::>
No Segs, sempre todos tem seu direito de resposta, basta nos contatar e sera atendido. -  Importante sobre Autoria ou Fonte..: - O Segs atua como intermediario na divulgacao de resumos de noticias (Clipping), atraves de materias, artigos, entrevistas e opinioes. - O conteudo aqui divulgado de forma gratuita, decorrem de informacoes advindas das fontes mencionadas, jamais cabera a responsabilidade pelo seu conteudo ao Segs, tudo que e divulgado e de exclusiva responsabilidade do autor e ou da fonte redatora. - "Acredito que a palavra existe para ser usada em favor do bem. E a inteligencia para nos permitir interpretar os fatos, sem paixao". (Autoria de Lucio Araujo da Cunha) - O Segs, jamais assumira responsabilidade pelo teor, exatidao ou veracidade do conteudo do material divulgado. pois trata-se de uma opiniao exclusiva do autor ou fonte mencionada. - Em caso de controversia, as partes elegem o Foro da Comarca de Santos-SP-Brasil, local oficial da empresa proprietaria do Segs e desde ja renunciam expressamente qualquer outro Foro, por mais privilegiado que seja. O Segs trata-se de uma Ferramenta automatizada e controlada por IP. - "Leia e use esta ferramenta, somente se concordar com todos os TERMOS E CONDICOES DE USO".
<::::::::::::::::::::>

voltar ao topo

Adicionar comentário

Aja com responsabilidade aos SEUS COMENTÁRIOS, em Caso de Reclamação, nos reservamos o Direito, a qualquer momento de Mudar, Modificar, Adicionar, ou mesmo Suprimir os comentarios de qualquer um, a qualquer hora, sem aviso ou comunicado previo, leia todos os termos... CLIQUE AQUI E CONHEÇA TODOS OS TERMOS E CONDIÇÕES DE USO. - O Nosso muito obrigado - Ferramenta Automatizada...IMPORTANTE: COMENTÁRIOS com LINK são bloqueados automaticamente (COMMENTS with LINKS are automatically blocked.)...Sucesso!

Security code Atualizar

Enviar